A­I­’­d­a­ ­b­u­ ­h­a­f­t­a­:­ ­Ş­i­r­k­e­t­l­e­r­ ­g­ö­n­ü­l­l­ü­ ­o­l­a­r­a­k­ ­A­I­ ­y­ö­n­e­r­g­e­l­e­r­i­n­e­ ­b­o­y­u­n­ ­e­ğ­i­y­o­r­ ­–­ ­ş­i­m­d­i­l­i­k­

A­I­’­d­a­ ­b­u­ ­h­a­f­t­a­:­ ­Ş­i­r­k­e­t­l­e­r­ ­g­ö­n­ü­l­l­ü­ ­o­l­a­r­a­k­ ­A­I­ ­y­ö­n­e­r­g­e­l­e­r­i­n­e­ ­b­o­y­u­n­ ­e­ğ­i­y­o­r­ ­–­ ­ş­i­m­d­i­l­i­k­


Yapay zeka kadar hızlı hareket eden bir sektöre ayak uydurmak zor bir iştir. Bu nedenle, bir yapay zeka sizin yerinize yapana kadar, makine öğrenimi dünyasındaki son hikayelerin yanı sıra kendi başımıza ele almadığımız dikkate değer araştırma ve deneylerin kullanışlı bir özetini burada bulabilirsiniz.

AI’da bu hafta, OpenAI, Anthropic, Google, Inflection, Microsoft, Meta ve Amazon’un, Biden yönetiminden planlanan bir İcra Emri öncesinde ortak AI güvenlik ve şeffaflık hedeflerini takip etmeyi gönüllü olarak taahhüt ettiklerini gördük.

Meslektaşım Devin Coldewey’in yazdığı gibi, burada önerilen herhangi bir kural veya yaptırım yoktur – üzerinde anlaşmaya varılan uygulamalar tamamen gönüllüdür. Ancak taahhütler, geniş vuruşlarla, her satıcının ABD’de ve yurt dışında değiştirilebilir bulabileceği yapay zeka düzenleme yaklaşımlarını ve politikalarını gösteriyor.

Diğer taahhütlerin yanı sıra şirketler, yayınlanmadan önce yapay zeka sistemlerinin güvenlik testlerini yapmak, yapay zekayı azaltma teknikleri hakkında bilgi paylaşmak ve yapay zeka tarafından oluşturulan içeriğin tanımlanmasını kolaylaştıran filigran teknikleri geliştirmek için gönüllü oldu. Ayrıca, özel yapay zeka verilerini korumak ve güvenlik açıklarının raporlanmasını kolaylaştırmak için siber güvenliğe yatırım yapacaklarını ve ayrıca sistemik önyargı ve gizlilik sorunları gibi toplumsal risklerle ilgili araştırmalara öncelik vereceklerini söylediler.

Taahhütler, uygulanabilir olmasalar bile, elbette önemli adımlardır. Ancak altını imzalayanların art niyetleri olup olmadığı merak ediliyor.

Bildirildiğine göre, OpenAI, şirketin AI sistemleri geliştirmek isteyen herkesten devlet lisansı talep etme fikrini desteklediğini gösteren bir iç politika notu hazırladı. CEO Sam Altman bu fikri ilk olarak Mayıs ayında ABD Senatosu’ndaki bir duruşmada gündeme getirdi ve bu sırada yapay zeka ürünleri için lisans verebilecek ve herhangi birinin belirlenmiş kuralları ihlal etmesi durumunda lisansları iptal edebilecek bir ajansın kurulmasını destekledi.

OpenAI’nin küresel ilişkilerden sorumlu Başkan Yardımcısı Anna Makanju basınla yakın zamanda yaptığı bir röportajda, OpenAI’nin lisanslar için “zorlamadığı” ve şirketin yalnızca OpenAI’nin mevcut GPT-4’ünden daha güçlü AI modelleri için lisanslama rejimlerini desteklediği konusunda ısrar etti. Ancak devlet tarafından verilen lisanslar, OpenAI’nin önerdiği şekilde uygulanmaları halinde, onları başkalarının uzaya girmesini zorlaştırma girişimi olarak görebilecek yeni başlayan şirketler ve açık kaynak geliştiricilerle potansiyel bir çatışmaya zemin hazırlar.

Devin bunu bana “bir yarışta arkalarındaki yola çivi düşürmek” olarak tanımladığında en iyisini söyledi sanırım. En azından, politikayı kendi lehlerine şekillendirirken (bu durumda küçük meydan okuyanları dezavantajlı duruma düşürerek) perde arkasında düzenleyicileri yatıştırmaya çalışan yapay zeka şirketlerinin iki yüzlü doğasını gösteriyor.

Endişe verici bir durum. Ancak, politika yapıcılar harekete geçerse, özel sektörün gereksiz yere müdahalesi olmadan yeterli koruma için umut var.

İşte son birkaç gündeki diğer AI hikayeleri:

  • OpenAI’nin güven ve güvenlik başkanı geri adım atıyor: OpenAI’nin güven ve güvenlik başkanı olan bir endüstri gazisi olan Dave Willner, bir duyuruda duyurdu LinkedIn’de yayınla işten ayrıldığını ve danışman rolüne geçtiğini. OpenAI yaptığı açıklamada, bir yedek aradığını ve CTO Mira Murati’nin ekibi geçici olarak yöneteceğini söyledi.
  • ChatGPT için özelleştirilmiş talimatlar: Daha fazla OpenAI haberinde, şirket ChatGPT kullanıcıları için özel talimatlar başlattı, böylece her etkileşim kurduklarında chatbot’a aynı talimat istemlerini yazmak zorunda kalmıyorlar.
  • Google haber yazma yapay zekası: Google, haber hikayeleri yazmak için AI kullanan bir aracı test ediyor ve yayınlara demosunu yapmaya başladı. yeni bir rapor The New York Times’tan. Teknoloji devi, AI sistemini The New York Times, The Washington Post ve The Wall Street Journal’ın sahibi News Corp.’a sundu.
  • Apple, ChatGPT benzeri bir sohbet robotunu test ediyor: Apple, OpenAI, Google ve diğerlerine meydan okumak için yapay zeka geliştiriyor. yeni rapor Bloomberg’den Mark Gurman’dan. Spesifik olarak, teknoloji devi, bazı mühendislerin dahili olarak “Apple GPT” olarak adlandırdığı bir sohbet robotu yarattı.
  • Meta sürümleri Lama 2: Meta, yeni bir AI modelleri ailesini tanıttı. Lama 2, uygulamaları OpenAI’nin ChatGPT, Bing Chat ve diğer modern sohbet botları doğrultusunda yönlendirmek için tasarlanmıştır. Halka açık verilerin bir karışımı üzerinde eğitim alan Meta, Llama 2’nin performansının önceki nesil Llama modellerine göre önemli ölçüde arttığını iddia ediyor.
  • Yazarlar üretken yapay zekayı protesto ediyor: ChatGPT gibi üretici yapay zeka sistemleri, kitaplar da dahil olmak üzere herkese açık veriler üzerinde eğitilir ve tüm içerik oluşturucular bu düzenlemeden memnun değildir. 8.500’den fazla yazar tarafından imzalanan açık mektupta kurgu, kurgu dışı ve şiir, ChatGPT, Bard, LLaMa gibi büyük dil modellerinin arkasındaki teknoloji şirketleri ve daha fazlası, yazılarını izinsiz veya tazminatsız kullandıkları için görevlendirilir.
  • Microsoft, Bing Chat’i kuruluşa getiriyor: Microsoft, yıllık Inspire konferansında, iş odaklı veri gizliliği ve yönetim denetimlerine sahip Bing Chat yapay zeka destekli sohbet robotunun bir sürümü olan Bing Chat Enterprise’ı duyurdu. Bing Chat Enterprise ile sohbet verileri kaydedilmez, Microsoft bir müşterinin çalışanını veya iş verilerini görüntüleyemez ve müşteri verileri, temel yapay zeka modellerini eğitmek için kullanılmaz.

Daha fazla makine öğrenimi

Teknik olarak bu da bir haberdi ama burada araştırma bölümünde bahsetmekte fayda var. Daha önce VR ve diğer medya için CG ve 3D kısa filmler yapan Fable Studios, Showrunner adını verdiği ve tüm bir TV şovunu yazabileceğini, yönetebileceğini, oynayabileceğini ve düzenleyebileceğini iddia ettiği bir AI modelini gösterdi – demolarında South Park’tı.

Bu konuda kararsızım. Bir yandan, bırakın tazminat ve yapay zeka konularını içeren büyük bir Hollywood grevi sırasında bunu sürdürmenin oldukça zevksiz olduğunu düşünüyorum. CEO Edward Saatchi, aracın gücü yaratıcıların eline verdiğine inandığını söylese de bunun tersi de tartışılabilir. Her halükarda, sektördeki insanlar tarafından özellikle iyi karşılanmadı.

Öte yandan, yaratıcı taraftaki biri (ki Saatchi’dir) bu yetenekleri keşfetmez ve göstermezse, o zaman başkaları tarafından onları kullanma konusunda daha az pişmanlık duyarak keşfedilecek ve gösterilecektir. Fable’ın ileri sürdüğü iddialar, gerçekte gösterdikleri şey için biraz geniş olsa bile (ciddi sınırlamaları vardır), gerçek bir sanatçının yerini almasa da tartışmaya ve gerçekten de endişeye yol açması bakımından orijinal DALL-E gibidir. Yapay zeka medya yapımında öyle ya da böyle bir yere sahip olacak – ancak bir sürü nedenden dolayı ona dikkatle yaklaşılmalıdır.

Politika tarafında, kısa bir süre önce Ulusal Savunma Yetki Yasası (her zamanki gibi) savunma ile hiçbir ilgisi olmayan bazı gerçekten saçma politika değişiklikleriyle uğraşıyor. Ancak bunların arasında, hükümetin, araştırmacıların ve şirketlerin yapay zeka tarafından üretilen içeriği tespit etmek için ellerinden gelenin en iyisini yapabileceği bir etkinliğe ev sahipliği yapması gerektiği de eklendi. Bu tür şeyler kesinlikle “ulusal kriz” seviyelerine yaklaşıyor, bu yüzden bunun oraya kayması muhtemelen iyi.

Disney Research’te, her zaman dijital ile gerçek arasında köprü kurmanın bir yolunu bulmaya çalışıyorlar – muhtemelen park amaçları için. Bu durumda, bir karakterin sanal hareketlerini veya hareket yakalamayı (diyelim ki bir filmdeki CG köpeği için) gerçek bir robota, o robot farklı bir şekil veya boyutta olsa bile haritalamak için bir yol geliştirdiler. Her biri diğerine neyin ideal ve neyin mümkün olduğu hakkında bilgi veren iki optimizasyon sistemine dayanır, bir nevi küçük bir ego ve süper ego gibi. Bu, robot köpeklerin normal köpekler gibi davranmasını çok daha kolay hale getirmeli, ancak elbette diğer şeyler için de genelleştirilebilir.

Yapay zekanın dünyayı mineraller için deniz tabanındaki madencilikten uzaklaştırmamıza yardımcı olabileceğini umuyoruz, çünkü bu kesinlikle kötü bir fikir. çok kurumlu Çalışma, AI’nın gürültüden sinyal eleme yeteneğini, dünyadaki değerli minerallerin yerini tahmin etmeye çalışmak için koydu. Özette yazdıkları gibi:

Bu çalışmada, mineral oluşumunun ve ilişkilerinin çok boyutluluğuna gömülü kalıpları karakterize etmek için makine öğrenimini kullanarak gezegenimizin iç içe geçmiş jeolojik, kimyasal ve biyolojik sistemlerinin karmaşıklığını ve içsel “dağınıklığını” kucaklıyoruz.

Çalışma aslında uranyum, lityum ve diğer değerli minerallerin yerlerini tahmin etti ve doğruladı. Ve bir kapanış çizgisi için buna ne dersiniz: sistem “Dünya üzerindeki, güneş sistemimiz boyunca ve derin zaman boyunca mineralleşme ve mineralleşen ortamlar hakkındaki anlayışımızı geliştirecek.” Mükemmel.


Popular Articles

Latest Articles