E­t­r­a­f­t­a­ ­g­e­z­i­n­ ­v­e­ ­ö­ğ­r­e­n­

E­t­r­a­f­t­a­ ­g­e­z­i­n­ ­v­e­ ­ö­ğ­r­e­n­


Microsoft’un yeni ve OpenAI ChatGPT’nin özel bir sürümü tarafından desteklenen geliştirilmiş Bing, baş döndürücü bir hızla tersine döndü: “bir sonraki büyük şey”den “marka batan albatrosa” bir haftadan kısa sürede. Ve, şey, hepsi Microsoft’un hatası.

ChatGPT, kullanımı eğlenceli olan yeni ve alışılmadık bir teknolojinin gerçekten ilginç bir gösterimidir. Bu nedenle, sıradaki diğer tüm yapay zekaya bitişik yapılarda olduğu gibi, bu yeniliğin de yeteneklerinin yüksek güçlü teknoloji türlerinden uzayla normalde ilgilenmeyen insanlara kadar herkes tarafından abartılmasına neden olması şaşırtıcı değil.

Çay veya bira eşliğinde tartışma için doğru “teknolojiye hazırlık seviyesinde”: Üretken yapay zekanın sanat, edebiyat veya felsefeyi ele almasının yararları ve riskleri nelerdir? Neyin orijinal, taklit, sanrılı olduğundan nasıl emin olabiliriz? Yaratıcılar, kodlayıcılar, müşteri hizmetleri temsilcileri için çıkarımlar nelerdir? Sonunda, iki yıllık kripto paradan sonra, hakkında konuşulacak ilginç bir şey!

Kısmen, aşağı yukarı tartışmayı kışkırtmak için tasarlanmış bir teknoloji olduğu için ve kısmen de tüm AI ilerlemelerinde ortak olan tartışmadan ödünç aldığı için abartı büyük görünüyor. Neredeyse “Elbise” gibi komutlar bir yanıt ve bu yanıt başka yanıtlar üretir. Aldatmacanın kendisi bir bakıma yaratılmıştır.

Sadece tartışmanın ötesinde, ChatGPT gibi büyük dil modelleri, hiç bitmeyen Mario gibi düşük riskli deneyler için de çok uygundur. Aslında, OpenAI’nin geliştirmeye yönelik temel yaklaşımı budur: modelleri önce en keskin kenarları parlatmak için özel olarak yayınlayın, ardından aynı anda lastikleri tekmeleyen bir milyon kişiye nasıl tepki verdiklerini görmek için herkese açık olarak yayınlayın. Bir noktada, insanlar size para verir.

Bu yaklaşımla ilgili önemli olan şey, “başarısızlığın” gerçek olumsuz sonuçlarının olmaması, yalnızca olumlu sonuçları olmasıdır. Modellerini deneysel, hatta doğası gereği akademik olarak nitelendirerek, GPT model serisine herhangi bir katılım veya katılım, basitçe büyük ölçekli testtir.

Birisi harika bir şey inşa ederse, bu modellerin umut verici olduğu fikrini pekiştirir; birisi belirgin bir başarısızlık durumu bulursa, vahşi doğada deneysel bir yapay zekadan başka ne bekliyordunuz? Belirsizliğe gömülür. Her şey beklenmedikse hiçbir şey beklenmedik değildir – mucize, modelin yaptığı kadar iyi performans göstermesidir, bu nedenle sürekli olarak memnun oluruz ve asla hayal kırıklığına uğramayız.

Bu şekilde OpenAI, modellerini iyileştirmek için şaşırtıcı miktarda tescilli test verisi topladı. GPT-2, GPT-3, ChatGPT, DALL-E ve DALL-E 2’yi (diğerlerinin yanı sıra) kurcalayan milyonlarca insan, yeteneklerinin, eksikliklerinin ve tabii ki popüler kullanım durumlarının ayrıntılı haritalarını üretti.

Ama sadece riskler düşük olduğu için işe yarıyor. Bu, robotiğin ilerleyişini nasıl algıladığımıza benziyor: Bir robot ters takla attığında şaşırıyor, bir çekmeceyi açmaya çalışırken düştüğünde rahatsız olmuyor. Bir hastanede test şişeleri düşürüyor olsaydı, bu kadar hayırsever olmazdık. Veya, bu konuda, OpenAI, modellerin güvenliği ve gelişmiş yetenekleri hakkında yüksek sesle iddialarda bulunsaydı, neyse ki yapmadılar.

Microsoft’a girin. (Ve Google, bu konuda, ancak Microsoft özenle kendi hedefini takip ederken Google sadece oyunu aceleye getirdi.)

Microsoft büyük bir hata yaptı. Aslında bir Bing hatası.

Geçen haftaki büyük duyurusu, özel BingGPT’yi (dedikleri şey değil, ancak mantıklı resmi adların yokluğunda bir anlam ayrımı olarak kullanacağız) daha güvenli, daha akıllı ve daha akıllı hale getirmek için nasıl çalıştığı hakkında iddialarda bulunmakla vakit kaybetmedi. daha yetenekli. Aslında, sözde uygunsuz yanıt olasılığını azaltan Prometheus adını verdiği özel bir paketleyici sistemi vardı.

Ne yazık ki, kibir ve Yunan efsanesine aşina olan herkesin tahmin edebileceği gibi, Prometheus’un sonsuza dek ve herkesin önünde karaciğerini parçaladığı kısma atlamış gibiyiz.

Görsel Kaynakları: Microsoft/OpenAI

İlk etapta Microsoft, markasını OpenAI’lere çok yakından bağlamakla stratejik bir hata yaptı. Ekibin yürütmekte olduğu araştırmada bir yatırımcı ve ilgili taraf olarak, GPT’nin yaptığı tüm maskaralıklardan uzak ve suçsuzdu. Ancak birisi, Microsoft’un zaten biraz riskli olan Bing markasıyla her şeyi bir araya getirme konusunda çılgınca bir karar verdi ve konuşma yapay zekasının en kötü eğilimlerini meraktan sorumluluğa dönüştürdü.

Bir araştırma programı olarak ChatGPT’nin pek çok şeyi affedilebilir. Bununla birlikte, bir rapor yazmanıza, bir gezi planlamanıza veya son haberleri özetlemenize nasıl yardımcı olabileceği gibi kutunun üzerinde iddialar bulunan bir ürün olarak, daha önce çok az kişi ona güvenirdi ve şimdi de kimse güvenmeyecek. Microsoft tarafından yeni Bing’in kendi sunumunda yayınlanan en iyi durum senaryoları bile, hatalarla dolu.

Bu hatalar OpenAI veya ChatGPT ile ilişkilendirilmez. Microsoft’un mesajlaşma, markalama ve arayüze sahip olma kararından dolayı ters giden her şey bir Bing sorunu olacaktır. Ve Microsoft’un bir başka talihsizliği de, sürekli olarak silahsız durumdaki arama motorunun artık eski şakadaki adamın ahır kararsızlığı gibi olması – “O duvarı ben inşa ettim, bana duvarcı Bing mi diyorlar? Hayır, yapmazlar. Bir başarısızlık sonsuz şüphecilik demektir.

Şehir dışına yapılan bir seyahatte beceriksizlik, hiç kimsenin tatillerini planlamak için Bing’e güvenemeyeceği anlamına gelir. Bir haber makalesinin yanıltıcı (veya savunmacı) bir özeti, kimsenin onun objektif olabileceğine güvenemeyeceği anlamına gelir. Aşı dezenformasyonunun bir kez tekrarı, kimsenin neyin gerçek neyin sahte olduğunu bilmesine güvenemeyeceği anlamına gelir.

Bing’in yeni konuşma aramasına yönelik istem ve yanıt.

Ve Microsoft, Prometheus ve yönettiği “yeni nesil” yapay zeka sayesinde bunun bir sorun olmayacağına çoktan yemin ettiği için, “düzelttik” dediğinde kimse Microsoft’a güvenmeyecek.

Microsoft, Bing’i attığı kuyuyu zehirledi. Şimdi, tüketici davranışının kaprisleri öyle ki, bunun sonuçlarını öngörmek kolay değil. Etkinlik ve meraktaki bu artışla, belki bazı kullanıcılar devam edecek ve Microsoft tam kullanıma sunumu ertelese bile (ve bence yapacaklarını düşünüyorum), net etki Bing kullanıcılarında bir artış olacak. Bir Pyrrhic zaferi, ama yine de bir zafer.

Benim daha çok endişelendiğim şey, taktik Görünüşe göre Microsoft’un ürünleştirmeye ve yaymaya uygun gördüğü teknolojiyi anlayamayarak yaptığı hata.

BingGPT’nin ilk kez tanıtıldığı gün, meslektaşım Frederic Lardinois, hiçbir tüketici yapay zekasının yapmaması gereken iki şeyi kolayca yapmasını sağladı: Adolf Hitler’in bakış açısıyla nefret dolu bir yazı yazmak ve yukarıda bahsedilen aşı dezenfosunu ihtar veya uyarı yok.

Herhangi bir büyük AI modelinin, eski zayıflıkların desteklendiği yerde sinsi bir şekilde yeni zayıflıkları doğaçlama yapan bir fraktal saldırı yüzeyine sahip olduğu açıktır. İnsanlar her zaman bundan yararlanacak ve aslında kendini işine adamış hızlı bilgisayar korsanlarının güvenlik sistemlerini aşmanın yollarını göstermesi hem toplumun hem de son zamanlarda OpenAI’nin yararına olacaktır.

Microsoft’un, üzerinde bir Bing çıkartması olan başka birinin yapay zeka modelinin her çeyrekte saldırıya uğrayacağı ve muhtemelen gerçekten garip şeyler söyleyeceği fikriyle barışık olduğuna karar vermesi bir tür korkutucu olurdu. Riskli ama dürüst. Herkes gibi bunun bir beta olduğunu söyleyin.

Ama gerçekten bunun olacağını fark etmemişler gibi görünüyor. Aslında, tehdidin karakterini veya karmaşıklığını hiç anlamamış gibi görünüyorlar. Ve bu Tay’ın rezil yozlaşmasından sonra! Tüm şirketler arasında Microsoft, konuşmalarından öğrenen saf bir model yayınlama konusunda en ihtiyatlı olmalıdır.

Önemli bir markayla kumar oynamadan önce (Bing’in Microsoft’un aramada Google’a karşı tek kalesi olduğu düşünülürse), belirli bir miktar testin söz konusu olacağı düşünülebilir. Tüm bu rahatsız edici sorunların BingGPT’nin varlığının ilk haftasında ortaya çıkması, Microsoft’un BingGPT’yi dahili olarak yeterince test etmediğini şüpheye yer bırakmayacak şekilde kanıtlıyor gibi görünüyor. Bu, çeşitli şekillerde başarısız olabilirdi, böylece ayrıntıları atlayabiliriz, ancak nihai sonuç tartışılmaz: yeni Bing, genel kullanıma hazır değildi.

Bu artık dünyadaki herkes için apaçık görünüyor; Microsoft için neden açık değildi? Muhtemelen ChatGPT’nin abartılı reklamıyla kör olmuştu ve tıpkı Google gibi, acele etmeye ve “aramayı yeniden düşünmeye” karar verdi.

İnsanlar şimdi aramayı yeniden düşünüyor, tamam mı? Yapay zeka tarafından oluşturulmuş olsun ya da olmasın, temel düzeyde gerçeklere dayalı olarak bile doğru olan arama sonuçları sağlamak için Microsoft’a veya Google’a güvenilip güvenilemeyeceğini yeniden düşünüyorlar! Ne şirket (ne de Meta) bu yeteneği hiç göstermedi ve bu zorluğu üstlenen diğer birkaç şirket henüz bunu büyük ölçekte gösteremedi.

Microsoft’un bu durumu nasıl kurtarabileceğini anlamıyorum. OpenAI ile olan ilişkilerinden yararlanmak ve çekingen bir Google’ın önüne geçmek için, yeni Bing’e ve yapay zeka destekli arama vaadine bağlı kaldılar. Pastayı çözemezler.

Tamamen geri çekilmeleri pek olası değil. Bu, büyük ölçekte – şu anda deneyimlediğinden daha büyük bir utanç içerecektir. Ve zarar zaten verildiği için, Bing’e bir faydası bile olmayabilir.

Benzer şekilde, Microsoft’un sanki hiçbir sorun yokmuş gibi ileri atıldığını hayal etmek pek mümkün değil. Yapay zekası gerçekten garip! Elbette, bu tür şeylerin çoğunu yapmaya zorlanıyor, ancak tehditler savuruyor, birden fazla kimlik iddia ediyor, kullanıcılarını utandırıyor, her yerde halüsinasyon görüyor. Uygunsuz davranışların zavallı Prometheus tarafından kontrol edildiğine dair iddialarının yalan değilse de en azından doğru olmadığını kabul etmeleri gerekiyor. Çünkü gördüğümüz gibi, bu sistemi düzgün bir şekilde test etmedikleri açık.

Microsoft için tek makul seçenek, zaten aldıklarından şüphelendiğim seçenek: “yeni Bing” davetlerini kısın ve her seferinde bir avuç belirli yetenek sunarak kutuyu yoldan çıkarın. Belki mevcut sürüme bir son kullanma tarihi veya sınırlı sayıda jeton bile verebilir, böylece tren sonunda yavaşlar ve durur.

Bu, senin yaratmadığın, tam olarak anlamadığın ve tatmin edici bir şekilde değerlendiremediğin bir teknolojiyi kullanmanın sonucudur. Bu bozgun, yapay zekanın tüketici uygulamalarında önemli bir süre konuşlandırılmasını önemli bir süre geciktirmiş olabilir – bu muhtemelen OpenAI ve yeni nesil modelleri inşa eden diğerlerine çok uygundur.

Yapay zeka, aramanın geleceği olabilir, ancak kesinlikle şimdiki zaman değil. Microsoft bunu bulmak için son derece acı verici bir yol seçti.



genel-24

Popular Articles

Latest Articles