O­p­e­n­A­I­­n­i­n­ ­g­ü­v­e­n­l­i­k­ ­l­i­d­e­r­l­e­r­i­n­d­e­n­ ­b­i­r­i­ ­S­a­l­ı­ ­g­ü­n­ü­ ­i­s­t­i­f­a­ ­e­t­t­i­.­ ­ ­S­a­d­e­c­e­ ­n­e­d­e­n­i­n­i­ ­a­ç­ı­k­l­a­d­ı­.­

O­p­e­n­A­I­­n­i­n­ ­g­ü­v­e­n­l­i­k­ ­l­i­d­e­r­l­e­r­i­n­d­e­n­ ­b­i­r­i­ ­S­a­l­ı­ ­g­ü­n­ü­ ­i­s­t­i­f­a­ ­e­t­t­i­.­ ­ ­S­a­d­e­c­e­ ­n­e­d­e­n­i­n­i­ ­a­ç­ı­k­l­a­d­ı­.­

OpenAI dır-dir meşhur hepsi bu değil açık. Göz kamaştırıcı, son teknoloji ürünü yapay zeka ürünleri hiçbir uyarı vermeden ortaya çıkıyor, eşit ölçüde heyecan ve kaygı yaratıyor (birçok şeyle birlikte). küçümsemek). Ancak ürün geliştirmede olduğu gibi, şirketin iç kültürü de alışılmadık derecede şeffaf değil; bu da, “süper hizalama” ekibinin (OpenAI'nin güvenlik sorunlarını göz ardı eden bir pozisyon) ayrılan eş başkanı Jan Leike'nin az önce bu duruma karşı konuşması durumu daha da rahatsız edici hale getiriyor. şirket.

Tweet silinmiş olabilir

Bunun gibi bir şey OpenAI'yi yakından izleyenler tarafından kısmen bekleniyordu. Şirketin yüksek profilli eski baş bilim adamı Ilya Sutskever de Salı günü aniden istifa etti ve “#WhatDidIlyaSee” trend olan bir hashtag haline geldi bir kez daha. Hashtag'in küstah ifadeleri – aslen Mart ayından, Sutskever'den kurumsal işlemlere katıldım Bu, CEO Sam Altman'ın kısa süreliğine kovulmasına neden oldu; sanki Sutskever yapay zekanın aynasından dünyayı görmüş ve oradan çığlıklar atarak kaçmış gibi bir ses çıkardı.

AYRICA BAKINIZ:

Google, ChatGPT rakibi Anthropic'e yatırım yaparak yapay zeka çıtasını yükseltiyor

Cuma günü X'te (eski adıyla Twitter) bir dizi gönderide Leike, kamuoyuna neden ayrıldığına dair bazı ipuçları verdi.

“Şirketin temel öncelikleri konusunda OpenAI liderliğiyle uzun süredir aynı fikirde olmadığını” ve “kırılma noktasına” ulaştığını iddia etti. Şirketin “güvenlik, izleme, hazırlıklı olma, güvenlik, rakiplere karşı sağlamlık, (süper) uyum, gizlilik, toplumsal etki ve ilgili konulara” daha fazla odaklanması gerektiğini düşünüyor.

Mashlanabilir Işık Hızı

Tweet silinmiş olabilir

Leike, “Bu sorunları düzeltmek oldukça zor ve oraya ulaşacak bir yolda olmadığımızdan endişeleniyorum” dedi ve güvenliği sağlamaya çalıştıklarında kendisinin ve ekibinin “rüzgara karşı yelken açtığını” hissettiğini belirtti. güvenlik çalışmalarını yapmak için ihtiyaç duydukları kaynaklar.

Tweet silinmiş olabilir

Leike, OpenAI'nin çok büyük bir sorumluluk taşıdığını düşünüyor ve şöyle yazıyor: “İnsandan daha akıllı makineler oluşturmak, doğası gereği tehlikeli bir çabadır.” Leike'ye göre bu durum, “geçtiğimiz yıllarda güvenlik kültürü ve süreçlerinin parlak ürünlerin gerisinde kalması” durumunu potansiyel olarak daha da korkutucu hale getiriyor.

Leike, şirketin, aynı zamanda AGI olarak da bilinen yapay genel zekaya (LLM benzeri dar yeteneklerin çok ötesinde, bilgileri gerçekten insanlar gibi işleyen sistemler) yönelik çalışmaya yönelik dahili anlatısını açıkça ciddiye alıyor. Leike, “YGZ'nin sonuçları konusunda inanılmaz derecede ciddileşmek için çok geç kaldık” diye yazdı. “Elimizden geldiğince bunlara hazırlanmaya öncelik vermeliyiz. Ancak o zaman YGZ'nin tüm insanlığa fayda sağlamasını sağlayabiliriz.”

Leike'ye göre OpenAI'nin “güvenliği ön planda tutan bir AGI şirketi olması” gerekiyor ve Leike, geri kalan çalışanlarını “inşa ettiğiniz şeye uygun ciddiyetle hareket etmeye” çağırdı.

Bu yorumların yanı sıra bu ayrılış, halihazırda yaygın olan durumu daha da körükleyecektir. halkın kaygısı OpenAI'nin yapay zeka güvenliğine yönelik taahhüdü veya taahhüdü etrafında. Ancak diğer eleştirmenler, yapay zekanın sözde muazzam gücü etrafında korku çığırtkanlığının yapıldığına dikkat çekti. aynı zamanda bir tür arka kapı pazarlama planı olarak da işlev görür Bunun için hala büyük ölçüde kanıtlanmamış bir teknoloji.

Konular
Yapay zeka



Kaynak bağlantısı

Popular Articles

Latest Articles