E­s­k­i­ ­O­p­e­n­A­I­ ­y­ö­n­e­t­i­c­i­l­e­r­i­ ­d­a­h­a­ ­y­o­ğ­u­n­ ­d­ü­z­e­n­l­e­m­e­ ­ç­a­ğ­r­ı­s­ı­n­d­a­ ­b­u­l­u­n­u­y­o­r­ ­v­e­ ­t­o­k­s­i­k­ ­l­i­d­e­r­l­i­ğ­e­ ­i­ş­a­r­e­t­ ­e­d­i­y­o­r­

E­s­k­i­ ­O­p­e­n­A­I­ ­y­ö­n­e­t­i­c­i­l­e­r­i­ ­d­a­h­a­ ­y­o­ğ­u­n­ ­d­ü­z­e­n­l­e­m­e­ ­ç­a­ğ­r­ı­s­ı­n­d­a­ ­b­u­l­u­n­u­y­o­r­ ­v­e­ ­t­o­k­s­i­k­ ­l­i­d­e­r­l­i­ğ­e­ ­i­ş­a­r­e­t­ ­e­d­i­y­o­r­

Önceki OpenAI Yönetim kurulu üyeleri, CEO Sam Altman'ın liderliğinin ateş altında kalması nedeniyle şirkete yönelik daha fazla hükümet düzenlemesi yapılması çağrısında bulunuyor.

Helen Toner ve Tasha McCauley – ekibi oluşturan birkaç eski çalışandan ikisi karakter kadrosu O Kasım ayında Altman'ı devirdi – lideri görevden alma ve OpenAI'nin düzenleyici yapısını “kurtarma” kararlarının, “Bay Altman tarafından sergilenen uzun süredir devam eden davranış kalıpları” tarafından teşvik edildiğini ve bunun “kurulun kilit kararlar ve dahili güvenlik protokolleri üzerindeki gözetimini baltaladığını” söylüyorlar.

Tarafından yayınlanan bir Op-Ed'de yazmak Ekonomist 26 Mayıs'ta Toner ve McCauley, Altman'ın davranış modelinin öz yönetime güvenmeyle birleştiğinde YGZ felaketinin reçetesi olduğunu iddia ediyor.

AYRICA BAKINIZ:

FCC, siyasi reklamlar için yapay zeka etiketleri gerektirebilir

İkili, OpenAI'nin geleceği konusunda “temkinli bir iyimserlikle” şirkete katıldıklarını söylerken, o zamanlar kâr amacı gütmeyen bu şirketin görünüşte fedakar motivasyonlarıyla da desteklenmişti, ancak o zamandan beri Altman ve şirketin eylemlerini sorguladılar. “Çok sayıda üst düzey lider, özel olarak yönetim kuruluyla ciddi kaygılarını paylaşmıştı” diye yazıyorlar, “Bay Altman'ın 'zehirli bir yalan kültürü' geliştirdiğine ve 'davranışlara giriştiğine' inandıklarını söylüyorlar” diye yazıyorlar. [that] psikolojik istismar olarak nitelendirilebilir.”

“Şirkete döndüğünden bu yana yaşanan gelişmeler – yönetim kuruluna yeniden atanması ve güvenlik odaklı üst düzey yeteneklerin ayrılması dahil – özyönetimde OpenAI deneyi için kötü bir işaret” diye devam ediyorlar. “En iyi niyetle ve dış denetim olmadan bile, bu tür bir öz düzenleme, özellikle de muazzam kâr teşviklerinin baskısı altında uygulanamaz hale gelecektir. Hükümetler aktif bir rol oynamalıdır.”

Geriye dönüp baktığımızda Toner ve McCauley şöyle yazıyor: “Eğer herhangi bir şirket, gelişmiş yapay zeka sistemlerini güvenli ve etik bir şekilde geliştirirken kendi kendini başarılı bir şekilde yönetebilseydi, bu OpenAI.”

Mashlanabilir Işık Hızı

AYRICA BAKINIZ:

OpenAI'nin Scarlett Johansson draması bize yapay zekanın geleceği hakkında neler anlatıyor?

Eski yönetim kurulu üyeleri, federal yasaların durması nedeniyle yapay zeka şirketlerinin kendi kendini raporlamasına ve oldukça asgari düzeyde dış düzenlemeye yönelik mevcut baskıya karşı çıkıyorlar. Yurtdışında yapay zeka görev güçleri, güvenlik çabalarına öncülük etmek için teknoloji devlerine güvenme konusunda halihazırda kusurlar buluyor. Geçtiğimiz hafta AB bir açıklama yayınladı. Microsoft'a milyar dolarlık uyarı Yapay zeka destekli CoPilot ve Image Creator'ın potansiyel risklerini açıklamayı başaramadıktan sonra. Birleşik Krallık Yapay Zeka Güvenlik Enstitüsü'nün yakın tarihli bir raporu, en büyük halka açık Büyük Dil Modellerinin (LLM'ler) birçoğunun korumalarının, kötü niyetli istemlerle kolayca jailbreak'lendiğini ortaya çıkardı.

OpenAI, son haftalarda, üst düzey çalışanların, geleceğine ilişkin farklı görüşlere yer veren bir dizi yüksek profilli istifasının ardından, yapay zeka düzenlemesi tartışmalarının merkezinde yer aldı. Kurucu ortak ve süper hizalama ekibinin başkanı Ilya Sutskever ve eş lideri Jan Leike şirketten ayrıldıktan sonra OpenAI, şirket içi güvenlik ekibini dağıttı.

Leike, OpenAI'nin geleceği konusunda endişe duyduğunu, çünkü “güvenlik kültürü ve süreçlerinin parlak ürünlerin gerisinde kaldığını” söyledi.

AYRICA BAKINIZ:

OpenAI'nin güvenlik liderlerinden biri Salı günü istifa etti. Sadece nedenini açıkladı.

Altman, daha sonra ortaya çıkan bir şirket nedeniyle ateş altında kaldı uçağa binmeden ayrılma politikası ayrılan çalışanları, OpenAI hakkında olumsuz bir şey söylemelerini veya işte sahip oldukları herhangi bir özsermayeyi kaybetme riskini kısıtlayan NDA'ları imzalamaya zorluyor.

Kısa bir süre sonra Altman ve başkan ve kurucu ortak Greg Brockman Tartışmaya yanıt verdiX hakkında şunları yazıyor: “Gelecek geçmişten daha zor olacak. Her yeni modelin risklerine uyacak şekilde güvenlik çalışmalarımızı yükseltmeye devam etmemiz gerekiyor… Ayrıca güvenlik konusunda hükümetler ve birçok paydaşla işbirliği yapmaya da devam ediyoruz. AGI'ye giden yolda nasıl ilerleneceğine dair kanıtlanmış bir taktik kitabı yok.”

OpenAI'nin eski çalışanlarının çoğunun gözünde, internet düzenlemelerinin tarihsel “hafif dokunuş” felsefesi bunu kesmeyecek.

Konular
Yapay zeka
OpenAI



Kaynak bağlantısı

Popular Articles

Latest Articles