O­p­e­n­A­I­ ­i­ç­e­r­i­s­i­n­d­e­k­i­ ­k­i­ş­i­l­e­r­,­ ­h­a­l­k­ı­ ­A­I­ ­r­i­s­k­l­e­r­i­ ­k­o­n­u­s­u­n­d­a­ ­“­u­y­a­r­m­a­ ­h­a­k­k­ı­”­ ­t­a­l­e­p­ ­e­d­e­n­ ­a­ç­ı­k­ ­b­i­r­ ­m­e­k­t­u­p­ ­i­m­z­a­l­a­d­ı­l­a­r­

O­p­e­n­A­I­ ­i­ç­e­r­i­s­i­n­d­e­k­i­ ­k­i­ş­i­l­e­r­,­ ­h­a­l­k­ı­ ­A­I­ ­r­i­s­k­l­e­r­i­ ­k­o­n­u­s­u­n­d­a­ ­“­u­y­a­r­m­a­ ­h­a­k­k­ı­”­ ­t­a­l­e­p­ ­e­d­e­n­ ­a­ç­ı­k­ ­b­i­r­ ­m­e­k­t­u­p­ ­i­m­z­a­l­a­d­ı­l­a­r­

Dünyanın önde gelen yapay zeka şirketlerinden bazılarının çalışanları yayınlandı sıradışı bir teklif Salı günü, şirketlerin kendilerine “gelişmiş yapay zeka konusunda uyarma hakkı” vermesini talep etti.

Kimi uyarmak istiyorlar? Sen. Halk. Kim dinleyecekse.

İmzalayan 13 kişi OpenAI ve Google DeepMind'ın mevcut ve eski çalışanlarıdır. Yapay zekanın büyük fayda sağlama potansiyeline sahip olduğuna inanıyorlar ancak uygun korumalar olmadan teknolojinin çok çeşitli zararlara yol açabileceğinden endişe ediyorlar.

“Korkuyorum. İmzacılardan Daniel Kokotajlo, “Bunu yapmamak için deli olurdum” dedi. Nisan ayında OpenAI'den çıkın Bu hafta bana şirket yönetiminin teknolojiyi sorumlu bir şekilde kullanacağına dair inancını kaybettikten sonra söyledi. Güvenlik bilincine sahip diğer birkaç çalışanın yakın zamanda benzer nedenlerle ayrılması, OpenAI'nin teknolojinin risklerini yeterince ciddiye almadığına dair endişeleri yoğunlaştırdı. (Açıklama: Vox Media, OpenAI ile ortaklık anlaşmaları imzalayan birkaç yayıncıdan biridir. Raporlarımız editoryal olarak bağımsız kalır.)

Yapay zekayı ve onu yapan şirketleri anlamak

Yapay zeka, dünyayı medyadan tıbba ve ötesine değiştirmeye hazırlanıyor ve Future Perfect bunu kapsamak için orada.

Yeni teklifi sadece bir başka teklif olarak görmek cazip gelebilir. açık mektup Bu, yalnızca yapay zekanın kötüye gideceğinden ve tüm insanlığı yok edeceğinden endişe ettikleri için yapay zekayı duraklatmak isteyen “felaket tellalıları” tarafından söndürüldü. Hepsi bu değil. İmzacılar, mevcut yapay zeka zararları hakkında daha fazla endişe duyan “Yapay Zeka etiği” kampının endişelerini paylaşıyor: Irk önyargısı ve yanlış bilgilendirme ve yapay zekanın gelecekteki varoluşsal bir risk olduğu konusunda daha fazla endişe duyan “Yapay Zeka güvenliği” kampı.

Bu kamplar bazen birbirlerine karşı çukurlaştırıldı. Yeni teklifin amacı, önde gelen yapay zeka şirketlerinin faaliyetlerini dışarıdakilere karşı daha şeffaf hale getirerek teşviklerini değiştirmek ve bu herkesin yararına olacak.

İmzacılar, yapay zeka şirketlerini, teknolojiyle ilgili endişelerini şirketlerin yönetim kurullarına, düzenleyicilere, bağımsız uzman kuruluşlara ve gerekirse doğrudan halka misilleme olmadan dile getirmelerine izin vermeye çağırıyor. Dört mevcut ve iki eski OpenAI çalışanı da dahil olmak üzere imzacılardan altısı isimsizdir, çünkü tam da kendilerine misilleme yapılmasından korktukları için. Teklif, alandaki en büyük isimlerden bazıları tarafından destekleniyor: Geoffrey Hinton (genellikle “Yapay Zekanın vaftiz babası” olarak anılır), Yoshua Bengio ve Stuart Russell.

Açık olmak gerekirse, imzacılar fikri mülkiyet veya ticari sırları ifşa etmekte özgür olmaları gerektiğini söylemiyor ancak bunları korudukları sürece risklerle ilgili endişelerini dile getirebilmek istiyorlar. İhbarcıların korunmasını sağlamak için şirketlerin, çalışanların endişelerini “şirketin yönetim kuruluna, düzenleyici makamlara ve ilgili uzmanlığa sahip uygun bağımsız bir kuruluşa” bildirebilecekleri isimsiz bir süreç oluşturmasını istiyorlar.

Bir OpenAI sözcüsü Vox'a, mevcut ve eski çalışanların liderlik ofis saatleri, yönetim kuruluyla Soru-Cevap oturumları ve isimsiz bir kişi aracılığıyla düşüncelerini dile getirebilecekleri forumların zaten bulunduğunu söyledi. dürüstlük yardım hattı.

“Sıradan ihbarcı korumaları [that exist under the law] Yasa dışı faaliyetlere odaklandıkları için yetersizler, oysa endişe duyduğumuz risklerin çoğu henüz düzenlenmemiştir” diye yazıyor imzacılar teklifte. Daha önce Facebook muhbiri Frances Haugen'e danışmanlık yapan ve bir zamanlar New Yorker'ın da tanıdığı Lawrence Lessig adında ücretsiz bir avukat tuttular. tarif edildi “İnternet çağında fikri mülkiyet konusunda en önemli düşünür” olarak anılıyor.

Taleplerinden bir diğeri: Şirket içindeki kişilerin riskle ilgili endişelerini dile getirmesini engelleyen, aşağılayıcı olmayan anlaşmaların artık yapılmaması. Eski OpenAI çalışanları, şirketten ayrıldıktan sonra onlara aşağılayıcı olmayan hükümler içeren işten çıkarma anlaşmaları imzalattığı için uzun süredir şaşkın hissediyorlardı. Vox'tan sonra rapor edildi OpenAI, şirketteki kazanılmış özsermayelerini imzalama veya başka şekilde teslim etme konusunda baskı hisseden çalışanlara yönelik olarak, aşağılayıcı olmayan anlaşmaları kaldırma sürecinde olduğunu söyledi.

Bu anlaşmalar o kadar alışılmadık derecede kısıtlayıcıydı ki, “uyarı hakkı” önerisini imzalayanlardan biri olan Jacob Hilton gibi şirketten iyi şartlarda ayrılan çalışanlar için bile alarm zillerini çaldırdı. Orada çalıştığı yıllar boyunca OpenAI'nin güvenliğe yaklaşımı konusunda pek endişeli değildi, ancak 2023'ün başlarında başka bir yerde araştırma yapmak üzere ayrıldığında, ayrılma anlaşması onu endişelendirmişti.

Hilton bana, “Temel olarak, bir taciz etmeme ve aşağılamama anlaşması imzalamadığım takdirde tazminatımın büyük bir kısmını almakla tehdit ediyordu” dedi. “Bu anlaşmaların bu kadar geniş bir şekilde uygulanmasının, eski çalışanların makul eleştirilerde bulunma yetenekleri üzerinde caydırıcı bir etki yaratacağını hissettim.”

İronik bir şekilde, OpenAI'nin onu susturma girişimi onu konuşturdu.

Hilton'un yeni teklifi imzaladığını çünkü şirketlerin, OpenAI gibi kamuya açık alanda güvenlikle ilgili büyük bir oyun konuşurlarsa çalışanların kendilerini uyaracağını bilmesi gerektiğini söyledi. yapıldı – ancak o zaman kapalı kapılar ardında bununla çelişmek için.

“Kamu taahhütleri genellikle şirketin gerçekten önemseyen çalışanları tarafından yazılır, ancak eğer halk bunu öğrenmezse şirketin taahhütlere bağlı kalma konusunda pek bir teşviki olmaz. [about violations]” dedi Hilton. Yeni teklif tam da bu noktada devreye giriyor. “Bu, şirketin kamu taahhütlerine bağlı kalması konusunda teşvik edildiği bir yapı oluşturmakla ilgili.”

Bu, tüm yapay zeka endüstrisi için teşviklerin değiştirilmesiyle ilgili

Yapay zeka güvenlik araştırmacıları genellikle yapay zeka modellerinin yanlış hizalanmasından endişe ediyor; hedefleri değerlerimizle uyumlu olmayan şekillerde takip ediyor. Ama hizalamanın gerçekten zor olduğunu biliyor musun? İnsanlar. Özellikle de tüm teşvikler onları yanlış yöne iterken.

Silikon Vadisi'nde ikinci bitirenler nadiren hatırlanıyor; Kapıdan ilk çıkan ödüllendirilir. Rekabet kültürü, en son teknolojiye sahip yapay zeka sistemlerini hızlı bir şekilde oluşturmaya yönelik güçlü bir teşvik olduğu anlamına gelir. Kâr zorunluluğu, aynı zamanda bu sistemleri ticarileştirmek ve dünyaya yaymak için de güçlü bir teşvik olduğu anlamına geliyor.

OpenAI çalışanları bunu giderek daha fazla fark ediyor. Geçen ay istifa edene kadar şirketin uyum ekibini yöneten Jan Leike, söz konusu X gönderisinde “güvenlik kültürü ve süreçleri parlak ürünlerin gerisinde kaldı.”

Leike'nin altında çalışan Carroll Wainwright da benzer nedenlerden dolayı geçen hafta istifa etmişti. Bana, “Geçtiğimiz altı ay boyunca, OpenAI'yi bir şeyler yapmaya iten teşviklerin iyi ayarlanmadığından giderek daha fazla endişe duymaya başladım” dedi. “Karı en üst düzeye çıkarmak için çok ama çok güçlü teşvikler var, ancak liderlik bu teşviklerden bazılarına daha fazla misyon odaklı çalışma yapma pahasına yenik düştü.”

Dolayısıyla asıl soru, yapay zeka endüstrisindeki tüm aktörleri harekete geçiren temel teşvik yapısını nasıl değiştirebiliriz?

Bir süreliğine alışılmadık yönetişim yapılarına sahip yapay zeka şirketlerinin kurulmasının işe yarayacağına dair umut vardı. Örneğin OpenAI, misyonu hissedarları mutlu etmek değil, insanlığın çıkarlarını en iyi şekilde korumak olan bir kurulla, kar amacı gütmeyen bir kuruluş olarak başladı. Wainwright orada çalışmaktan duyduğu heyecanın bir nedeninin de bu olduğunu söyledi: Bu yapının teşvikleri düzenli tutacağını düşündü.

Ancak OpenAI çok geçmeden, bugünlerde büyük ölçekli yapay zeka deneyleri yürütmek için tonlarca bilgi işlem gücüne ihtiyacınız olduğunu keşfetti; 300.000 kez on yıl önce ihtiyacınız olan şeydi ve bu inanılmaz derecede pahalıydı. Son teknolojide kalabilmek için kar amacı güden bir kol oluşturması ve Microsoft ile ortaklık kurması gerekiyordu. OpenAI bu konuda yalnız değildi: rakip şirket AntropikEski OpenAI çalışanlarının güvenliğe daha fazla odaklanmak istedikleri için ortaya attıkları , bunu yapmamız gerektiğini savunarak başladı. Sektördeki temel teşvik yapısını değiştirmekKâr teşviki de dahil ancak sonunda Amazon ile güçlerini birleştirdi.

İnsanlığın çıkarlarını korumakla görevli kurula gelince? Teoride kulağa hoş geliyor ama OpenAI'nin geçen Kasım ayındaki yönetim kurulu draması – yönetim kurulu CEO Sam Altman'ı kovmaya çalıştığında ve onun hızla iktidara geri döndüğünü gördüğünde – bunun işe yaramadığını kanıtladı.

Wainwright bana “Sanırım bu, tahtanın umduğumuz dişlere sahip olmadığını gösterdi” dedi. “Yönetim kurulunun organizasyonu ne kadar iyi sorumlu tutabileceğini sorgulamama neden oldu.”

Dolayısıyla “uyarı hakkı” teklifindeki şu ifade: “Yapay zeka şirketlerinin etkili gözetimden kaçınmak için güçlü mali teşvikleri var ve kurumsal yönetimin özel yapım yapılarının bunu değiştirmeye yeterli olduğuna inanmıyoruz.”

Eğer ısmarlama işe yaramazsa ne olacak?

Düzenleme açık bir cevaptır ve bundan daha fazlasına ihtiyaç duyulduğuna şüphe yoktur. Ancak bu tek başına yeterli olmayabilir. Kanun yapıcılar sıklıkla hızla gelişen teknolojileri, onları çok kapsamlı bir şekilde düzenleyecek kadar iyi anlayamıyorlar. Düzenleyicilerin ele geçirilmesi tehdidi de var.

Bu nedenle şirket içindekiler kamuoyunu uyarma hakkını istiyor. Gelişen teknolojiye en ön sırada yer veriyorlar ve bunu herkesten daha iyi anlıyorlar. Gördükleri riskler hakkında açıkça konuşma özgürlüğüne sahiplerse şirketler bu riskleri ciddiye almaya daha fazla teşvik edilebilir. Ne tür bir yapay zeka riski onları geceleri uykusuz bırakırsa tutsun, bu herkes için faydalı olacaktır.

Kaynak bağlantısı

Popular Articles

Latest Articles