O­p­e­n­A­I­ ­Ç­a­l­ı­ş­a­n­l­a­r­ı­ ­R­i­s­k­ ­v­e­ ­M­i­s­i­l­l­e­m­e­ ­K­ü­l­t­ü­r­ü­n­e­ ­K­a­r­ş­ı­ ­U­y­a­r­d­ı­

O­p­e­n­A­I­ ­Ç­a­l­ı­ş­a­n­l­a­r­ı­ ­R­i­s­k­ ­v­e­ ­M­i­s­i­l­l­e­m­e­ ­K­ü­l­t­ü­r­ü­n­e­ ­K­a­r­ş­ı­ ­U­y­a­r­d­ı­

Bir grup mevcut ve eski OpenAI çalışanlar yayınladı halka açık bir mektup şirketin ve rakiplerinin inşaat yaptığına dair uyarı yapay zeka aşırı riskle, yeterli gözetim olmaksızın ve sorumsuz faaliyetlere tanık olabilecek çalışanların ağzını kapatarak.

Mektupta şu ifadeler yer alıyor: “Bu riskler, mevcut eşitsizliklerin daha da derinleşmesi, manipülasyon ve yanlış bilgilendirme, otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi ve potansiyel olarak insanlığın yok olmasına kadar uzanıyor.” righttowarn.ai. “Bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar, onları sorumlu tutabilecek az sayıdaki kişi arasındadır.”

Mektup, yalnızca OpenAI'yi değil, tüm AI şirketlerini, faaliyetleri hakkında açıkça konuşan çalışanları cezalandırmamaya kararlı olmaya çağırıyor. Ayrıca şirketlere, çalışanların faaliyetleri hakkında isimsiz geri bildirimde bulunabilmeleri için “doğrulanabilir” yollar oluşturmaları yönünde çağrıda bulunuluyor. Mektupta, “Sıradan ihbarcı korumaları yetersiz çünkü yasa dışı faaliyetlere odaklanıyorlar, oysa endişe duyduğumuz risklerin çoğu henüz düzenlenmemiş” diyor. “Sektördeki bu tür vakaların geçmişi göz önüne alındığında, bazılarımız makul olarak çeşitli misilleme biçimlerinden korkuyor.”

OpenAI geçen ay eleştirilere maruz kalmıştı bir Vox makalesi Şirketin, şirketi eleştirmesini ve hatta böyle bir anlaşmanın varlığından bahsetmesini yasaklayan kötüleme karşıtı anlaşmalar imzalamaması halinde çalışanların özsermayesini geri almakla tehdit ettiğini ortaya çıkardı. OpenAI'nin CEO'su Sam Altman, yakın zamanda X'te söyledi kendisinin bu tür düzenlemelerden haberi olmadığını ve şirketin hiçbir zaman kimsenin özsermayesini geri almadığını söyledi. Altman ayrıca maddenin kaldırılacağını ve çalışanların konuşma özgürlüğüne kavuşacağını da söyledi. OpenAI, yayınlanma zamanına göre yorum talebine yanıt vermedi.

OpenAI ayrıca yakın zamanda güvenliği yönetme yaklaşımını da değiştirdi. Geçtiğimiz ay, şirketin daha güçlü yapay zeka modellerinin oluşturduğu uzun vadeli riskleri değerlendirmekten ve bunlarla mücadele etmekten sorumlu bir OpenAI araştırma grubu etkili bir şekilde çözüldü Birkaç önde gelen isim ayrıldıktan ve ekibin geri kalan üyeleri başka gruplara çekildikten sonra. Birkaç hafta sonra, şirket duyurdu Altman ve diğer yönetim kurulu üyelerinin liderliğinde bir Emniyet ve Güvenlik Komitesi oluşturduğunu söyledi.

Geçen Kasım, Altman, OpenAI yönetim kurulu tarafından kovuldu bilgileri açıklamadıkları ve kasıtlı olarak yanılttıkları iddiasıyla. Oldukça halka açık bir tartışmanın ardından, Altman şirkete geri döndü ve yönetim kurulunun çoğu devrildi.

Mektupları imzalayanlar arasında OpenAI'de güvenlik ve yönetişim üzerinde çalışan kişiler, anonim olarak imza atan mevcut çalışanlar ve şu anda rakip AI şirketlerinde çalışan araştırmacılar yer alıyor. Ayrıca birçok ünlü yapay zeka araştırmacısı tarafından da onaylandı. Geoffrey Hinton Ve Yoshua BengioHer ikisi de öncü yapay zeka araştırmalarından dolayı Turing Ödülü'nü kazandı ve Stuart RusselYapay zeka güvenliği konusunda lider bir uzman.

Mektubu imzalayan eski çalışanlar arasında hepsi OpenAI'de yapay zeka güvenliği üzerinde çalışan William Saunders, Carroll Wainwright ve Daniel Ziegler yer alıyor.

“Kamuoyu şu anda bu teknolojinin gelişme hızını hafife alıyor” diyor Jacob Hilton, daha önce OpenAI'de takviyeli öğrenme üzerinde çalışmış ve yeni bir araştırma fırsatını takip etmek için bir yıldan fazla bir süre önce şirketten ayrılan bir araştırmacı. Hilton, OpenAI gibi şirketlerin yapay zekayı güvenli bir şekilde inşa etmeyi taahhüt etmelerine rağmen, durumun böyle olmasını sağlayacak çok az gözetim bulunduğunu söylüyor. “İstediğimiz korumaların yalnızca OpenAI için değil, tüm öncü yapay zeka şirketleri için geçerli olması amaçlanıyor” diyor.

Daha önce OpenAI'de yapay zeka yönetimi üzerinde çalışan araştırmacı Daniel Kokotajlo, “OpenAI'nin sorumlu bir şekilde davranacağına olan güvenimi kaybettiğim için ayrıldım” diyor. Ayrıntılı bilgi vermeyi reddederek, “Kamuya açıklanması gerektiğini düşündüğüm şeyler oldu” diye ekledi.

Kokotajlo, mektubun teklifinin daha fazla şeffaflık sağlayacağını söylüyor ve OpenAI ve diğerlerinin, aşağılamama anlaşmaları haberlerine verilen olumsuz tepkiler göz önüne alındığında politikalarında reform yapma ihtimalinin yüksek olduğuna inanıyor. Ayrıca yapay zekanın endişe verici bir hızla ilerlediğini de söylüyor. “Önümüzdeki birkaç yılda riskler çok, çok, çok daha yüksek olacak” diyor ve ekliyor: “En azından ben öyle düşünüyorum.”



Kaynak bağlantısı

Popular Articles

Latest Articles