O­p­e­n­A­I­ ­d­a­h­i­l­i­ ­b­i­r­ ­s­i­s­t­e­m­ ­h­a­c­k­i­n­i­ ­g­i­z­l­e­d­i­

O­p­e­n­A­I­ ­d­a­h­i­l­i­ ­b­i­r­ ­s­i­s­t­e­m­ ­h­a­c­k­i­n­i­ ­g­i­z­l­e­d­i­


OpenAI, ismine rağmen gizli olmasıyla ün kazandı. Ancak gelişen teknoloji devinin sorunları listesi büyümeye devam ediyor. Bu listedeki yeni bir öğe bilgisayar korsanlarıdır.

2023’ün başlarında bilgisayar korsanları OpenAI’nin dahili mesajlaşma sistemine erişim sağlayarak yapay zeka gelişmeleriyle ilgili bilgileri çaldı. Bu olay gizli kaldı; şirket bunu kamuya açıklamadı.

Olayla ilgili bilgisi olan iki kişi The New York Times’a, OpenAI yöneticilerinin hiçbir müşteri veya iş ortağı bilgilerinin tehlikeye atılmaması nedeniyle hack’i açıklamamaya karar verdiklerini söyledi. Şirket ayrıca hack olayını polise veya FBI’a bildirmedi.

OpenAI, Business Insider’a şirketin hacklenmeye yol açan “temel güvenlik sorununu tanımlayıp çözdüğünü” söyledi. Şirket, bilgisayar korsanının hükümetle bağlantısı olmayan özel bir vatandaş olduğunu ve hiçbir kaynak kod deposunun etkilenmediğini söyledi.

OpenAI’nin güvenliğinin çok zayıf olduğu ve onu savunmasız bıraktığı düşünüldüğünde, saldırı şirket içinde ve dışında endişelere yol açtı.

ABD küresel yapay zeka silahlanma yarışına liderlik ederken, Çin de bu yarışın çok gerisinde değil. ABD’li yetkililer Çin’in yapay zeka kullanımını ciddi bir potansiyel güvenlik tehdidi olarak görüyor. Bu nedenle OpenAI veri ve sistemlerine saldırganların kolaylıkla erişebildiği bilgisi endişe kaynağıdır.


Kaynak: NurPhoto/Getty Images

Şirket içindeki çalışanlar da güvenliğe odaklanma konusundaki endişelerini dile getirdi. Eski OpenAI yönetim kurulu üyesi Leopold Aschenbrenner, “ciddi bir güvenlik olayını” ayrıntılarıyla anlatan bir not gönderdikten sonra şirketin kendisini Nisan ayında kovduğunu söyledi. Şirketin güvenliğini, yabancı aktörlerin hırsızlığına karşı koruma açısından “son derece yetersiz” olarak nitelendirdi. OpenAI, Aschenbrenner’ı güvenlik endişelerini dile getirdiği için kovduğunu reddediyor.

Aschenbrenner, OpenAI teknolojisinin güvenli bir şekilde geliştirilmesini sağlamak için çalışan şirketin “süper hizalama” ekibinin bir üyesiydi. OpenAI, Aschenbrenner’ı kovduktan bir ay sonra, önde gelen iki ekip üyesi daha istifa etti ve ekip fiilen dağıldı. Bunlardan biri OpenAI kurucu ortağı ve baş bilim adamı Ilya Sutskever’di. OpenAI CEO’su Sam Altman’ın kısmen teknolojinin güvenliği konusunda ikisi arasındaki anlaşmazlıklar nedeniyle başarısız bir şekilde görevden alınmasına yardım ettikten yalnızca altı ay sonra ayrıldığını duyurdu. Sustkever’in istifasını açıklamasından birkaç saat sonra meslektaşı Jan Leike de ayrıldı.

Drama sona erdikten sonra OpenAI, geçen ay yeni bir emniyet ve güvenlik komitesi oluşturdu ve eski NSA direktörü Paul Nakasone’u ekip lideri olarak ekledi. Şu anda OpenAI’nin en yeni yönetim kurulu üyesi olan Nakasone, Savunma Bakanlığı’nın siber güvenlik kolu olan ABD Siber Komutanlığı’nın eski başkanıdır.

Nakasone’nin varlığı OpenAI’nin güvenliği daha ciddiye aldığını gösterse de ataması tartışmasız değildi. 2013 yılında hükümet gözetimini detaylandıran gizli belgeleri sızdıran Amerikalı ihbarcı Edward Snowden, X’teki bir gönderisinde Nakosone’nin işe alınmasının “Dünyadaki her insanın haklarına hesaplanmış bir ihanet” olduğunu yazdı.



genel-22

Popular Articles

Latest Articles