O­p­e­n­A­I­,­ ­L­o­s­ ­A­l­a­m­o­s­ ­L­a­b­o­r­a­t­u­v­a­r­ı­ ­i­l­e­ ­y­a­p­a­y­ ­z­e­k­a­y­l­a­ ­b­i­y­o­l­o­j­i­k­ ­s­i­l­a­h­ ­ü­r­e­t­i­l­m­e­s­i­ ­t­e­h­d­i­d­i­n­e­ ­k­a­r­ş­ı­ ­ç­a­l­ı­ş­a­c­a­k­

O­p­e­n­A­I­,­ ­L­o­s­ ­A­l­a­m­o­s­ ­L­a­b­o­r­a­t­u­v­a­r­ı­ ­i­l­e­ ­y­a­p­a­y­ ­z­e­k­a­y­l­a­ ­b­i­y­o­l­o­j­i­k­ ­s­i­l­a­h­ ­ü­r­e­t­i­l­m­e­s­i­ ­t­e­h­d­i­d­i­n­e­ ­k­a­r­ş­ı­ ­ç­a­l­ı­ş­a­c­a­k­

Yapay zeka devi OpenAI, İkinci Dünya Savaşı sırasında atom bombasını geliştirmek için kurulan Los Alamos Ulusal Laboratuvarı ile ortaklık kuruyor. Ortaklık kapsamında uzman olmayan kişiler tarafından yapay zeka araçları kullanılarak yaratılabilecek biyolojik tehditlerle mücadele etmek için yapay zekanın nasıl kullanılabileceğini incelenecek. Yürütülecek olan çalışmanın, yapay zeka biyogüvenliği ve yapay zekanın bir laboratuvar ortamında kullanılabileceği yollar üzerine türünün ilk örneği olacağını belirtelim. 

OpenAI ve Los Alamos laboratuvarının yayınladığı açıklamalar arasındaki fark ise dikkat çekiyor. OpenAI, açıklamasında, ortaklığı aktarırken, sadece yapay zekanın biyobilimsel araştırmaları ilerletmek için laboratuvar ortamlarında bilim insanları tarafından nasıl güvenli bir şekilde kullanılabileceği üzerine bir çalışma yürütüleceğini ifade ediyor. Öte yandan Los Alamos laboratuvarı, açıklamasında önceki araştırmaların ChatGPT-4'ün biyolojik tehditlerin yaratılmasına yol açabilecek bilgileri sağlamada hafif bir artış sağladığını tespit ettiğini vurguluyor.

Şimdiye kadar teknoloji liderlerinin verdiği demeçler, yapay genel zekanın (AGI) gelişimini yani insana eş değer bir yapay zekayı çeşitli senaryolarda insanlığa karşı bir tehdit olarak görürken, bundan çok daha önemli olan tehditin insanların ChatGPT gibi araçları biyolojik silahlar yaratmak için kullanmaları olduğunu görüyoruz. 

Los Alamos laboratuarının bu konudaki adımları Yapay Zeka Riskleri Teknik Değerlendirme Grubu tarafından koordine ediliyor. Los Alamos'ta araştırmacı bilim insanı olan Erick LeBrun Çarşamba günü yaptığı açıklamada, biyolojik tehditlerle ilgili gelişmiş yapay zekanın potansiyel tehlikelerini veya kötüye kullanımını ölçmenin ve anlamanın büyük ölçüde araştırılmadığına dikkat çekti ve ekledi: 

"OpenAI ile yapılan bu çalışma, mevcut ve gelecekteki modelleri değerlendirmek için bir çerçeve oluşturmaya yönelik önemli bir adımdır ve yapay zeka teknolojilerinin sorumlu bir şekilde geliştirilmesini ve konuşlandırılmasını sağlar."

Geçtiğimiz günlerde Anthropic de yapay zeka değerlendirmeleri için yeni ölçüt türlerinin geliştirilmesini finanse edeceğini açıklamıştı. Şirket açıklamasında ulusal güvenlik ve savunma ile ilgili yapay zeka riskleri için bir tür erken uyarı sistemi geliştirmenin peşinde olduğunu dile getirmişti. Görünen o ki; yapay zeka şirketleri, bu ve benzer tehditlere karşı savunma saflarını sıklaştırmaya kararlı.  

Popular Articles

Latest Articles