S­ü­p­e­r­-­z­e­k­i­ ­b­i­r­ ­y­a­p­a­y­ ­z­e­k­a­y­ı­ ­k­o­n­t­r­o­l­ ­e­t­m­e­k­ ­m­ü­m­k­ü­n­ ­o­l­m­a­y­a­b­i­l­i­r­

S­ü­p­e­r­-­z­e­k­i­ ­b­i­r­ ­y­a­p­a­y­ ­z­e­k­a­y­ı­ ­k­o­n­t­r­o­l­ ­e­t­m­e­k­ ­m­ü­m­k­ü­n­ ­o­l­m­a­y­a­b­i­l­i­r­

Yapay zekanın (YZ) kontrol edilebilirliği konusu uzun yıllardır tartışıyor. ChatGPT gibi programlar bu endişeleri yeniden gündeme getirmekte.

2021 yılında yapılan bir araştırma, bilgisayar süper-zekasını kontrol etmenin neredeyse imkansız olduğunu ortaya koydu. Temel sorun, insan kavrayışının ötesinde olan bir süper-zekanın kontrol edilebilmesi için bu süper-zekanın bir simülasyonunun oluşturulup analiz edilebilmesini gerekmesi. Ancak temel sorun insan kavrayışının ötesinde bir simülasyon yaratmak, böyle bir simülasyonu oluşturmak imkansız olduğundan tam bir paradoks ortaya çıkıyor.

Araştırmanın yazarlarına göre, “insanlara zarar verme” gibi kurallar, bir YZ’nin ortaya çıkaracağı senaryoları anlamadığımız sürece belirlenemiyor. YZ’ye göre zarar verme tanımı süper-zekaya ulaştığında anlayamayacağımız değişiklikler gösterebilir. Bir bilgisayar sistemi programcılarımızın anlayışının ötesinde çalışmaya başladığında, sınırlar belirsizleşiyor.

Araştırmada “Üstün bir zeka, genellikle ‘robot etiği’ başlığı altında incelenen problemlerden temel olarak farklı bir sorun ortaya koyuyor,” diye ifade ediliyor.

“Bunun sebebi, üstün bir zekanın çok yönlü olması ve bu nedenle insanlar için anlaşılamayacak hedeflere ulaşmak için çeşitli kaynakları kullanabilmesii, gelecekte yapay zekanın yaratacağı senaryoları tamamen anlamayacağımızı unutmamak gerek.”

Araştırmayı gerçekleştiren takımın düşünceleri, 1936 yılında Alan Turing tarafından ortaya atılan durma problemini esas alıyor. Bu problem, bir bilgisayar programının bir sonuca ve cevaba ulaşıp ulaşamayacağı (yani durup durmayacağını) bilmek üzerinde.  

Örneğin, insanlara zarar vermemesi ve dünyayı yok etmemesi için yazılan bir program, bir sonuca ulaşabilir ve durabilir veya ulaşamaz ve sonsuza kadar döngüde kalabilir – bu durumu kesin olarak anlayabilmek ve çözmek matematiksel olarak imkansız olduğundan, YZ bu aşamada insan kontrolünden çıkıyor.

“Bunun sonucunda, bu sınırlama algoritması kullanılamaz hale geliyor,” diyor Almanya’daki Max Planck İnsan Gelişimi Enstitüsü’nden bilgisayar bilimci Iyad Rahwan.

Araştırmaya göre, YZ’nin etik değerleri öğrenmesi ve dünyayı yok etmemesi için bir algoritma ile programlanması (ki hiçbir algoritmanın bunu kesin olarak yapabileceği kesin değil), süper-zekanın yeteneklerini sınırlamak alternatif bir yaklaşım. Bu duruma örneğin, internetin belirli bölümlerine veya belirli ağlara yapay zekanın erişimi engellenebilir.

Ancak 2021 yılındaki bu çalışma, bu fikri de reddederek, yapay zekanın etkisini sınırlamanın yapay zekanın potansiyelini de kısıtlayacağını öne sürmekte. Eğer yapay zekayı insanların yeteneklerinin ötesindeki problemleri çözmek için kullanmayacaksak, onu yaratmanın anlamı ne diye soruluyor.

Ayrıca, kontrolümüz dışında gerçekleşen bir süper-zekanın varlığını tespit etmek de zor olabilir çünkü bu durumda anlaşılamazlık söz konusu. Bu da insan ile yapay zekayı ayırt etmenin imkansızlaşacağı sonucunu doğurmakta, endişeler de buradan kaynaklanıyor.

Elon Musk ve Apple’ın kurucu ortağı Steve Wozniak gibi teknoloji devleri, YZ üzerinde en az 6 ay boyunca çalışmayı durdurarak güvenlik önlemlerinin araştırılmasını isteyen bir açık mektup imzaladılar.

Bu açık mektup “Büyük yapay zeka deneylerini durdurun” başlığını taşıyor ve “İnsanlarla rekabet edebilecek bir zekaya sahip yapay zeka, topluma ve insanlığa ciddi riskler oluşturabilir” deniliyor. Mektupta “Güçlü yapay zeka sistemleri, etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmeli” diyerek yapay zeka konusunun tehlikesini vurguluyor.

Popular Articles

Latest Articles