A­I­ ­g­e­l­i­ş­i­m­i­n­i­ ­d­u­r­a­k­l­a­t­m­a­k­ ­a­p­t­a­l­c­a­ ­b­i­r­ ­f­i­k­i­r­

A­I­ ­g­e­l­i­ş­i­m­i­n­i­ ­d­u­r­a­k­l­a­t­m­a­k­ ­a­p­t­a­l­c­a­ ­b­i­r­ ­f­i­k­i­r­


Bir grup etkili ve bilgili teknoloji türü, yakın zamanda yapay zeka sunumlarının altı ay süreyle durdurulması için resmi bir talepte bulundu. Yapay zekanın çok hızlı ilerlediği yönündeki endişeleri kesinlikle anlıyorum, ancak onu olduğu yerde durdurmaya çalışmak, daha iyi bilmesi gereken insanlar tarafından tekrarlanan bir hatadır.

Bir teknoloji bir kez harekete geçtiğinde, geri durmak imkansızdır, çünkü büyük ölçüde küresel bir duraklama başlatma yetkisine sahip güçlü bir merkezi otorite ve duraklama yönergesine uyulmasını sağlayacak bir yaptırım kurumu yoktur.

Doğru yaklaşım, önceden böyle bir otorite oluşturmak olacaktır, bu nedenle amaçlanan sonucu garanti altına almanın bir yolu vardır. Eski Microsoft CEO’su Bill Gates ile aynı fikirdeyim. AI güvenilirliğini sağlamaya odaklanılmalıdırher şeyi duraklatmaya çalışmamak.

Bir duraklama neden işe yaramaz?

Duraklamanın kötü bir fikir olduğunu tartışacağım ve bunun yerine neden işe yaramayacağına odaklanacağım. Bir araba yarışı sırasında sarı bayrak örneğini ele alalım. Bu, bir tür duraklamanın nasıl çalışması gerektiğidir: tehlike geçene kadar – veya yapay zeka söz konusu olduğunda, biz onun potansiyel tehlikelerini nasıl azaltacağımızı daha iyi anlayana kadar herkes pozisyonunu korur.

Ama tıpkı bir araba yarışında olduğu gibi, önde olan ülkeler ve şirketler var ve çeşitli mesafelerde geri kalanlar var. Bir araba yarışında sarı bayrak altında, geride kalan arabalar öndeki arabaları yakalayabilir ama geçmelerine izin verilmez. Kurallar, şirketlerin ve ülkelerin gerçek dünyasında benzeri olmayan pist hakemleri tarafından uygulanır. BM gibi kuruluşların bile yapay zeka geliştirme laboratuvarlarına ilişkin çok az görünürlüğü vardır veya hiç yoktur ve bu laboratuvarların geri çekileceğini garanti edemezler.

Sonuç olarak, yapay zeka teknolojisinde başı çekenlerin çabalarını yavaşlatması pek mümkün değil çünkü takip edenlerin yapmayacağını biliyorlar – ve yetişmek isteyenler yakalamak için herhangi bir duraklama kullanacaklar. (Ve unutmayın, bu projelerde çalışan insanların altı aylık ücretli tatil yapmaları pek olası değildir; ne olursa olsun ilgili teknoloji üzerinde çalışmaya devam edeceklerdir.)

Halihazırda pazara ulaşmış olan herhangi bir teknolojik ilerlemede bir duraklamayı zorunlu kılacak küresel bir mekanizma yoktur. Genel olarak yasaklanmış olan klonlar üzerindeki geliştirme bile dünya çapında devam ediyor. Duran şey, neyin ve nerede yapıldığına dair neredeyse tamamen şeffaflıktır (ve klonlama çabaları hiçbir zaman üretken yapay zekanın birkaç ay içinde ulaştığı kullanım düzeyine ulaşmamıştır).

Talep erkendi; yönetmelik daha önemli

Neyse ki, üretici yapay zeka henüz genel amaçlı bir yapay zeka değil. Bu, beraberinde en büyük endişeyi getirmesi gereken yapay zekadır, çünkü bir makinenin veya kişinin yapabileceği çoğu şeyi yapma yeteneğine sahip olacaktır. Ve o zaman bile, altı aylık bir ara, belki de herhangi bir duraklamaya bağlı kalanların uymayanların gerisinde kalmasıyla, rekabetçi sıralamaları karıştırmaktan öteye pek bir şey yapmaz.

Genel AI’nın gelecekte on yıldan fazla bir süre olacağına inanılıyor ve bu da bize muhtemelen bir düzenleyici ve gözetim organına ara vermekten daha yakın bir çözüm tasarlamamız için zaman veriyor. Aslında o açık mektupta önerilmesi gereken tam da böyle bir yapının yaratılmasıydı. Herhangi bir duraklamadan bağımsız olarak, yapay zekanın zararlı olmayacağından emin olunması, gözetim ve yaptırımın en önemli hale getirilmesi gerekir.

AI’nın silahlarda kullanıldığı göz önüne alındığında, hangi ülkeler yeterli üçüncü taraf gözetimine izin verir? Cevap muhtemelen hiçbiri – en azından ilgili tehdit nükleer silahlarınkine rakip olana kadar. Ne yazık ki, bunları düzenlemek için de iyi bir iş yapmadık.

Küresel bir fikir birliğine varmanın bir yolu olmadığından (yapay zekaya altı aylık bir ara vermeyi bırakın), şu anda ihtiyaç duyulan şey, küresel gözetim ve yaptırım ile birlikte aşağıdaki gibi girişimlere destek sağlamaktır. Cankurtaran Vakfı’nın AIshield’ı veya bir AI savunması oluşturmak için başka bir çaba düşman yapay zekaya karşı.

Son mektupla ilgili bir ironi, imzalayanların arasında Elon Musk’ın da yer almasıdır. etik dışı olmakla ilgili bir üne sahiptir (Ve hükümetin yönlendirmesine karşı isyan etme eğilimindedir), böyle bir mekanizmanın onunla çalışmayacağını öne sürüyor. Bu, bir çabanın işe yaramayacağı anlamına gelmez. Ancak Gates’in görevinde belirttiği gibi doğru yol, yapay zeka atı ahırdan ayrıldıktan sonra değil, korkulukları önceden kurmaktır.

Telif hakkı © 2023 IDG Communications, Inc.


Popular Articles

Latest Articles