Y­e­n­i­ ­k­ü­r­e­s­e­l­ ­y­a­p­a­y­ ­z­e­k­a­ ­g­ü­v­e­n­l­i­ğ­i­ ­t­a­a­h­h­ü­t­l­e­r­i­ ­A­B­­n­i­n­ ­r­i­s­k­ ­t­e­m­e­l­l­i­ ­y­a­k­l­a­ş­ı­m­ı­n­ı­ ­y­a­n­s­ı­t­ı­y­o­r­

Y­e­n­i­ ­k­ü­r­e­s­e­l­ ­y­a­p­a­y­ ­z­e­k­a­ ­g­ü­v­e­n­l­i­ğ­i­ ­t­a­a­h­h­ü­t­l­e­r­i­ ­A­B­­n­i­n­ ­r­i­s­k­ ­t­e­m­e­l­l­i­ ­y­a­k­l­a­ş­ı­m­ı­n­ı­ ­y­a­n­s­ı­t­ı­y­o­r­

Yapay zeka politika yapıcıları için yoğun bir hafta oldu. AB, Yapay Zeka Yasasına ilişkin anlaşmayı imzaladı. Bu arada Güney Kore'nin Seul kentinde 16 dünya lideri şirket “Sınır Yapay Zeka Güvenliği Taahhütlerini” imzaladı ve bir grup ülke teknolojiyle ilgili riskleri azaltmak için birlikte çalışma sözü verdi.

Geçen yılın dünyanın uyandığı yıl olduğunu söylemek yapay zeka yetersiz bir ifade olurdu. ChatGPT'nin 2022'nin sonlarında piyasaya sürülmesi, daha önce perde arkası teknolojisini yemek masasında ve parlamento salonlarında yapılan konuşmalara fırlattı.

Ve birdenbire, makinelerin yönettiği kıyamet gibi bir gelecek, bilim kurgu konseptinden potansiyel bir gerçek dünya senaryosuna dönüştü. En azından birçok araştırmacıya, çıkar grubuna ve hatta yapay zeka şirketlerinin CEO'larına inanılacak olursa. kıyamet dilekçelerine imza attı Yeterli koruma önlemleri uygulanıncaya kadar teknolojinin gelişimini yavaşlatmak.

Bu tür kaygıların, teknoloji şirketlerinin birbirlerini yeni yapay zeka ürünleri sunmaya teşvik etme hızını azaltmada pek bir etkisi olmuş gibi görünmüyor.

Değişken nitelikteki yapay zeka riskinin azaltılması

Algoritma yoluyla neslinin tükenmesinin ötesinde, yapay zekanın yayılmasından kaynaklanan önyargı, gözetleme ve yanlış bilgilerin kitlesel dağıtımı gibi daha acil tehditler de vardır. Bu amaçla politikacılar, görünüşe bakılırsa, zaten kaçmış bir atı bir şekilde kontrol altına almak için gerçekte neler yapılabileceği konusunu en azından kafalarına sokmaya çalışıyorlar.

Bu hafta Güney Kore'de düzenlenen Yapay Zeka Seul Zirvesi'nin ardından bugün bir dizi ülke, biyolojik ve kimyasal silah yapımı da dahil olmak üzere ciddi Yapay Zeka risklerine yönelik eşikler üzerinde birlikte çalışmak üzere bir anlaşma imzaladı. Avrupalı ​​imzacılar Almanya, Fransa, İtalya, İspanya, İsviçre, İngiltere, Türkiye ve Hollanda'nın yanı sıra bir birim olarak AB'dir.

Bu anlaşma, dünyanın en etkili 16 yapay zeka şirketi ve kuruluşunun Salı günü katıldığı “Sınır Yapay Zeka Güvenliği Taahhütleri”nin ardından geliyor. Aralarında Fransız start-up fenomeni Mistral AI'nin de bulunduğu imzacılar, yapay zeka yaşam döngüsü boyunca riskleri gönüllü olarak (yani herhangi bir yaptırımın olmadığı) tanımlamayı, değerlendirmeyi ve yönetmeyi taahhüt ediyor.

Bu, kabul edilemez riskler için eşik değerlerinin belirlenmesini, risk azaltımlarının uygulanmasını ve risklerin tanımlanan eşikleri aştığı durumlarla başa çıkmak için süreçlerin oluşturulmasını içerir.

Yapay zeka düzenleme döngüleri hızlandırılabilir mi?

Yapay Zeka Seul Zirvesi, Birleşik Krallık'taki Bletchley Park'taki Yapay Zeka Güvenlik Zirvesi'nden altı ay sonra gerçekleşti. Paris, Şubat 2025'teki bir sonraki toplantıya – Yapay Zeka Eylem Zirvesi – ev sahipliği yapacak. “Güvenliği” bırakıp “eylem”i tercih etmenin, Başkan Macron'un Paris'i Paris yapma arzusuyla bir ilgisi olabilir “yapay zeka şehri.”

“Mevcut jeopolitik anda, yapay zekanın karmaşıklıkları mevzuat tartışmasından ayrılamaz; bunların ele alınması gerekir. CI&T EMEA Teknolojiden Sorumlu Başkan Yardımcısı Mark Rodseth, yapay zekanın güvenli ve sorumlu bir şekilde kullanıma sunulmasını sağlamak için küresel iş birliğinin hayati önem taşıdığını söyledi.

“Yapay zekanın hızlı gelişimi göz önüne alındığında, çok daha kısa düzenleme döngülerine ihtiyacımız var. Hükümetlerin ve düzenleyici otoritelerin hızlarını artırmaları gerekeceğinden bu zorlayıcı olacak” diye ekliyor.

Bu, bloğun fikir birliğine dayalı düzenleyici döngüleri göz önüne alındığında, özellikle AB için zor olabilecek bir şey. Bununla birlikte, AB bakanları bu hafta dönüm noktası niteliğindeki Yapay Zeka Yasasını imzaladıönümüzdeki ay yürürlüğe girecek.

Finlandiya yapay zeka yönetişim girişimi Saidot'un yapay zeka politika yöneticisi Maria Koskinen, TNW'ye şunları söylüyor: “AB Yapay Zeka Yasası ile Sınır Yapay Zeka Güvenlik Taahhütleri arasındaki büyük fark, ikincisinin kuruluşların kendi risk eşiklerini belirlemelerine olanak sağlamasıdır.”

Ancak şirketlerden “kabul edilemez” kabul edilebilecek riskleri eşiklere göre nasıl kategorize ettiklerini ve bu riskleri nasıl azaltmayı planladıklarını paylaşmalarının istendiği göz önüne alındığında, bu, dünya çapındaki şirketlerin ve hükümetlerin AB'den ders aldığı anlamına geliyor gibi görünüyor. Koskinen, AI Yasasının risk temelli yaklaşımını ekledi.

Görevlerinde başarılı olup olmadıklarını yalnızca zaman gösterecek.

Kaynak bağlantısı

Popular Articles

Latest Articles