2­8­ ­ü­l­k­e­ ­y­a­p­a­y­ ­z­e­k­a­n­ı­n­ ­o­l­u­ş­t­u­r­d­u­ğ­u­ ­r­i­s­k­l­e­r­l­e­ ­y­ü­z­l­e­ş­m­e­k­ ­i­ç­i­n­ ­b­i­r­ ­i­ş­b­i­r­l­i­ğ­i­ ­a­n­l­a­ş­m­a­s­ı­ ­ü­z­e­r­i­n­d­e­ ­a­n­l­a­ş­t­ı­

2­8­ ­ü­l­k­e­ ­y­a­p­a­y­ ­z­e­k­a­n­ı­n­ ­o­l­u­ş­t­u­r­d­u­ğ­u­ ­r­i­s­k­l­e­r­l­e­ ­y­ü­z­l­e­ş­m­e­k­ ­i­ç­i­n­ ­b­i­r­ ­i­ş­b­i­r­l­i­ğ­i­ ­a­n­l­a­ş­m­a­s­ı­ ­ü­z­e­r­i­n­d­e­ ­a­n­l­a­ş­t­ı­

Resim: cofotoisme/Getty Images.

Aralarında Fransa, Çin ve ABD’nin de bulunduğu 28 ülke, yapay zekayla bağlantılı potansiyel riskleri belirlemek ve yönetmek için işbirliği yapmayı kabul etti. Bu, türünün ilk çok taraflı anlaşmasıdır.

Birleşik Krallık tarafından yayınlanan Bletchley’den yapay zeka güvenliğine ilişkin açıklama ülkelerin, yapay zekanın küresel toplumun yararına “güvenli ve sorumlu bir şekilde” geliştirilmesini ve kullanılmasını sağlamanın “acil ihtiyacını” kabul ettiğini vurguluyor. Bunu başarmak için geniş uluslararası işbirliğine ihtiyaç olduğunun altını çiziyor.

Bildiri halihazırda aralarında Singapur, Japonya, Hindistan, Fransa, Avustralya, Almanya, Güney Kore, Birleşik Arap Emirlikleri ve Nijerya’nın da bulunduğu Asya, Avrupa ve Orta Doğu’daki birçok ülke tarafından onaylandı.

İmzacı ülkeler, örneğin kontrolün kaybedilmesi durumunda, kasıtlı veya kasıtsız olarak yapay zekanın kötüye kullanılmasından önemli risklerin doğabileceğini kabul etmektedir. Özellikle siber güvenlik, biyoteknoloji ve dezenformasyonla bağlantılı risklere dikkat çekiyorlar.

Açıklamaya göre, yapay zeka modelleri ciddi ve potansiyel olarak yıkıcı zararlara neden olma kapasitesine sahip, ancak aynı zamanda önyargıları ve mahremiyetin korunmasıyla ilgili sorunlar da geliştirebiliyor.

Risklerin ve yeteneklerin hala yeterince anlaşılmadığını kabul eden ülkeler, işbirliği yapmayı ve mevcut ve gelecekteki yapay zeka teknolojileriyle ilişkili risklere ilişkin ortak bir “bilimsel ve gerçek anlayış” geliştirmeyi kabul etti.

Bletchley’in açıklamasının ele aldığı yapay zeka, “yüksek performanslı genel amaçlı yapay zeka modellerini” kapsayan sistemlerdir. Bunlar, çok çeşitli görevleri yerine getirebilen temel modellerden spesifik, dar yapay zeka modellerine kadar uzanır.

Metinde şunları okuyabiliyoruz: “Mevcut uluslararası forumlar ve diğer ilgili girişimler aracılığıyla, güvenilir ve herkesin yararına olan, insan merkezli, güvenilir ve sorumlu yapay zekayı sağlamak için kapsayıcı bir şekilde birlikte çalışmaya karar verdik.” “Bunu yaparken, ülkelerin yapay zeka ile ilgili riskleri dikkate alan ve faydaları en üst düzeye çıkaran inovasyon dostu ve orantılı bir yönetişim ve düzenleyici yaklaşımın önemini dikkate alması gerektiğinin farkındayız. »

Bu yaklaşım, yerel kültürel ve yasal bağlamlara dayalı olarak risklerin sınıflandırılması ve sınıflandırılmasının oluşturulmasına yol açabilir. Ülkelerin yeni yaklaşımlar, örneğin ortak ilkeler ve davranış kuralları konusunda işbirliği yapması da gerekli olabilir.

28 ülkeden oluşan grup, uygun durumlarda işbirliği yaparak ve ulusal yaklaşımların farklılık gösterebileceğini kabul ederek küresel risklere ilişkin politikalar geliştirmeyi amaçlıyor. Bu yeni çabalar, ileri düzeyde yapay zeka yetenekleri geliştiren özel aktörlerin daha fazla şeffaflığa ihtiyaç duymasının yanı sıra, yapay zeka testi, güvenliği ve kamu sektörü ve bilimsel araştırma kapasiteleriyle ilgili ölçümlerin ve değerlendirme araçlarının geliştirilmesini de içeriyor.

İngiltere Başbakanı Rishi Sunak’a göre “bu, yapay zeka alanında dünyanın en büyük güçlerinin riskleri anlamanın aciliyeti konusunda hemfikir olduğu tarihi bir an”.

Birleşik Krallık Teknoloji Bakanı Michelle Donelan, “Her zaman hiçbir ülkenin yapay zekanın yarattığı zorluklarla ve risklerle tek başına başa çıkamayacağını söyledik ve bugünkü tarihi deklarasyon, teknolojinin güvenli bir şekilde gelişmesini sağlayacak şekilde kamu güvenini inşa etmeye yönelik yeni bir küresel çabanın başlangıcını işaret ediyor” diye ekledi.

Üretken yapay zeka ürünlerini değerlendirmek için standart bir dizi kriter sağlamayı amaçlayan Sandbox olarak bilinen Singapur liderliğindeki bir proje de bu hafta açıklandı. Girişim, Anthropic ve Google dahil olmak üzere büyük küresel oyuncuların kaynaklarını bir araya getiriyor ve bir rehber tarafından yönlendiriliyor. katalog projesi Başlıca dil modellerini değerlendirmek için kullanılan mevcut kriterleri ve yöntemleri kategorize eden.

Katalog, yaygın olarak kullanılan teknik test araçlarını derleyerek bunları test ettikleri şeye ve yöntemlerine göre organize ediyor ve üretken yapay zeka ürünlerini değerlendirmek için bir dizi temel test öneriyor. Amaç, ortak bir dil oluşturmak ve “üretken yapay zekanın daha geniş, güvenli ve güvenilir bir şekilde benimsenmesini” desteklemektir.

Geçen ay Birleşmiş Milletler (BM), potansiyel riskleri azaltmak için yapay zekanın nasıl yönetilmesi gerektiğini incelemek üzere bir danışma ekibi kurdu ve “küresel düzeyde kapsayıcı bir yaklaşım” benimseme sözü verdi. Takım şu anda 39 üyesi varDevlet kurumlarından, özel kuruluşlardan ve üniversitelerden temsilciler dahil. Bunların arasında Singapur hükümeti bünyesindeki yapay zeka başkanı, dijital ve yapay zekadan sorumlu İspanyol Dışişleri Bakanı ve OpenAI’nin CTO’su da yer alıyor.

Resim : ZDNet.com

Popular Articles

Latest Articles