G­7­ ­y­a­p­a­y­ ­z­e­k­a­ ­k­u­r­a­l­l­a­r­ı­n­a­ ­d­i­k­k­a­t­ ­ç­e­k­t­i­!­

G­7­ ­y­a­p­a­y­ ­z­e­k­a­ ­k­u­r­a­l­l­a­r­ı­n­a­ ­d­i­k­k­a­t­ ­ç­e­k­t­i­!­

G7’ye göre, hükümetler teknolojinin risklerini ve olası kötüye kullanımını azaltmaya çalışırken, Yedi sanayi ülkesinden oluşan Grup, ileri yapay zeka sistemleri geliştiren şirketler için bir davranış kuralları üzerinde anlaşmaya varacak.

Reuters tarafından tespit edilen belge, gönüllü davranış kurallarının, gizlilik endişeleri ve güvenlik riskleri nedeniyle büyük ülkelerin yapay zekayı nasıl yöneteceğine dair bir dönüm noktası oluşturacağını gösterdi. Kanada, Fransa, Almanya, İtalya, Japonya, İngiltere ve ABD’nin yanı sıra Avrupa Birliği’nden oluşan G7 ekonomilerinin liderleri, süreci Mayıs ayında “Hiroşima” adı verilen bir bakanlar forumunda başlattı.

G7 belgesinde, 11 maddelik kodun “dünya çapında güvenli, emniyetli ve güvenilir yapay zekayı teşvik etmeyi amaçladığı ve en gelişmiş temel modeller ve üretken yapay zeka sistemleri de dahil olmak üzere en gelişmiş yapay zeka sistemlerini geliştiren kuruluşların eylemleri için gönüllü rehberlik sağlayacağı” belirtildi.

Kurallar, şirketleri yapay zeka yaşam döngüsü boyunca riskleri tanımlamak, değerlendirmek ve azaltmak için uygun önlemleri almaya ve ayrıca yapay zeka ürünleri piyasaya sürüldükten sonra olaylarla ve kötüye kullanım kalıplarıyla mücadele etmeye teşvik ediyor. Şirketler yapay zeka sistemlerinin yetenekleri, sınırlamaları, kullanımı ve kötüye kullanımı hakkında kamuya açık raporlar yayınlamalı ve ayrıca sağlam güvenlik kontrollerine yatırım yapmalı.

AB, zorlu Yapay Zeka Yasası ile gelişen teknolojiyi düzenlemede ön saflarda yer alırken, Japonya, ABD ve Güneydoğu Asya’daki ülkeler ekonomik büyümeyi artırmak için bloktan daha müdahaleci bir yaklaşım benimsedi. Bu ayın başlarında Japonya’nın Kyoto kentinde internet yönetimi konulu bir forumda konuşan Avrupa Komisyonu dijital şefi Vera Jourova, Davranış Kurallarının güvenliği sağlamak için güçlü bir temel olduğunu ve düzenleme yürürlüğe girene kadar bir köprü görevi göreceğini söyledi.

Önde gelen yapay zeka şirketlerinin çoğu, yapay zeka gelişiminin güvenliğini incelemek için kendi gönüllü kılavuzlarını ve finansman kuruluşlarını zaten geliştirdi. Anthropic, Google, Microsoft ve OpenAI, yapay zekanın olası zararlarını incelemek için bir güvenlik forumu duyurdular ve yakın zamanda kuruluşa fon sağlamak için 10 milyon dolar sözü verdiler. Aynı kuruluşların yanı sıra IBM, Meta, Nvidia ve Palantir de yapay zekanın geliştirilmesinde emniyet ve güvenlik taahhüdünde bulunmayı kabul etti.

Popular Articles

Latest Articles