A­B­D­ ­v­e­ ­Ç­i­n­,­ ­ü­r­e­t­k­e­n­ ­y­a­p­a­y­ ­z­e­k­a­y­ı­ ­d­ü­z­e­n­l­e­m­e­y­e­ ­y­ö­n­e­l­i­k­ ­i­l­k­ ­a­d­ı­m­l­a­r­ı­ ­a­t­ı­y­o­r­

A­B­D­ ­v­e­ ­Ç­i­n­,­ ­ü­r­e­t­k­e­n­ ­y­a­p­a­y­ ­z­e­k­a­y­ı­ ­d­ü­z­e­n­l­e­m­e­y­e­ ­y­ö­n­e­l­i­k­ ­i­l­k­ ­a­d­ı­m­l­a­r­ı­ ­a­t­ı­y­o­r­


ABD ve Çin, teknoloji ticaretinde şiddetli rakipler olsa da, ortak yeni bir şeyleri paylaşıyorlar gibi görünüyor: AI’nın hesap verebilirliği ve olası kötüye kullanımı ile ilgili endişeler. Salı günü, her iki ülkenin hükümetleri yapay zeka geliştirmeye yönelik düzenlemelerle ilgili duyurular yayınladı.

ABD Ticaret Bakanlığı’nın bir şubesi olan Ulusal Telekomünikasyon ve Bilgi İdaresi (NTIA), bir resmi kamu talebi hangi politikaların bir yapay zeka hesap verebilirlik ekosistemini şekillendirmesi gerektiğine ilişkin girdi için.

Bunlar, veri erişimi, hesap verebilirliğin ölçülmesi ve istihdam veya sağlık hizmetleri gibi farklı endüstri sektörlerinde yapay zekaya yaklaşımların nasıl değişebileceği hakkındaki soruları içerir.

Talebe cevaben yazılı yorumlar, Federal Sicilde yayın tarihinden itibaren 60 gün sonra, 10 Haziran 2023 tarihine kadar NTIA’ya sağlanmalıdır.

Haber aynı gün geliyor Çin Siber Uzay İdaresi (CAC) sağlayıcıları eğitmek için kullanılan verilerin geçerliliğinden sorumlu kılmak da dahil olmak üzere, üretici yapay zeka hizmetlerini yönetmek için bir dizi taslak tedbir açıkladı. üretici yapay zeka aletler.

CAC, yapay zeka araçlarını eğitmek için kullanılan verilerin geçerliliğinden sağlayıcıların sorumlu olması gerektiğini ve algoritmalar tasarlarken ve veri setlerini eğitirken ayrımcılığı önlemek için önlemler alınması gerektiğini söyledi. Reuters’in raporu. Firmaların ayrıca yapay zeka araçlarını halka sunmadan önce hükümete güvenlik değerlendirmeleri sunmaları gerekecek.

Taslak kurallara göre, platformları tarafından uygunsuz içerik üretilmesi durumunda şirketler, benzer içeriklerin tekrar üretilmesini önlemek için teknolojiyi üç ay içinde güncellemelidir. Kurallara uyulmaması, sağlayıcıların para cezasına çarptırılmasına, hizmetlerinin askıya alınmasına veya cezai soruşturmalara maruz kalmasına neden olacaktır.

CAC, üretici yapay zeka tarafından üretilen herhangi bir içeriğin ülkenin temel sosyalist değerleri ile uyumlu olması gerektiğini söyledi.

Çin’in teknoloji devleri yapay zeka geliştirme yolunda ilerliyor. CAC duyurusu, Alibaba Cloud’un tüm iş uygulamalarında ChatGPT tarzı bir ön uç olarak kullanıma sunulacağını söyleyen Tongyi Qianwen adlı yeni bir büyük dil modelini duyurmasıyla aynı gün yayınlandı. Geçen ay, başka bir Çinli internet hizmetleri ve yapay zeka devi Baidu, Çince ChatGPT alternatifi Ernie bot’u duyurdu.

AI düzenlemesi ve inovasyon

Çin hükümeti net bir dizi düzenleyici yönerge belirlemiş olsa da, dünyadaki diğer hükümetler farklı bir yaklaşım benimsiyor.

Geçen ay Birleşik Krallık hükümeti, “inovasyonu engelleyebilecek sert mevzuattan kaçınmak” için, AI yönetişiminin sorumluluğunu yeni bir tek düzenleyiciye vermemeyi tercih ettiğini ve bunun yerine mevcut düzenleyicileri kendi yasalarını çıkarmaya çağırdığını söyledi. AI’nın kendi sektörlerinde kullanılma şekline en uygun yaklaşımlar.

Ancak bu yaklaşım, bazıları tarafından eleştirildiendüstri uzmanları, bazı AI araçlarının karmaşık ve çok katmanlı doğası nedeniyle mevcut çerçevelerin AI’yı etkili bir şekilde düzenleyemeyebileceğini, yani farklı rejimler arasında birleştirmenin kaçınılmaz olacağını savunuyor.

Ayrıca, İngiltere’nin veri düzenleyicisi bir uyarı yayınladı büyük dil, üretken yapay zeka modelleri geliştirirken ve dağıtırken kişisel bilgileri koruma konusunda teknoloji şirketlerine İtalya’nın veri gizliliği düzenleyicisi ChatGPT’yi yasakladı iddia edilen gizlilik ihlalleri üzerine. 1.100 teknoloji lideri ve bilim adamından oluşan bir grup da OpenAI’nin yeni piyasaya sürülen GPT-4’ünden daha güçlü sistemler geliştirmeye altı aylık bir ara verilmesi çağrısında bulundu.

Gartner analisti Frank Buytendijk, konu teknoloji yeniliği ve düzenlemeye geldiğinde, çoğu hükümetin veya yasa koyucunun genellikle izlediği belirli bir doğal yol olduğunu söyledi.

“Piyasada yeni bir teknoloji olduğunda, hata yaparak onu sorumlu bir şekilde nasıl kullanacağımızı öğreniyoruz” dedi. “AI ile şu anda bulunduğumuz yer burası.”

Buytendijk, bundan sonra, geliştiricilerin, kullanıcıların ve yasal sistemlerin yasanın ve içtihat hukukunun yorumlanması yoluyla sorumlu kullanım hakkında bilgi edinmelerine olanak tanıyan düzenlemenin ortaya çıkmaya başladığını ve ardından sorumlu kullanıma sahip teknolojilerin yerleşik olduğu son aşamanın geldiğini söyledi.

Buytendijk, “Bu yerleşik en iyi uygulamalar aracılığıyla sorumlu kullanımı öğreniyoruz, dolayısıyla bu bir süreçtir” dedi.

Telif hakkı © 2023 IDG Communications, Inc.


Popular Articles

Latest Articles