A­B­ ­Ş­e­f­i­ ­R­i­s­k­l­e­r­l­e­ ­B­a­ş­a­ ­Ç­ı­k­m­a­k­ ­İ­ç­i­n­ ­Y­e­n­i­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­K­u­r­a­l­l­a­r­ı­ ­Ö­n­e­r­i­r­k­e­n­ ­C­h­a­t­G­P­T­ ­B­a­ş­k­a­ ­B­i­r­ ­S­o­r­u­n­l­a­ ­K­a­r­ş­ı­ ­K­a­r­ş­ı­y­a­

A­B­ ­Ş­e­f­i­ ­R­i­s­k­l­e­r­l­e­ ­B­a­ş­a­ ­Ç­ı­k­m­a­k­ ­İ­ç­i­n­ ­Y­e­n­i­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­K­u­r­a­l­l­a­r­ı­ ­Ö­n­e­r­i­r­k­e­n­ ­C­h­a­t­G­P­T­ ­B­a­ş­k­a­ ­B­i­r­ ­S­o­r­u­n­l­a­ ­K­a­r­ş­ı­ ­K­a­r­ş­ı­y­a­



AB endüstri şefi Thierry Breton, üst düzey bir Brüksel yetkilisinin uygulama hakkındaki ilk yorumlarında, önerilen yeni yapay zeka kurallarının ChatGPT sohbet botu ve AI teknolojisi etrafındaki risklerle ilgili endişeleri gidermeyi amaçlayacağını söyledi.

Taleplere yanıt olarak makaleler, denemeler, fıkralar ve hatta şiirler üretebilen ChatGPT, lansmanından sadece iki ay sonra tarihteki en hızlı büyüyen tüketici uygulaması olarak derecelendirildi.

Bazı uzmanlar, yapay zeka şampiyonları bunu teknolojik bir sıçrama olarak selamlasa da, bu tür uygulamalar tarafından kullanılan sistemlerin intihal, dolandırıcılık ve yanlış bilgi yaymak için kötüye kullanılabileceğinden endişe ediyor.

Breton, Microsoft tarafından desteklenen özel bir şirket olan OpenAI’nin beyni olan ChatGPT’nin ve yapay zeka sistemlerinin ortaya koyduğu risklerin, teknoloji için küresel standardı belirlemek amacıyla geçen yıl önerdiği kurallara yönelik acil ihtiyacın altını çizdiğini söyledi. Kurallar şu anda Brüksel’de görüşülüyor.

“ChatGPT tarafından gösterildiği gibi, AI çözümleri işletmeler ve vatandaşlar için harika fırsatlar sunabilir, ancak aynı zamanda riskler de oluşturabilir. Bu nedenle, yüksek kaliteli verilere dayalı güvenilir AI sağlamak için sağlam bir düzenleyici çerçeveye ihtiyacımız var.” .

Microsoft, Breton’un açıklaması hakkında yorum yapmaktan kaçındı. Uygulaması üretken AI adı verilen bir teknolojiyi kullanan OpenAI, yorum talebine hemen yanıt vermedi.

OpenAI, web sitesinde, güvenli ve faydalı yapay zeka oluşturmaya çalışırken “tüm insanlığa fayda sağlayan” yapay zeka üretmeyi hedeflediğini söyledi.

AB taslak kuralları kapsamında, ChatGPT, iş için adayların seçimi ve kredi puanlama gibi yüksek riskli olanlar da dahil olmak üzere birçok amaç için kullanılabilen genel amaçlı bir AI sistemi olarak kabul edilir.

Breton, OpenAI’nin önerilen AI Yasasına uymalarını sağlamak için yüksek riskli AI sistemlerinin alt geliştiricileriyle yakın işbirliği yapmasını istiyor.

ABD’li bir hukuk firmasının bir ortağı, “Üretken yapay zekanın tanıma yeni dahil edilmiş olması bile, teknolojinin gelişme hızını ve düzenleyicilerin bu hıza ayak uydurmak için mücadele ettiğini gösteriyor” dedi.

‘YÜKSEK RİSK’ ENDİŞELERİ

Yapay zeka geliştirmeye dahil olan birkaç şirketin yöneticilerine göre şirketler, teknolojilerini “yüksek riskli” AI kategorisi altında sınıflandırmaktan endişe duyuyorlar, bu da daha zorlu uyumluluk gerekliliklerine ve daha yüksek maliyetlere yol açacaktır.

Uygulamalı AI tarafından yapılan bir anket, yanıt verenlerin yüzde 51’inin AI Yasasının bir sonucu olarak AI geliştirme faaliyetlerinde bir yavaşlama beklediğini gösterdi.

Microsoft Başkanı Brad Smith Çarşamba günü bir blog yazısında, etkili AI düzenlemelerinin en yüksek riskli uygulamalara odaklanması gerektiğini yazdı.

“İnsanlığın AI’yı nasıl kullanacağı konusunda iyimser olduğum günler ve karamsar olduğum anlar var” dedi.

Breton, Avrupa Komisyonu’nun genel amaçlı AI sistemleri için AI Yasasındaki kuralları daha da açıklığa kavuşturmak için AB Konseyi ve Avrupa Parlamentosu ile yakın bir şekilde çalıştığını söyledi.

“İnsanların bir insanla değil, bir sohbet robotuyla uğraştıkları konusunda bilgilendirilmeleri gerekir. Önyargı ve yanlış bilgi riski açısından şeffaflık da önemlidir” dedi.

Üretken yapay zeka modellerinin, telif hakkı ihlali iddialarına yol açan uygun bir yanıt oluşturmak için büyük miktarda metin veya resim üzerinde eğitilmesi gerekir.

Breton, milletvekilleriyle AI kuralları hakkında yapılacak görüşmelerin bu yönleri kapsayacağını söyledi.

Öğrencilerin intihale ilişkin endişeleri, bazı ABD devlet okullarının ve Fransız üniversite Sciences Po’nun ChatGPT kullanımını yasaklamasına neden oldu.

© Thomson Reuters 2023


Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için etik beyanımıza bakın.


Popular Articles

Latest Articles