A­I­ ­i­f­t­i­r­a­ ­i­ş­l­e­y­e­b­i­l­i­r­ ­m­i­?­ ­ ­ö­ğ­r­e­n­m­e­k­ ­ü­z­e­r­e­y­i­z­

A­I­ ­i­f­t­i­r­a­ ­i­ş­l­e­y­e­b­i­l­i­r­ ­m­i­?­ ­ ­ö­ğ­r­e­n­m­e­k­ ­ü­z­e­r­e­y­i­z­


Yapay zekanın haber makaleleri ve olaylar icat etme eğilimi iftira yasalarına karşı geldiğinden, teknoloji dünyasının en yeni oyuncağı kendisini yasal sıcak suda bulabilir. ChatGPT gibi bir yapay zeka modeli iftira bile atabilir mi? Teknolojiyi çevreleyen pek çok şey gibi, bu da bilinmiyor ve eşi benzeri yok – ancak yaklaşan yasal zorluklar bunu değiştirebilir.

Hakaret, genel olarak birisi hakkında zarar verici ve doğru olmayan ifadeler yayınlamak veya söylemek olarak tanımlanır. Bu, aynı zamanda yetki alanları arasında büyük ölçüde farklılık gösteren karmaşık ve nüanslı bir yasal bölgedir: ABD’deki bir iftira davası, bugünün dramasının mekanı olan Birleşik Krallık’taki veya Avustralya’dakinden çok farklıdır.

Generative AI, örneğin telif hakkıyla korunan materyal kullanımının adil kullanım veya ihlal anlamına gelip gelmediği gibi çok sayıda yanıtlanmamış yasal soru üretmiştir. Ancak bir yıl öncesine kadar, ne görüntü ne de metin üreten AI modelleri, gerçeklikle karıştıracağınız bir şey üretecek kadar iyi değildi, bu nedenle yanlış temsillerle ilgili sorular tamamen akademikti.

Şimdi o kadar değil: ChatGPT ve Bing Chat’in arkasındaki büyük dil modeli, muazzam ölçekte faaliyet gösteren bir saçmalık sanatçısı ve arama motorları gibi ana akım ürünlerle (ve giderek diğer her şeyle) entegrasyonu, muhtemelen sistemi kusurlu deneyden toplu hale getiriyor. yayın platformu.

Peki araç/platform, bir devlet görevlisinin görevi kötüye kullanmakla suçlandığını veya bir üniversite profesörünün cinsel tacizle suçlandığını yazdığında ne olur?

Bir yıl önce, geniş entegrasyonlar olmadan ve oldukça inandırıcı olmayan bir dille, çok az kişi bu tür yanlış ifadelerin ciddiye alınabileceğini söylerdi. Ancak bugün bu modeller, cevaplar halüsinasyonlu olsa veya yanlış bir şekilde var olmayan makalelere atfedilse bile, geniş çapta erişilebilir tüketici platformlarında soruları kendinden emin ve ikna edici bir şekilde yanıtlıyor. Yalan beyanları gerçek maddelere, doğru beyanları uydurma mallara mal ederler veya uydururlar.

Bu modellerin çalışma şeklinin doğası gereği, bir şeyin doğru olup olmadığını bilmezler ya da umursamazlar, yalnızca doğru göründüğünü bilirler. Ödevini yapmak için kullandığında bu bir problem tabii, ama seni işlemediğin bir suçla itham ettiğinde, bu noktada pekala iftira olabilir.

Bu, Avustralya’daki Hepburn Shire belediye başkanı Brian Hood tarafından, ChatGPT’nin kendisini 20 yıl önceki bir rüşvet skandalından hüküm giymiş olarak adlandırdığı kendisine bildirildiğinde ortaya atılan iddiadır. Skandal gerçekti ve Hood işin içindeydi. Ama bu konuda yetkililere başvuran ve hiçbir zaman bir suçla itham edilmeyen oydu. Reuters’in avukatlarının söylediği gibi.

Şimdi, bu ifadenin yanlış olduğu ve şüphesiz Hood’un itibarına zarar verdiği açıktır. Ama açıklamayı kim yaptı? Yazılımı geliştiren OpenAI mi? Onu lisanslayan ve Bing altında dağıtan Microsoft mu? Otomatik bir sistem gibi davranan yazılımın kendisi mi? Eğer öyleyse, o sistemin beyanı oluşturmasını istemekten kim sorumludur? Böyle bir ortamda böyle bir açıklama yapmak, onu “yayınlamak” anlamına mı geliyor yoksa bu daha çok iki kişi arasındaki bir sohbete mi benziyor? Bu durumda iftira sayılır mı? OpenAI veya ChatGPT bu bilginin yanlış olduğunu “biliyor muydu” ve böyle bir durumda ihmali nasıl tanımlarız? Bir AI modeli kötülük sergileyebilir mi? Kanuna mı, davaya mı, hakime mi bağlı?

Bunların hepsi ucu açık sorular çünkü ilgilendikleri teknoloji, bırakın hakareti yasal olarak tanımlayan yasalar ve içtihatlar kurulduğunda, bir yıl önce bile yoktu. Yanlış bir şey söylediği için bir chatbot’u dava etmek bir düzeyde aptalca görünse de, chatbot’lar eskisi gibi değil. Dünyanın en büyük şirketlerinden bazılarının onları arama motorlarının yerini alan yeni nesil bilgi alma olarak önermesiyle, bunlar artık oyuncak değil, milyonlarca insan tarafından düzenli olarak kullanılan araçlardır.

Hood, OpenAI’ye bu konuda bir şeyler yapmasını isteyen bir mektup gönderdi – ne yapabileceği veya Avustralya veya ABD yasalarına göre buna mecbur olup olmadığı veya başka bir şey olup olmadığı gerçekten net değil. Ancak yakın tarihli başka bir vakada, bir hukuk profesörü kendisini cinsel tacizle suçlanırken buldu hayali bir Washington Post makalesine atıfta bulunan bir sohbet robotu tarafından. Ve bu tür yanlış ve potansiyel olarak zarar verici ifadelerin düşündüğümüzden daha yaygın olması muhtemeldir – şimdilerde ciddileşiyorlar ve olaya karışan kişilere rapor edilmesini gerektirecek kadar yeterliler.

Bu, bu yasal dramın yalnızca başlangıcı ve avukatların ve yapay zeka uzmanlarının bile bunun nasıl sonuçlanacağına dair hiçbir fikri yok. Ancak OpenAI ve Microsoft gibi şirketler (diğer tüm büyük teknoloji şirketlerinden ve birkaç yüz yeni şirketten bahsetmiyorum bile), sistemlerinin bilgi kaynağı olarak ciddiye alınmasını beklerlerse, bu iddiaların sonuçlarından kaçınamazlar. Başlangıç ​​noktası olarak tarifler ve seyahat planlaması önerebilirler, ancak insanlar şirketlerin bu platformların bir hakikat kaynağı olduğunu söylediklerini anlıyor.

Bu rahatsız edici açıklamalar gerçek bir davaya dönüşecek mi? Sektör bir kez daha değişmeden bu davalar çözülecek mi? Ve tüm bunlar, davaların takip edildiği yargı bölgelerinde mevzuatla tartışılacak mı? Teknoloji ve hukuk uzmanları sektördeki en hızlı hareket eden hedefi ele almaya çalışırken, ilginç bir kaç ay (veya daha büyük olasılıkla yıllar) olacak.


Popular Articles

Latest Articles