C­h­a­t­G­P­T­­n­i­n­ ­­h­a­l­ü­s­i­n­a­s­y­o­n­­ ­s­o­r­u­n­u­ ­A­B­­d­e­k­i­ ­b­a­ş­k­a­ ­b­i­r­ ­g­i­z­l­i­l­i­k­ ­ş­i­k­a­y­e­t­i­y­l­e­ ­k­a­r­ş­ı­l­a­ş­t­ı­

C­h­a­t­G­P­T­­n­i­n­ ­­h­a­l­ü­s­i­n­a­s­y­o­n­­ ­s­o­r­u­n­u­ ­A­B­­d­e­k­i­ ­b­a­ş­k­a­ ­b­i­r­ ­g­i­z­l­i­l­i­k­ ­ş­i­k­a­y­e­t­i­y­l­e­ ­k­a­r­ş­ı­l­a­ş­t­ı­

OpenAI, Avrupa Birliği'nde başka bir gizlilik şikayetiyle karşı karşıya. Bu, gizlilik hakları kar amacı gütmeyen kuruluş tarafından dosyalanmıştır noyb Bireysel şikayetçi adına, yapay zeka sohbet robotu ChatGPT'nin bireyler hakkında ürettiği yanlış bilgileri düzeltememesi hedefleniyor.

GenAI araçlarının açıkça yanlış olan bilgiler üretme eğilimi iyice belgelenmiştir. Ancak bu aynı zamanda teknolojiyi, bölgesel kullanıcıların kişisel verilerinin nasıl işlenebileceğini düzenleyen bloğun Genel Veri Koruma Yönetmeliği (GDPR) ile çatışma rotasına da sokuyor.

GDPR uyumluluğuna ilişkin başarısızlıklara ilişkin cezalar küresel yıllık cironun %4'üne kadar ulaşabilir. OpenAI gibi kaynak açısından zengin bir dev için daha da önemlisi: Veri koruma düzenleyicileri, bilgilerin işlenme şekline ilişkin değişiklikler yapılmasını emredebilir, böylece GDPR uygulaması, üretken AI araçlarının AB'de nasıl çalışabileceğini yeniden şekillendirebilir.

OpenAI, İtalya'nın veri koruma otoritesinin ChatGPT'yi kısa süreliğine yerel olarak kapatmaya zorlayan erken müdahalesinin ardından bazı değişiklikler yapmak zorunda kaldı. 2023'te.

Şimdi Noyb, AI chatbot'un kendisi için yanlış bir doğum tarihi ürettiğini tespit eden isimsiz bir şikayetçi adına ChatGPT'ye karşı en son GDPR şikayetini Avusturya veri koruma otoritesine sunuyor.

GDPR uyarınca, AB'deki kişilerin, hatalı verilerin düzeltilmesi hakkı da dahil olmak üzere, kendileri hakkındaki bilgilere bağlı bir takım hakları vardır. noyb, OpenAI'nin chatbot çıktısı açısından bu yükümlülüğe uymadığını iddia ediyor. Şirket, şikayetçinin yanlış doğum tarihini düzeltme talebini, düzeltmenin teknik olarak imkansız olduğu yanıtını vererek reddettiğini söyledi.

Bunun yerine, şikayetçinin adı gibi belirli istemlerdeki verileri filtrelemeyi veya engellemeyi teklif etti.

OpenAI'ler Gizlilik Politikası Yapay zeka sohbet robotunun “sizinle ilgili gerçekte yanlış bilgiler” ürettiğini fark eden kullanıcıların, aracılığıyla bir “düzeltme isteği” gönderebileceğini belirtiyor. gizlilik.openai.com veya e-posta göndererek [email protected]. Ancak şu uyarıda bulunuyor: “Modellerimizin çalışma şeklinin teknik karmaşıklığı göz önüne alındığında, yanlışlığı her durumda düzeltemeyebiliriz.”

Bu durumda OpenAI, kullanıcılara bir form doldurarak kişisel bilgilerinin ChatGPT çıktısından tamamen kaldırılmasını talep etmelerini önerir. internet formu.

Yapay zeka devinin sorunu, GDPR haklarının alakart olmamasıdır. Avrupa'daki insanların düzeltme talep etme hakkı vardır. Ayrıca verilerinin silinmesini talep etme hakları da vardır. Ancak Noyb'un da işaret ettiği gibi bu haklardan hangisinin mevcut olduğunu seçmek OpenAI'nin işi değil.

Şikayetin diğer unsurları GDPR şeffaflık kaygılarına odaklanıyor; noyb, OpenAI'nin bireyler hakkında ürettiği verilerin nereden geldiğini veya sohbet robotunun insanlar hakkında hangi verileri sakladığını söyleyemediğini iddia ediyor.

Bu önemlidir, çünkü yönetmelik yine bireylere konu erişim talebi (SAR) adı verilen bir talepte bulunarak bu tür bilgileri talep etme hakkı vermektedir. Ancak OpenAI, şikayetçinin SAR'ına yeterince yanıt vermedi ve işlenen veriler, bunların kaynakları veya alıcıları hakkında herhangi bir bilgi açıklamadı.

Noyb veri koruma avukatı Maartje de Graaf, yaptığı açıklamada şikayete ilişkin şunları söyledi: “Yanlış bilgi uydurmak başlı başına oldukça sorunlu. Ancak bireyler hakkında yanlış bilgi söz konusu olduğunda ciddi sonuçlar doğabiliyor. Şirketlerin şu anda bireyler hakkındaki verileri işlerken ChatGPT gibi sohbet robotlarını AB yasalarına uygun hale getiremedikleri açıktır. Bir sistem doğru ve şeffaf sonuçlar üretemiyorsa bireylere ilişkin veri üretmek için kullanılamaz. Teknolojinin yasal gereklilikleri takip etmesi gerekiyor, tersi değil.”

Şirket, Avusturya DPA'sından OpenAI'nin veri işlemesiyle ilgili şikayeti araştırmasını istediğini ve gelecekte uyumluluğu sağlamak için para cezası vermesi yönünde çağrıda bulunduğunu söyledi. Ancak davanın AB işbirliği yoluyla çözüleceğinin “muhtemelen” olduğunu da sözlerine ekledi.

OpenAI Polonya'da da çok benzer bir şikayetle karşı karşıya. Son Eylül, yerel veri koruma yetkilisi, ChatGPT hakkında bir soruşturma başlattı. şikayet Kendisiyle ilgili yanlış bilgilerin OpenAI tarafından düzeltilmesinin mümkün olmadığını tespit eden bir gizlilik ve güvenlik araştırmacısı tarafından. Bu şikayet aynı zamanda AI devini düzenlemenin şeffaflık gerekliliklerine uymamakla da suçluyor.

Bu arada İtalyan veri koruma otoritesinin ChatGPT'ye yönelik açık bir soruşturması devam ediyor. İçinde Ocak OpenAI'nin, sohbet robotunun insanlar hakkında yanlış bilgi üretme eğilimi de dahil olmak üzere çeşitli şekillerde GDPR'yi ihlal ettiğine inandığını belirten bir karar taslağı hazırladı. Bulgular aynı zamanda işlemenin yasallığı gibi diğer önemli konularla da ilgilidir.

İtalyan otorite OpenAI'ye bulgularına yanıt vermesi için bir ay süre verdi. Nihai karar henüz beklemede.

Şimdi, chatbot'una başka bir GDPR şikayetinin yöneltilmesiyle, OpenAI'nin farklı Üye Devletlerde bir dizi GDPR yaptırımıyla karşı karşıya kalma riski arttı.

Geçen sonbaharda Şirket, Dublin'de bir bölge ofisi açtı; GDPR'de huni yoluyla sınır ötesi şikayetlerin gözetimini kolaylaştırmayı amaçlayan bir mekanizma sayesinde gizlilik şikayetlerini İrlanda'nın Veri Koruma Komisyonu'na ileterek düzenleme riskini azaltmayı amaçlayan bir hamle olarak görünüyor bunları şirketin “ana kurulu” olduğu tek bir üye devlet otoritesine iletir.

Kaynak bağlantısı

Popular Articles

Latest Articles