Y­a­p­a­y­ ­Z­e­k­a­ ­A­r­a­ç­l­a­r­ı­ ­G­i­z­l­i­c­e­ ­Ç­o­c­u­k­l­a­r­ı­n­ ­G­e­r­ç­e­k­ ­G­ö­r­ü­n­t­ü­l­e­r­i­ ­Ü­z­e­r­i­n­d­e­ ­E­ğ­i­t­i­m­ ­V­e­r­i­y­o­r­

Y­a­p­a­y­ ­Z­e­k­a­ ­A­r­a­ç­l­a­r­ı­ ­G­i­z­l­i­c­e­ ­Ç­o­c­u­k­l­a­r­ı­n­ ­G­e­r­ç­e­k­ ­G­ö­r­ü­n­t­ü­l­e­r­i­ ­Ü­z­e­r­i­n­d­e­ ­E­ğ­i­t­i­m­ ­V­e­r­i­y­o­r­

Brezilya'daki çocuklara ait 170'in üzerinde resim ve kişisel ayrıntı, onların bilgisi veya rızası olmadan açık kaynaklı bir veri kümesi tarafından kazındı ve Yapay zekayı eğitmek için kullanıldıiddia ediyor yeni rapor İnsan Hakları İzleme Örgütü'nün pazartesi günü yayınladığı rapor.

Rapora göre görüntüler, 2023 gibi yakın bir tarihte ve 1990'ların ortalarında yayınlanan içerikten, herhangi bir internet kullanıcısının içeriğinin yapay zekayı eğitmek için kullanılabileceğini tahmin etmesinden çok önce alınmış. İnsan Hakları İzleme Örgütü, bu çocukların kişisel bilgilerinin, fotoğraflarına olan bağlantıların yanı sıra, yapay zeka girişimleri için popüler bir eğitim verisi kaynağı olan LAION-5B veri kümesine dahil edildiğini iddia ediyor.

“Fotoğrafları kazınıp bu veri kümelerine sürüklendiğinde ilk etapta gizlilikleri ihlal ediliyor. Daha sonra bu yapay zeka araçları bu veriler üzerinde eğitiliyor ve bu nedenle çocukların gerçekçi görüntülerini oluşturabiliyor” diyor İnsan Hakları İzleme Örgütü'nde çocuk hakları ve teknoloji araştırmacısı ve bu görüntüleri bulan araştırmacı Hye Jung Han. “Teknoloji öyle bir şekilde geliştirildi ki, çevrimiçi ortamda kendisine ait herhangi bir fotoğraf veya videoya sahip olan herhangi bir çocuk, artık risk altındadır çünkü herhangi bir kötü niyetli kişi bu fotoğrafı çekebilir ve daha sonra bu araçları, onları istediği gibi manipüle etmek için kullanabilir.”

LAION-5B, web'in taranmasıyla oluşturulan ve araştırmacıların kullanımına sunulan bir veri deposu olan Common Crawl'ı temel alır ve Stability AI'nin Stable Diffusion görüntü oluşturma aracı da dahil olmak üzere çeşitli AI modellerini eğitmek için kullanılmıştır. Alman kar amacı gütmeyen kuruluş LAION tarafından oluşturulan veri kümesine açıkça erişilebiliyor ve web sitesine göre şu anda 5,85 milyar çiftten fazla resim ve başlık içeriyor.

Araştırmacıların bulduğu çocuk görselleri, anne bloglarından ve diğer kişisel, annelik veya ebeveynlik bloglarının yanı sıra, aile ve arkadaşlarla paylaşılmak üzere yüklenmiş gibi görünen, izlenme sayısı az olan YouTube videolarından alınan fotoğraflardı.

Hye, “Yalnızca yayınlandıkları yerin bağlamına bakıldığında, bir beklentinin ve bir ölçüde mahremiyetin tadını çıkardılar” diyor. “Bu görsellerin çoğunu, tersten görsel arama yoluyla çevrimiçi olarak bulmak mümkün değildi.”

LAION sözcüsü Nate Tyler, örgütün zaten harekete geçtiğini söyledi. “LAION-5B, veri kümesinde halka açık webdeki yasa dışı içeriğe işaret eden bağlantılar bulan Stanford raporuna yanıt olarak kaldırıldı” diyor ve kuruluşun şu anda “Internet Watch Foundation, Kanada Çocuk Merkezi” ile birlikte çalıştığını ekliyor. Koruma, Stanford ve İnsan Hakları İzleme Örgütü yasa dışı içeriğe ilişkin bilinen tüm referansları kaldıracak.”

YouTube'un kullanım Şartları belirli koşullar dışında kazımaya izin vermeyin; bu örnekler bu politikalara aykırı görünüyor. YouTube sözcüsü Jack Maon, “YouTube içeriğinin izinsiz olarak alınmasının Hizmet Şartlarımızı ihlal ettiğini açıkça belirttik ve bu tür kötüye kullanımlara karşı harekete geçmeye devam ediyoruz.”

Aralıkta, Stanford Üniversitesi'ndeki araştırmacılar buldu LAION-5B tarafından toplanan AI eğitim verilerinin çocukların cinsel istismarı materyali içerdiği. Açık deepfake sorunu, kullanıldıkları ABD okullarındaki öğrenciler arasında bile artıyor sınıf arkadaşlarına, özellikle de kızlara zorbalık yapmak. Hye, CSAM oluşturmak için çocuk fotoğraflarını kullanmanın ötesinde, veritabanının konumlar veya tıbbi veriler gibi potansiyel olarak hassas bilgileri açığa çıkarabileceğinden endişe ediyor. 2022'de ABD'de yaşayan bir sanatçı LAION veri setinde kendi resmini bulduve bunun onun özel tıbbi kayıtlarından olduğunu fark etti.

Kaynak bağlantısı

Popular Articles

Latest Articles