A­r­a­ş­t­ı­r­m­a­y­a­ ­g­ö­r­e­ ­y­a­p­a­y­ ­z­e­k­a­ ­g­ö­r­ü­n­t­ü­ ­o­l­u­ş­t­u­r­u­c­u­l­a­r­ı­ ­ç­o­c­u­k­ ­i­s­t­i­s­m­a­r­ı­ ­v­e­ ­d­i­ğ­e­r­ ­p­e­d­o­f­i­l­ ­i­ç­e­r­i­k­l­i­ ­i­ç­e­r­i­k­l­e­r­ ­k­o­n­u­s­u­n­d­a­ ­e­ğ­i­t­i­l­i­y­o­r­

A­r­a­ş­t­ı­r­m­a­y­a­ ­g­ö­r­e­ ­y­a­p­a­y­ ­z­e­k­a­ ­g­ö­r­ü­n­t­ü­ ­o­l­u­ş­t­u­r­u­c­u­l­a­r­ı­ ­ç­o­c­u­k­ ­i­s­t­i­s­m­a­r­ı­ ­v­e­ ­d­i­ğ­e­r­ ­p­e­d­o­f­i­l­ ­i­ç­e­r­i­k­l­i­ ­i­ç­e­r­i­k­l­e­r­ ­k­o­n­u­s­u­n­d­a­ ­e­ğ­i­t­i­l­i­y­o­r­


İstismar karşıtı araştırmacılar, yapay zeka görüntü oluşturucularının internetin derinliklerinde bulunan çocuk istismarı materyallerinden etkilendiğini varsaymıştı. Ancak yakın zamanda yapılan bir araştırma, bu jeneratörleri eğitmek için kullanılan veri kümelerinin bu tür içeriklerle yüklü olduğunu ortaya çıkardı.

Yakın zamanda yapılan bir araştırmada, yaygın olarak kullanılan yapay zeka görüntü oluşturucularının rahatsız edici bir kusuru gizlediği ortaya çıktı: çocukların cinsel istismarını tasvir eden binlerce görüntü.

Rahatsız edici bulgular, Stanford İnternet Gözlemevi tarafından yayınlanan ve şirketleri bu endişe verici sorunu geliştirdikleri teknolojiyle ele almaya ve düzeltmeye çağıran bir rapordan geliyor.

Rapor, çocuk istismarı görüntüleri ile desteklenen bu yapay zeka sistemlerinin, yalnızca sahte çocukların yer aldığı müstehcen içerik üretmekle kalmayıp, aynı zamanda tamamen giyinik gençlerin fotoğraflarını uygunsuz bir şeye dönüştürebildiğini de ortaya koyuyor.

İlgili Makaleler

Papa

Papa Francis etik kullanım için küresel yapay zeka anlaşması çağrısında bulundu

Papa

Her Yerde Yapay Zeka: Intel, yeni Core Ultra İşlemcileriyle yapay zeka özellikli bilgisayarları herkesin erişimine sunmayı planlıyor

Şimdiye kadar istismar karşıtı araştırmacılar, istismar edici görüntüler üreten yapay zeka araçlarının, yetişkin pornografisinden gelen bilgileri ve çocukların zararsız görüntülerini internetteki diğer yerlerden toplayarak birleştirdiğini varsayıyordu. Ancak Stanford İnternet Gözlemevi, LAION AI veri tabanında çocuklara yönelik cinsel istismar şüphesine ilişkin 3.200’den fazla resim keşfetti.

Çevrimiçi görsellerden ve altyazılardan oluşan devasa bir dizin olan LAION, Stable Diffusion gibi önde gelen yapay zeka görüntü oluşturma modellerini eğitmek için kullanılıyor.

Rapora yanıt olarak LAION, veri kümelerini geçici olarak kaldırdı. Kuruluş, yasa dışı içeriğe karşı sıfır tolerans politikasının altını çiziyor ve kaldırma işleminin, veri kümelerini yeniden yayınlamadan önce güvenliğini sağlamaya yönelik bir ihtiyati tedbir olduğunu belirtiyor.

Her ne kadar bu sorunlu görüntüler LAION’un 5,8 milyar görüntüden oluşan geniş indeksinin bir kısmını oluştursa da Stanford grubu bunların yapay zeka araçlarının zararlı çıktılar üretme yeteneğini muhtemelen etkilediğini savunuyor.

Ayrıca rapor, bu görüntülerin varlığının, birden çok kez ortaya çıkabilecek gerçek mağdurlara yönelik daha önceki istismarları güçlendirdiğini öne sürüyor.

Rapor, bu sorunun çözümündeki zorlukların altını çiziyor ve bunu, alandaki yoğun rekabet nedeniyle birçok üretken yapay zeka projesinin hızla geliştirilmesine ve yaygın erişilebilirliğine bağlıyor.

Stanford İnternet Gözlemevi, yasadışı içeriğin yapay zeka eğitim veri kümelerine yanlışlıkla dahil edilmesini önlemek için daha sıkı dikkat gösterilmesi çağrısında bulunuyor.

Tanınmış bir LAION kullanıcısı olan Stability AI, sorunu kabul ediyor ve kötüye kullanım riskini azaltmak için proaktif adımlar attığını ileri sürüyor. Bununla birlikte, açık görüntü oluşturmak için en popüler model olarak tanımlanan Stabil Difüzyonun daha eski bir sürümü dolaşımda kalmaya devam ediyor.

Stanford raporu, LAION’dan türetilen eğitim setlerinin kaldırılması ve müstehcen içerikle ilişkili eski AI modellerinin sürümlerinin ortadan kaldırılması da dahil olmak üzere sert önlemler alınmasını talep ediyor. Ayrıca CivitAI ve Hugging Face gibi platformlara, kötü amaçlı görüntülerin üretilmesini ve dağıtılmasını önlemek için daha iyi koruma önlemleri ve raporlama mekanizmaları uygulamaya çağrıda bulunuyor.

Bulgulara yanıt olarak teknoloji şirketlerine ve çocuk güvenliği gruplarına, video ve görsellerdeki çocuk istismarı materyallerini takip etmek ve kaldırmak için kullanılanlara benzer önlemler almaları yönünde çağrıda bulunuluyor. Rapor, kötüye kullanım örneklerini izlemek ve kaldırmak için yapay zeka modellerine benzersiz dijital imzalar veya “hash’ler” atanmasını öneriyor.

Suiistimalciler arasında yapay zeka tarafından oluşturulan görsellerin yaygınlığı şu anda küçük olsa da Stanford raporu, geliştiricilerin veri kümelerinin kötü amaçlı materyallerden arınmış olmasını sağlamaları gerektiğini ve yapay zeka modelleri dolaşırken zararlı kullanımları azaltmaya yönelik devam eden çabaları vurguluyor.

(Kurumlardan gelen girdilerle)


Popular Articles

Latest Articles