G­e­n­ç­l­e­r­e­ ­y­ö­n­e­l­i­k­ ­A­I­ ­d­e­e­p­f­a­k­e­ ­i­s­t­i­s­m­a­r­ı­y­l­a­ ­m­ü­c­a­d­e­l­e­

G­e­n­ç­l­e­r­e­ ­y­ö­n­e­l­i­k­ ­A­I­ ­d­e­e­p­f­a­k­e­ ­i­s­t­i­s­m­a­r­ı­y­l­a­ ­m­ü­c­a­d­e­l­e­

Orada çok var çekişme hakkında teknolojinin rolü çocukların hayatlarında, ama bazen tartışmasız kötü bir şeyle karşılaşıyoruz. durum böyle Yapay zeka “çıplaklaştırma” uygulamalarıGençlerin sınıf arkadaşlarının sahte çıplak fotoğraflarını oluşturmak ve paylaşmak için kullandıkları.

Washington eyaletindeki Issaquah Lisesi'nde erkekler, okula giden kızların fotoğraflarını “soymak” için bir uygulama kullandı geçen sonbaharın mezuniyet dansı, New York Times'a göre. Şu tarihte: New Jersey'deki Westfield Lisesi10. sınıf erkek çocukları, bazı kadın sınıf arkadaşlarının uydurma müstehcen resimlerini oluşturup bunları okulda paylaştı. Öğrenciler Kaliforniya'dan Illinois'ya Uzmanların bir tür “deepfake” çıplak fotoğrafları rızaları olmadan paylaşıldı. “İmaj temelli cinsel istismar.”

Artık savunucular (bazı gençler de dahil) derin sahte çıplak fotoğraflar oluşturmaya ve paylaşmaya ceza uygulayan yasaları destekliyor. Mevzuat geçti Washington, Güney Dakota ve Louisiana'da, Kaliforniya ve başka yerlerde de çalışmalar devam ediyor. Bu arada Temsilci Joseph Morelle (D-NY) yasa tasarısını yeniden sundu bu, görüntülerin paylaşılmasını federal bir suç haline getirir.

Deepfake imajı paylaşılan 15 yaşındaki Westfield öğrencisi Francesca Mani, erkek sınıf arkadaşlarının resimler üzerinden kızlarla dalga geçtiğini gördükten sonra yasa ve politika değişikliği için baskı yapmaya başladı. Vox'a annesi aracılığıyla gönderdiği bir e-postada “Çok sinirlendim ve artık yeter” dedi. “Ağlamayı bıraktım ve kendim için ayağa kalkmaya karar verdim.”

Destekçiler, yasaların öğrencileri güvende tutmak için gerekli olduğunu söylüyor. Ancak teknoloji ve cinsel istismar üzerine çalışan bazı uzmanlar, bunların muhtemelen yetersiz olacağını savunuyor çünkü ceza adaleti sistem oldu çok verimsiz diğer seks suçlarının kökünü kazımak için. Colorado Denver Üniversitesi'nde imaja dayalı cinsel istismar üzerine çalışan iletişim profesörü Amy Hasinoff, “Bu sadece sembolik bir jest olacakmış gibi geliyor” dedi.

O ve diğerleri, uygulamaların daha sıkı düzenlenmesini öneriyor, böylece insanların derin sahte çıplaklar oluşturmak için kullandıkları araçlara ilk etapta daha az erişilebiliyor. Hasinoff, “Bu uygulamaların bir tür izin doğrulaması olmadan var olması gerektiğine dair bir neden hayal etmekte zorlanıyorum” dedi.

Deepfake çıplaklar yeni bir tür cinsel istismardır

Lafta intikam pornosu Rıza olmadan paylaşılan çıplak fotoğraflar veya videolar yıllardır bir sorun olmuştur. Ancak deepfake teknolojisi sayesinde, Rutgers'ta kütüphane ve bilgi bilimi alanında yardımcı doçent olan Britt Paris, “herkes bu uygulamaya bir yüz yerleştirip herhangi birinin (arkadaşlarının, sınıf arkadaşlarının, iş arkadaşlarının, her kim olursa olsun) görüntüsünü tamamen kıyafetsiz olarak alabilir” dedi. deepfake'leri inceledi.

Kaç Amerikalı lise öğrencisinin derin sahte çıplak tacize maruz kaldığına dair kesin bir veri yok, ancak bir 2021 araştırması Birleşik Krallık, Yeni Zelanda ve Avustralya'da yapılan araştırmada, 16 ila 64 yaşları arasındaki katılımcıların yüzde 14'ünün deepfake görüntülerle mağdur edildiği ortaya çıktı.

İzinsiz paylaşılan çıplak görüntüler, gerçek olsun ya da olmasın travmatik olabilir. Mani, okulundaki deepfake olayını ilk öğrendiğinde, “Danışman ofisindeydim, duygusal ve ağlıyordum” dedi. “Kurbanlardan biri olduğuma inanamadım.”

Hasinoff, öğrencilerin cinsel görüntüleri okulda paylaşıldığında, özellikle kızları ve kadınları cinsel açıdan aktif oldukları veya öyle göründükleri için aşağılayan stereotipler sayesinde “utanma, suçlama ve damgalanma” yaşayabileceklerini söyledi. Görüntüler sahte olsa bile durum budur çünkü diğer öğrenciler farkı anlayamayabilir.

Üstelik sahte görseller insanları yaşamları boyunca takip ederek gerçek zararlara neden olabiliyor. Kâr amacı gütmeyen Data for Black Lives'ın kurucusu Yeshi Milner, bir e-postada Vox'a şunları söyledi: “Bu görüntüler, bu genç kadınları gelecekteki istihdam fırsatlarından men edilme riskiyle karşı karşıya bırakıyor ve ayrıca tanınmaları halinde onları fiziksel şiddete karşı savunmasız hale getiriyor.”

Deepfake kötüye kullanımını durdurmak yapay zekayla hesaplaşmayı gerektirebilir

Sorunla mücadele etmek için, en az dokuz eyalet Deepfake çıplak görüntüleri bir şekilde hedef alan yasalar çıkardı veya güncelledi ve pek çok kişi bunları değerlendiriyor. Örneğin Louisiana'da, reşit olmayanlara yönelik deepfake'ler oluşturan veya dağıtan herkes, beş yıl veya daha fazla hapis. Washington'un haziran ayında yürürlüğe girecek yeni yasası ilk suçu ele alıyor kabahat olarak.

Federal yasa tasarısı, ilk kez tanıtıldı 2023'te mağdurlara veya ebeveynlere verilecek failleri dava etme olanağı cezai yaptırımların yanı sıra zararlar için de. Henüz oylama yapılmadı Kongre ancak iki partiden de destek gördü.

Ancak bazı uzmanlar, yasaların bir değerler beyanı olarak potansiyel olarak faydalı olmasına rağmen, sorunu çözmek için fazla bir işe yaramayacağından endişe ediyor. Hasinoff, “Cinsel istismarı ele alabilecek bir hukuk sistemimiz yok” dedi. sadece küçük bir yüzde Cinsel şiddet uygulayan kişilerin çoğu suçlanıyor. “Bu görüntüye dayalı istismar olayının farklı olduğunu düşünmek için hiçbir neden yok.”

Bazı eyaletler sorunu şu şekilde çözmeye çalıştı: Çocukların cinsel istismarına ilişkin görsel ve videolara ilişkin mevcut yasaların güncellenmesi Deepfake'leri dahil etmek için. Bu, görüntüleri ortadan kaldırmasa da bazı boşlukları kapatacaktır. (Yakın zamanda New Jersey'de açılan bir davada, erkek bir lise öğrencisinin avukatları savundu Federal yasalar “bilgisayar tarafından oluşturulan sentetik görüntülere” uygulanacak şekilde tasarlanmadığı için bir sınıf arkadaşının derin sahte fotoğraflarını paylaşması engellenmemelidir.)

Bu arada bazı avukatlar ve hukuk uzmanları, deepfake kötüye kullanımını gerçekten durdurmanın yolunun, bunu mümkün kılan uygulamaları hedeflemek olduğunu söylüyor. Hasinoff, yasa koyucuların uygulama mağazalarını, açık rıza hükümleri olmadan çıplaklaştırma uygulamaları taşımalarını engelleyecek şekilde düzenleyebileceğini söyledi. Apple ve Google'ın var birkaç uygulamayı zaten kaldırdık App Store ve Google Play'den derin sahte çıplaklar sunan.

Ancak kullanıcıların rızası olmadan çıplak görüntüler oluşturmak için belirli bir uygulamaya ihtiyacı yoktur; birçok yapay zeka görüntü oluşturucular potansiyel olarak bu şekilde kullanılabilir. Paris, yasa koyucuların, kullanıcıların rızası olmadan çıplak görüntüler oluşturmasını zorlaştırmak için geliştiricilerin korkuluklar yerleştirmesini talep edebileceğini söyledi. Ancak bunun, geliştiricilerin ürünleri önce halka sunmasına ve sonuçlarını daha sonra anlamasına izin verilen yapay zekanın “kontrolsüz ahlakına” meydan okumayı gerektireceğini söyledi.

Paris, “Şirketler ürettikleri zarar türlerinden sorumlu tutulana kadar pek bir şeyin değiştiğini görmüyorum” dedi.

Bu hikaye ilk olarak şurada ortaya çıktı: Bugün AçıklandıVox'un amiral gemisi günlük bülteni. Gelecek basımlar için buradan kaydolun.

Kaynak bağlantısı

Popular Articles

Latest Articles