H­e­r­k­e­s­ ­i­ç­i­n­ ­D­e­e­p­f­a­k­e­s­:­ ­S­a­n­s­ü­r­s­ü­z­ ­A­I­ ­s­a­n­a­t­ ­m­o­d­e­l­i­ ­e­t­i­k­ ­s­o­r­u­l­a­r­ı­ ­s­o­r­u­y­o­r­

H­e­r­k­e­s­ ­i­ç­i­n­ ­D­e­e­p­f­a­k­e­s­:­ ­S­a­n­s­ü­r­s­ü­z­ ­A­I­ ­s­a­n­a­t­ ­m­o­d­e­l­i­ ­e­t­i­k­ ­s­o­r­u­l­a­r­ı­ ­s­o­r­u­y­o­r­


A yeni açık kaynaklı AI görüntü oluşturucu Herhangi bir metin isteminden gerçekçi resimler üretebilen, ilk haftasında şaşırtıcı derecede hızlı bir şekilde alındı. Stabilite AI’nın Kararlı Yayılımı, yüksek doğruluklu ancak kullanıma hazır tüketici donanımlarında çalıştırılabilen, artık Artbreeder, Pixelz.ai ve daha fazlası gibi sanat oluşturucu hizmetleri tarafından kullanılıyor. Ancak modelin filtrelenmemiş doğası, tüm kullanımın tamamen panonun üzerinde olmadığı anlamına gelir.

Çoğunlukla, kullanım durumları tahtanın üstünde olmuştur. Örneğin, NovelAI, platformunda kullanıcılar tarafından oluşturulan AI tarafından oluşturulan hikayelere eşlik edebilecek sanat üretmek için Stable Difüzyon ile deneyler yapıyor. Midjourney, daha fazla fotogerçekçilik için Kararlı Yayılım’a dokunan bir beta başlattı.

Ancak Kararlı Yayılma, daha az lezzetli amaçlar için de kullanılmıştır. Modelin erken sızdırıldığı kötü şöhretli tartışma panosu 4chan’da, yapay zeka tarafından oluşturulan çıplak ünlülerin sanatına ve üretilen diğer pornografi biçimlerine birkaç başlık ayrılmıştır.

Stability AI CEO’su Emad Mostaque, modelin 4chan’da sızdırılmasını “talihsiz” olarak nitelendirdi ve şirketin güvenlik ve sorumlu sürümle ilgili diğer mekanizmalar üzerinde “önde gelen etikçiler ve teknolojiler” ile çalıştığını vurguladı. Bu mekanizmalardan biri, saldırgan veya istenmeyen görüntüleri tespit etmeye ve engellemeye çalışan genel Stabil Diffusion yazılım paketinde bulunan ayarlanabilir bir AI aracı olan Safety Classifier’dır.

Ancak Güvenlik Sınıflandırıcısı (varsayılan olarak açıkken) devre dışı bırakılabilir.

Kararlı Yayılma çok yeni bir bölge. OpenAI’nin DALL-E 2’si gibi diğer AI sanat üreten sistemler, pornografik materyal için katı filtreler uygulamıştır. ( lisans açık kaynak için Stabil Difüzyon, reşit olmayanları sömürmek gibi belirli uygulamaları yasaklar, ancak modelin kendisi teknik düzeyde zincire vurulmaz.) Ayrıca, Stable Difusion’ın aksine, birçoğunun halk figürleri sanatı yaratma yeteneği yoktur. Bu iki yetenek bir araya getirildiğinde riskli olabilir ve kötü aktörlerin – en kötü durum senaryosu – istismarı sürdürebilecek veya birisini işlemediği bir suça bulaştırabilecek pornografik “deepfake”ler oluşturmasına izin verebilir.

Stable Diffusion tarafından yaratılan ve 4chan’da yayınlanan Emma Watson’ın derin sahtekarlığı.

Kadınlar, ne yazık ki, açık ara bu durumun kurbanı olma olasılıkları daha yüksek. 2019 yılında yapılan bir araştırma rıza dışı olan derin sahtekarlıkların %90 ila %95’inin yaklaşık %90’ının kadınlara ait olduğunu ortaya çıkardı. Berkeley’deki California Üniversitesi’nde yapay zeka etiği uzmanı olan Ravit Dotan’a göre bu, bu yapay zeka sistemlerinin geleceği için kötü bir işaret.

Dotan, TechCrunch’a e-posta yoluyla “Yasadışı içeriğin sentetik görüntülerinin diğer etkileri konusunda endişeleniyorum – tasvir edilen yasa dışı davranışları daha da kötüleştirecek” dedi. “Örneğin, sentetik çocuk [exploitation] otantik çocuğun yaratılmasını artırmak [exploitation]? Pedofillerin saldırılarının sayısını artıracak mı?”

Montreal AI Etik Enstitüsü baş araştırmacısı Abhishek Gupta bu görüşü paylaşıyor. “Dağıtım sonrası kullanım ve izlemeyi içeren AI sisteminin yaşam döngüsü hakkında gerçekten düşünmemiz ve en kötü senaryolarda bile zararları en aza indirebilecek kontrolleri nasıl öngörebileceğimizi düşünmemiz gerekiyor” dedi. “Bu, özellikle güçlü bir yetenek [like Stable Diffusion] örneğin kurbanın suretinde sakıncalı içerik oluşturarak, böyle bir sistemin kendilerine karşı kullanılabileceği kişiler için gerçek travmaya neden olabilecek vahşi doğaya girer.”

bir şey Ön izleme Geçen yıl, bir babanın, bir hemşirenin tavsiyesi üzerine, küçük çocuğunun şişmiş genital bölgesinin fotoğraflarını çekip hemşirenin iPhone’una mesaj atması üzerine oynandı. Fotoğraf otomatik olarak Google Fotoğraflar’a yedeklendi ve şirketin AI filtreleri tarafından çocuklara yönelik cinsel istismar materyali olarak işaretlendi, bu da adamın hesabının devre dışı bırakılmasına ve San Francisco Polis Departmanı tarafından soruşturma açılmasına neden oldu.

Dotan gibi uzmanlar, meşru bir fotoğrafın böyle bir algılama sistemini tetikleyebileceğini söylüyor, Kararlı Yayılma gibi bir sistem tarafından oluşturulan derin sahtekarlıkların – ve büyük ölçekte – tetiklememesi için hiçbir neden yok.

Dotan, “İnsanların yarattığı yapay zeka sistemleri, en iyi niyetlere sahip olsalar bile, tahmin etmedikleri ve önleyemeyecekleri zararlı şekillerde kullanılabilir” dedi. “Geliştiricilerin ve araştırmacıların genellikle bu noktayı yeterince takdir etmediğini düşünüyorum.”

Tabii ki, derin sahtekarlık oluşturma teknolojisi, yapay zeka destekli veya başka bir şekilde bir süredir var. 2020 bildiri deepfake tespit şirketi Sensity, kadın ünlüleri içeren yüzlerce müstehcen derin sahte videonun her ay dünyanın en büyük pornografi web sitelerine yüklendiğini tespit etti; Rapor, çevrimiçi olarak toplam deepfake sayısının yaklaşık 49.000 olduğunu ve bunların %95’inden fazlasının porno olduğunu tahmin ediyor. Emma Watson, Natalie Portman, Billie Eilish ve Taylor Swift gibi aktrisler, AI destekli yüz değiştirme araçlarının birkaç yıl önce ana akıma girmesinden bu yana derin sahtekarların hedefi oldular ve Kristen Bell de dahil olmak üzere bazıları, gördükleri şeye karşı konuştular. cinsel sömürü.

Ancak Stable Diffusion, kullanıcının minimum çalışmasıyla inanılmaz derecede – mükemmel olmasa da – inandırıcı sahte görüntüler oluşturabilen yeni nesil sistemleri temsil eder. Kurulumu da kolaydır, birkaç kurulum dosyasından fazlasını gerektirmez ve yüksek uçta birkaç yüz dolara mal olan bir grafik kartı gerektirir. Sistemin M1 MacBook’ta çalışabilen daha da verimli sürümleri üzerinde çalışmalar devam ediyor.

Bir Kylie Kardashian derin sahtekarlığı 4chan’a gönderildi.

Sebastian Berns, bir Ph.D. Londra Queen Mary Üniversitesi’ndeki AI grubundaki araştırmacı, otomasyonun ve özelleştirilmiş görüntü oluşturmayı büyütme olasılığının, Kararlı Yayılım gibi sistemlerle arasındaki büyük farklar ve ana sorunlar olduğunu düşünüyor. “Zararlı görüntülerin çoğu zaten geleneksel yöntemlerle üretilebilir, ancak manueldir ve çok çaba gerektirir” dedi. “Fotogerçekçiye yakın görüntüler üretebilen bir model, bireylere yönelik kişiselleştirilmiş şantaj saldırılarına yol açabilir.”

Berns, sosyal medyadan kazınmış kişisel fotoğrafların, Kararlı Yayılımı veya bu tür herhangi bir modeli, hedeflenen pornografik görüntüler veya yasa dışı eylemleri tasvir eden görüntüler oluşturmak için koşullandırmak için kullanılabileceğinden korkuyor. Kesinlikle emsal var. Hintli araştırmacı gazeteci Rana Ayyub, 2018’de sekiz yaşındaki Keşmirli bir kızın tecavüzüne ilişkin haber yaptıktan sonra oldu Bazıları yüzünü başka birinin vücudundayken derin sahte porno yaratan Hintli milliyetçi trollerin hedefi. Deepfake milliyetçi siyasi parti BJP’nin lideri tarafından paylaşıldı ve bunun sonucunda Eyyub’un gördüğü taciz o kadar kötüleşti ki Birleşmiş Milletler müdahale etmek zorunda kaldı.

Berns, “Stable Diffusion, bireylere ödeme yapmak veya sahte ancak potansiyel olarak zarar verici görüntülerin yayınlanması riskini almak için otomatik tehditler göndermek için yeterli özelleştirme sunuyor,” diye devam etti. “Web kameralarına uzaktan erişildikten sonra insanların gasp edildiğini zaten görüyoruz. Bu sızma adımı artık gerekli olmayabilir.”

İstikrarlı Yayılma vahşi doğada ve zaten pornografi oluşturmak için kullanılıyor – bazıları rıza dışı – görüntü ana bilgisayarlarının harekete geçmesi zorunlu hale gelebilir. TechCrunch, yetişkinlere yönelik en büyük içerik platformlarından biri olan OnlyFans’a ulaştı, ancak yayın zamanı itibariyle geri dönmedi. Patreon’un yetişkinlere uygun içeriğe de izin veren bir sözcüsü, şirketin derin sahtekarlıklara karşı bir politikası olduğunu ve “ünlülerin benzerlerini yeniden kullanan ve yetişkinlere uygun olmayan içeriği yetişkinlere uygun bir içeriğe yerleştiren” görüntülere izin vermediğini belirtti.

Bununla birlikte, tarih herhangi bir gösterge ise, icra büyük olasılıkla eşit olmayacak – kısmen, çok az yasa özellikle pornografiyle ilgili olarak derin sahtekarlığa karşı koruma sağladığından. Ve yasal işlem tehdidi, sakıncalı AI tarafından oluşturulan içeriğe adanmış bazı siteleri altına çekse bile, yenilerinin ortaya çıkmasını engelleyecek hiçbir şey yoktur.

Başka bir deyişle, Gupta diyor ki, bu cesur yeni bir dünya.

“Yaratıcı ve kötü niyetli kullanıcılar yetenekleri kötüye kullanabilir [of Stable Diffusion] Gupta, “tüm modeli eğitmekten daha ucuz olan – çıkarım yapmak için minimum kaynakları kullanarak, ölçekte öznel olarak sakıncalı içerik oluşturmak ve ardından trafiği yönlendirmek ve dikkati kesmek için Reddit ve 4chan gibi mekanlarda yayınlamak” dedi. “Bu tür yetenekler, API hız limitleri, sistemden döndürülen çıktı türleri üzerindeki güvenlik kontrolleri gibi kontrollerin artık geçerli olmadığı “vahşi doğaya” kaçtığında tehlikede olan çok şey var.”



genel-24

Popular Articles

Latest Articles