D­e­e­p­f­a­k­e­ ­i­l­e­ ­s­a­h­t­e­ ­a­n­ı­l­a­r­ ­o­l­u­ş­t­u­r­u­l­a­b­i­l­i­y­o­r­

D­e­e­p­f­a­k­e­ ­i­l­e­ ­s­a­h­t­e­ ­a­n­ı­l­a­r­ ­o­l­u­ş­t­u­r­u­l­a­b­i­l­i­y­o­r­

Yeni araştırmaya göre deepfake ile sahte anılar oluşturulabiliyor. Denekler, bu anıların gerçek olduğunu düşünüyor.

PLOS One dergisinde yayınlanan yakın tarihli bir araştırmaya göre bilim insanları, insanlara aslında hiç var olmamış film yeniden yapımlarının derin sahte kliplerini göstererek sahte anıların aşılanabileceğini keşfetti.

Çalışmada, katılımcılara kurgusal film yeniden yapımlarının derin sahte klipleri gösterildi ve o kadar gerçekçiydi ki, bazı katılımcılar bu sahte filmlerin gerçek olduğuna inandı ve hatta onları orijinal filmlerden daha üst sıralara yerleştirdi. Makalede: “Ancak, derin sahtekarlıklar, hafızayı çarpıtmada basit metin açıklamalarından daha etkili değildi” yazıyor. Derin sahtekarlıkların, birini sahte bir anıyı kabul etmesi için kandırmak için tamamen gerekli olmadığını öne sürüyor.

İrlanda’daki University College Cork’ta bir yanlış bilgi araştırmacısı olan araştırmanın baş yazarı Gillian Murphy The Daily Beast: “Gelişmekte olan teknolojilerle ilgili korkularımıza dayanarak distopik gelecek tahminlerine atlamamalıyız. Evet, derin sahtekarlıkların ortaya çıkardığı çok ciddi zararlar var, ancak var olabileceğini varsaydığımız sorunları çözmek için acele etmeden önce, her zaman ilk etapta bu zararlar için kanıt toplamalıyız” dedi.

Araştırmacılar, bu deepfake videoları 436 katılımcıya gösterdi. Bunların yaklaşık yüzde 49’u sahte içeriğe aldandı. Örneğin, aldatılanların yüzde 41’i derin sahte “Captain Marvel” yeniden yapımının gerçek olandan daha iyi olduğunu düşündü. Şaşırtıcı bir şekilde, deepfake’in basit bir metin açıklaması eşit derecede ikna ediciydi ve gerçeklikle ilgili hatıralarımızın ne kadar kolay çarpıtılabileceği konusunda endişeler uyandırıyordu.

Murphy, “Bulgularımız, mevcut yanlış bilgilendirme biçimlerinin ötesinde ve ötesinde benzersiz derecede güçlü bir deepfake tehdidi önermediğinden, özellikle endişe verici değil” dedi.

Kendimizi gelecekte bu tür derin sahtekarlıklardan korumak için, insanların teknoloji okuryazarı olması ve gerçek ile derin sahte medya arasındaki farkı anlayabilmesi çok önemlidir. Bununla birlikte, üretken yapay zekanın zaman içinde daha da gelişmesiyle birlikte, bu teknolojilerin geçmişe dair anlayışımızı değiştirmesini önlemek için tetikte kalmalıyız. Sahte anılar oluşturulması bilimsel açıdan mükemmel görünse de önemli bir tehlike içeriyor. Bu anılar kötü amaçlı kullanıldığında, insan psikolojisinde derin yaralar bırakabilir.

Popular Articles

Latest Articles