H­e­r­h­a­n­g­i­ ­B­i­r­ ­S­e­s­ ­K­a­y­d­ı­n­ı­ ­B­a­ş­k­a­ ­K­i­ş­i­l­e­r­e­ ­A­k­t­a­r­a­n­ ­B­i­r­ ­D­e­e­p­f­a­k­e­ ­M­e­t­o­d­u­ ­G­e­l­i­ş­t­i­r­i­l­d­i­

H­e­r­h­a­n­g­i­ ­B­i­r­ ­S­e­s­ ­K­a­y­d­ı­n­ı­ ­B­a­ş­k­a­ ­K­i­ş­i­l­e­r­e­ ­A­k­t­a­r­a­n­ ­B­i­r­ ­D­e­e­p­f­a­k­e­ ­M­e­t­o­d­u­ ­G­e­l­i­ş­t­i­r­i­l­d­i­

Siyasetçilerin ya da popüler isimlerin en çok korktuğu teknolojik gelişme, şüphesiz ki yapay zekâ ile birlikte gelen deepfake teknolojisi oldu. İnsanların yüzlerinin farklı görüntülere aktarılabildiği deepfake teknolojisinde artık sesler de başarılı bir şekilde videolara aktarılabilir hâle geldi.

Singapur’dan Nanyang Teknoloji Üniversitesi, Çin’den National Laboratory ve bir yapay zekâ yazılım şirketi olan SenseTime; ses kaynaklarından deepfake videolar oluşturabilen bir metot geliştirdi. Metot şöyle işliyor; yapay zekâ, bir kişinin ses kaydını ve bir başka kişinin ya da aynı kişinin videosunu alıyor ve daha sonra ses kaydının sahibinin söylediklerini içeren gerçekçi bir görüntü ortaya çıkarıyor.

Yayınlanan çalışamaya göre araştırmacılar; ilk olarak yüz ifadeleri, poz ve geometri ortaya çıkarmak için hedef videonun her karesinde üç boyutlu bir yüz modeli oluşturdular. Araştırmacılar, daha sonra yüzün iki boyutlu sınırlarınızı çizdiler ve burada özellikle ağız hareketlerine odaklandılar. Bu sayede tüm sahne üzerinde çalışması gereken algoritma devreden çıkarılmış oldu.

Araştırmacılar, daha sonra dudak hareketlerinin eşleşmesi için 3 boyutlu bir yapay zekâ ağı oluşturdular ve bu sayede oldukça gerçekçi sonuçlar elde etmeyi başardıklarını dile getirdiler. 100 katılımcıyla gerçekleştirilen bir ankette, oluşturulan videoların %55’i gerçek olarak nitelendirildi. 

İLGİLİ HABER

Kendi Deepfake Videonuzu Oluşturabileceğiniz Mobil Uygulama: Doublicat

Bu araştırmanın bir diğer dikkat çeken özelliği ise bunun ilk uçtan uca öğrenilebilir ses temelli video düzenleme metodu olması. Kıyamet Günü Saati’ni yöneten 'Bulletin of the Atomic Scientist', deepfake’in insanlığı kıyamete bir adım daha yaklaştırdığını söyledi. Araştırmacılar, ayrıca böyle bir teknolojinin yanlış ellerdeki potansiyelinin farkında olduklarını ve bu yüzden alınabilecek tüm koruyucu önlemleri desteklediklerini dile getirdiler.

Popular Articles

Latest Articles