M­i­c­r­o­s­o­f­t­ ­b­a­ş­k­a­n­ı­,­ ­d­a­h­a­ ­d­e­r­i­n­ ­s­a­h­t­e­ ­t­e­h­d­i­t­l­e­r­i­n­ ­y­a­k­ı­n­d­a­ ­g­e­l­e­b­i­l­e­c­e­ğ­i­ ­k­o­n­u­s­u­n­d­a­ ­u­y­a­r­d­ı­

M­i­c­r­o­s­o­f­t­ ­b­a­ş­k­a­n­ı­,­ ­d­a­h­a­ ­d­e­r­i­n­ ­s­a­h­t­e­ ­t­e­h­d­i­t­l­e­r­i­n­ ­y­a­k­ı­n­d­a­ ­g­e­l­e­b­i­l­e­c­e­ğ­i­ ­k­o­n­u­s­u­n­d­a­ ­u­y­a­r­d­ı­

Deepfakelere gelince, şimdiye kadar gördüklerimiz buzdağının sadece görünen kısmı. Yakın gelecekte, görüntülü aramada konuştuğumuz kişinin gerçek mi yoksa sahtekâr mı olduğundan emin olmayacağız ve sahtekarlar, iddialarını desteklemek için tam bir sahte video kronolojisi oluşturmakta sorun yaşamayacak veya insanları bir teklifin veya kampanyanın meşruiyetine inandırmak.

Bu üzücü tahminler, Microsoft’un baş bilim yetkilisi Eric Horvitz’den “Ufukta: Etkileşimli ve kompozisyonel derin sahteler” başlıklı yeni bir araştırma makalesinden geliyor.

Deepfake’ler aslında “photoshoplanmış” videolardır. Bir tehdit aktörü, yapay zeka (AI) ve makine öğrenimi (ML) kullanarak bir kişinin asla söylemediği şeyleri söylediği bir video oluşturabilir. Şimdi, Horvitz’e göre, dolandırıcılar onu bir sonraki seviyeye taşımaya hazır. Etkileşimli derin sahtekarlıklar tam da beklediğiniz gibi – kullanıcıların etkileşimde bulunabileceği gerçek zamanlı videolar, gerçekte tamamen sahte.

Kompozisyonel deepfake’ler ise zaman içinde “gözlemlenen, beklenen ve tasarlanmış dünya olaylarıyla ikna edici sentetik tarihler oluşturmak için bütünleşmek üzere tasarlanmış” “deepfake setleri” olarak tanımlanır.

Horvitz, “Sentetik geçmişler manuel olarak oluşturulabilir, ancak bir gün çekişmeli üretici açıklama (AGE) teknikleri tarafından yönlendirilebilir” diye ekliyor.

Ayrıca yakın gelecekte, sahte videoları ve sahte içerikleri gerçek olanlardan ayırt etmenin neredeyse imkansız olacağını söylüyor: kurgudan ayırt edilemez.”

Bu hafifletme yokluğu, tehdit aktörlerinin yapay zekayı analiz araçlarıyla karşı karşıya getirebilmesi ve en gelişmiş algılama sistemlerini bile kandırabilecek derin sahte içerik geliştirebilmesi gerçeğinden kaynaklanmaktadır.

Horvitz, “Deepfakelerin temelindeki bu süreçle, ne örüntü tanıma teknikleri ne de insanlar deepfakeleri güvenilir bir şekilde tanıyamayacak” diyor.

Bu nedenle, bir dahaki sefere bir aile üyesi yurt dışından kirayı ödemek için para istemek için aradığında, bunun bir dolandırıcı kimliğine bürünmediğinden emin olun. (yeni sekmede açılır) Sevdiklerin.

Aracılığıyla: GirişimBeat (yeni sekmede açılır)



işletim-sistemi-1

Popular Articles

Latest Articles