M­a­k­i­n­e­ ­ö­ğ­r­e­n­i­m­i­ ­m­o­d­e­l­l­e­r­i­ ­b­i­r­ ­v­e­r­i­ ­g­ü­v­e­n­l­i­ğ­i­ ­f­e­l­a­k­e­t­i­ ­o­l­a­b­i­l­i­r­

M­a­k­i­n­e­ ­ö­ğ­r­e­n­i­m­i­ ­m­o­d­e­l­l­e­r­i­ ­b­i­r­ ­v­e­r­i­ ­g­ü­v­e­n­l­i­ğ­i­ ­f­e­l­a­k­e­t­i­ ­o­l­a­b­i­l­i­r­

Araştırmacılar, kötü niyetli aktörlerin, modelleri eğitmek için kullanılan veri kümelerini zehirleyerek makine öğrenimi modellerini hassas bilgileri paylaşmaya zorlayabileceğini buldu.

Google, Singapur Ulusal Üniversitesi, Yale-NUS Koleji ve Oregon Eyalet Üniversitesi’nden bir uzman ekibi, “Gerçeklik serumu: Sırlarını ortaya çıkarmak için makine öğrenimi modellerini zehirliyor (yeni sekmede açılır)”, saldırının nasıl çalıştığını detaylandırıyor.

Popular Articles

Latest Articles