G­o­o­g­l­e­,­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­T­e­h­d­i­t­l­e­r­i­y­l­e­ ­M­ü­c­a­d­e­l­e­ ­E­t­m­e­k­ ­İ­ç­i­n­ ­H­a­t­a­ ­Ö­d­ü­l­ ­P­r­o­g­r­a­m­ı­n­ı­ ­G­e­n­i­ş­l­e­t­i­y­o­r­

G­o­o­g­l­e­,­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­T­e­h­d­i­t­l­e­r­i­y­l­e­ ­M­ü­c­a­d­e­l­e­ ­E­t­m­e­k­ ­İ­ç­i­n­ ­H­a­t­a­ ­Ö­d­ü­l­ ­P­r­o­g­r­a­m­ı­n­ı­ ­G­e­n­i­ş­l­e­t­i­y­o­r­


27 Ekim 2023Haber odasıYapay Zeka / Güvenlik Açığı

Google, Güvenlik Açığı Ödül Programını genişlettiğini duyurdu (VRP), yapay zeka emniyetini ve güvenliğini artırmak amacıyla üretken yapay zeka (AI) sistemlerine göre uyarlanmış saldırı senaryoları bulmaları nedeniyle araştırmacılara tazminat ödemek.

Google’dan Laurie Richardson ve Royal Hansen, “Üretken yapay zeka, haksız önyargı potansiyeli, model manipülasyonu veya verilerin yanlış yorumlanması (halüsinasyonlar) gibi geleneksel dijital güvenliğe kıyasla yeni ve farklı endişeleri gündeme getiriyor.” söz konusu.

Kapsama giren kategorilerden bazıları katmak hızlı enjeksiyonlar, eğitim veri kümelerinden hassas verilerin sızması, model manipülasyonu, yanlış sınıflandırmayı tetikleyen düşmanca tedirginlik saldırıları ve model hırsızlığı.

Google’ın bu temmuzun başlarında bir girişim başlattığını belirtmekte fayda var. Yapay Zeka Kırmızı Takımı Güvenli Yapay Zeka Çerçevesinin bir parçası olarak yapay zeka sistemlerine yönelik tehditlerin ele alınmasına yardımcı olmak (SAIF).

Yapay zekayı güvence altına alma taahhüdünün bir parçası olarak, Yazılım Eserleri için Tedarik Zinciri Düzeyleri (SLSA) ve Sigstore gibi mevcut açık kaynaklı güvenlik girişimleri aracılığıyla yapay zeka tedarik zincirini güçlendirme çabaları da duyuruldu.

Yapay Zeka Tehditleri

Google, “Kullanıcıların yazılıma müdahale edilmediğini veya yazılımın değiştirilmediğini doğrulamasını sağlayan Sigstore’dakiler gibi dijital imzalar” dedi. söz konusu.

“Bize yazılımın içinde ne olduğunu ve nasıl oluşturulduğunu anlatan SLSA kaynağı gibi meta veriler, tüketicilerin lisans uyumluluğunu sağlamasına, bilinen güvenlik açıklarını tespit etmesine ve daha gelişmiş tehditleri tespit etmesine olanak tanıyor.”

Geliştirme OpenAI olarak geliyor açıklanmış Siber güvenlik, kimyasal, biyolojik, radyolojik ve nükleer (KBRN) tehditleri kapsayan üretken yapay zekaya yönelik yıkıcı risklere karşı “izlemek, değerlendirmek, tahmin etmek ve korumak” için yeni bir dahili Hazırlık ekibi.

Anthropic ve Microsoft’un yanı sıra iki şirket de bir 10 milyon $ Yapay Zeka Güvenlik FonuYapay zeka güvenliği alanındaki araştırmaları teşvik etmeye odaklandı.


Popular Articles

Latest Articles