O­p­e­n­A­I­,­ ­A­I­ ­a­r­a­ç­l­a­r­ı­ ­i­ç­i­n­ ­h­a­t­a­ ­ö­d­ü­l­ü­ ­b­a­ş­l­a­t­t­ı­

O­p­e­n­A­I­,­ ­A­I­ ­a­r­a­ç­l­a­r­ı­ ­i­ç­i­n­ ­h­a­t­a­ ­ö­d­ü­l­ü­ ­b­a­ş­l­a­t­t­ı­


OpenAI, yapay zeka araçlarındaki tüm güvenlik açıklarını tespit etmek için bir hata ödülü başlatmaya karar verdi. Prensip basit: yazılım hatalarını tespit etmeleri için siber güvenlik uzmanlarını veya endüstri meraklılarını arayın. Varsa, kusuru tespit eden kişi bir ödül kazanır.

OpenAI, araçlarında mümkün olduğu kadar çok hatayı temizlemeye çalışıyor

Bazı ChatGPT kullanıcılarının başkalarının konuşmalarını gözetlemesine izin veren bir hatadan sadece haftalar sonra, OpenAI harekete geçmeye karar verdi. Google, Apple ve hatta Blablacar gibi büyük gruplar gibi, yapay zeka konusunda uzmanlaşmış Amerikan şirketi de bir bug bounty açtı.

İçinde bir blog yazısıOpenAI girişiminin lansmanını şöyle açıklıyor: “ Herhangi bir karmaşık teknolojide olduğu gibi, güvenlik açıklarının ve kusurların ortaya çıkabileceğini anlıyoruz. Şeffaflık ve işbirliğinin bu gerçekle başa çıkmanın anahtarı olduğuna inanıyoruz. Bu nedenle, sistemlerimizdeki güvenlik açıklarını belirlememize ve düzeltmemize yardımcı olmaları için küresel güvenlik araştırmacıları topluluğunu, etik korsanları ve teknoloji meraklılarını davet ediyoruz. “.

Elbette ChatGPT görüş alanı içinde ancak ilgilenenler OpenAI görüntü oluşturucu DALL-E 2 üzerinde de çalışabilirler. Bu nedenle şirket, AI modellerini mümkün olduğunca güvence altına almak ve güvence altına almak için büyük yatırımlar yapmadan önce herhangi bir hatanın tespit edilmesini bekleyecektir. Bugcrowd platformunda bunları tespit etmek mümkün olacak.

İhlalin ciddiyetine bağlı olarak 200 ila 20.000 ABD Doları arasında

Bildirilen sorunlara ve tespit edildikleri aracın kullanımı üzerindeki etkilerine bağlı olarak ödüller dağıtılacaktır. Önem derecesi düşük olan bir hata için 200 dolar ödenirken, örneğin siber suçlular tarafından kolayca sömürülebilecek bir açık keşfeden kişiye yaklaşık 20.000 dolar teklif edilecek.

Yine de OpenAI, ilgilenmediği hata türlerini belirtti. “a” ile bağlantılı küçük bir kusurun keşfiModel bilgi istemlerinin ve yanıtlarının içeriği kesinlikle kapsam dışındadır ve ek güvenlik etkisi olmadıkça ödüllendirilmeyecektir. “. Basitçe söylemek gerekirse, modelin kötü niyetli veya ayrımcı şeyler söylemesine izin veren herhangi bir güvenlik ihlali, şirketin gözünde güvenlik açığı olarak kabul edilmez.

Şimdiye kadar 14 güvenlik açığı keşfedildi ve bu hataları gün ışığına çıkaran kişilere şimdiden yaklaşık 18.000 dolar ödendi. OpenAI ekipleri, kusurun gerçekliğini ve yama süresini doğrulamak için hatayı gönderme ile yanıt verme arasında birkaç saat bırakır. Bu hataların düzeltilmeden önce kamuya ifşa edilmesini önlemek için çeşitli kurallar konulmuştur.


Popular Articles

Latest Articles