M­i­c­r­o­s­o­f­t­ ­a­ç­ı­k­ ­b­u­l­a­n­ı­ ­ö­d­ü­l­l­e­n­d­i­r­e­c­e­k­!­

M­i­c­r­o­s­o­f­t­ ­a­ç­ı­k­ ­b­u­l­a­n­ı­ ­ö­d­ü­l­l­e­n­d­i­r­e­c­e­k­!­

Microsoft Perşembe günü yaptığı duyuruda, yapay zeka destekli Bing hizmetleri ve uygulamalarındaki güvenlik açıklarını bulup bildiren kullanıcıları ödüllendirecek yeni bir ödül programını duyurdu. Bu program, en kritik güvenlik açıklarını bulmaları için kullanıcılara 2.000 ile 15.000 dolar arasında değişen ödüller sunacak.

Bu program ile Bing kullanıcılarının daha güvenli ortamda çalışmalarının sağlanması hedefleniyor.Program, Bing’in yapay zeka destekli altyapısı, Microsoft Edge entegrasyonu, Başlangıç uygulamaları ve Skype mobil versiyonunu kapsayacak. Program ile Bing kullanıcılarının daha güvenli bir şekilde arama yapabilmesi, Microsoft Edge’in yapay zeka destekli özelliklerini daha güvenle kullanabilmesi, Başlangıç uygulamalarının kötü amaçlı yazılımlardan korunması ve Skype mobil versiyonunun daha güvenli hale getirilmesi hedefleniyor.

Microsoft, yapay zeka alanındaki yatırımlarını sürdürerek güvenliği artırmayı hedefliyor. Bu program da bu hedefe ulaşmak için önemli bir adım olarak görülüyor.

Güvenlik araştırmacıları, Microsoft Security Research Center üzerinden hata bildirimi yapabilecekler. Hata bildirimi sırasında, güvenlik açığının nasıl tespit edildiği, açığa neden olan faktörler ve açığın nasıl düzeltilebileceği gibi bilgiler yer alacak.

Program, 14 Ekim 2023 tarihinde başlıyor ve 31 Aralık 2023 tarihinde sona erecek. Program’a katılmak için bir güvenlik araştırmacısı olmak ve Microsoft Security Research Center’da bir hesap oluşturmak gerekiyor. Hata bildirimi için kullanılacak araç ve yöntemler, Microsoft Security Research Center web sitesinde açıklanmaktadır. Hata bildirimi süreci, güvenlik açığının önemine göre üç aşamada gerçekleşecek.

Microsoft’un Bing AI hata bulma programı, Bing kullanıcılarının daha güvenli bir şekilde Bing’i kullanmasına yardımcı olacak önemli bir adımdır. Program, Microsoft’un yapay zeka güvenliğine verdiği önemi de gösteriyor.

Popular Articles

Latest Articles