G­o­o­g­l­e­,­ ­B­e­y­a­z­ ­İ­n­s­a­n­l­a­r­ı­n­ ­D­u­y­g­u­l­a­r­ı­n­ı­ ­K­ı­r­d­ı­ğ­ı­ ­İ­ç­i­n­ ­Ö­z­ü­r­ ­D­i­l­e­d­i­

G­o­o­g­l­e­,­ ­B­e­y­a­z­ ­İ­n­s­a­n­l­a­r­ı­n­ ­D­u­y­g­u­l­a­r­ı­n­ı­ ­K­ı­r­d­ı­ğ­ı­ ­İ­ç­i­n­ ­Ö­z­ü­r­ ­D­i­l­e­d­i­


Google Cuma günü, ekibinin yeni bir görsel oluşturma özelliğiyle “yanlış anladığını” söyleyerek özür diledi. Gemini yapay zeka sohbet robotu Beyazların yer almadığı çeşitli görüntüler viral hale geldikten sonra. Bir şirket yöneticisi, Gemini’nin belirli bir grup insanın görsellerini oluşturmayı kasıtlı olarak reddetmesini istediğini kesinlikle reddetti.

Google Yapay Zeka Araması Yok, “Köleliğin Faydaları”nı Öğrenmeme Gerek Yok

“Amacımız bu değildi. Gemini’nin herhangi bir grubun görsellerini oluşturmayı reddetmesini istemedik. Google’ın kıdemli başkan yardımcısı Prabhakar Raghavan, “Ve bunun hatalı tarihsel veya başka herhangi bir görüntü oluşturmasını istemedik” dedi.

İçinde Blog yazısıRaghavan—şirkete en çok para kazandıran alanları denetler; Google Arama ve reklam işi— Gemini’nin görüntü oluşturucusunun “yanlış anladığını” ve şirketin daha iyisini yapmaya çalışacağını açıkça itiraf etti. Birçok kişi Gemini’nin tarihsel olarak yanlış görüntüleri nedeniyle öfkelendi. Siyah Nazi askerleri ve Siyah Vikingler hem de görünen o ki beyaz insanların resimlerini oluşturmayı reddetmekBazıları bunu ırkçı olarak değerlendirdi.

Raghavan’a göre bunların hepsi, Google’ın Gemini’nin diğer görsel oluşturucuların geçmişte yaptığı şiddet içerikli görseller, müstehcen görseller ve gerçek insanların tasvirleri gibi aynı hataları yapmasını istememesi nedeniyle gerçekleşti.

“Peki ne ters gitti? Kısaca iki şey. İlk olarak, Gemini’nin bir dizi insanı göstermesini sağlamak için yaptığımız ayarlamalar, açıkça görülmesi gereken vakaları hesaba katmada başarısız oldu. Olumsuz Bir aralık göster,” diye yazdı Raghavan, kendisininkini vurgulayarak. “İkincisi, zaman içinde model, planladığımızdan çok daha temkinli olmaya başladı ve bazı uyarılara tamamen yanıt vermeyi reddetti; bazı çok uyuşuk yönlendirmeleri yanlış bir şekilde hassas olarak yorumladı.”

Google başkan yardımcısı, bu iki faktörün Gemini’yi bazı durumlarda aşırı telafi etmeye, bazı durumlarda ise aşırı muhafazakar olmaya ittiğini söyledi. Genel olarak “utanç verici ve yanlış” görüntülerin oluşmasına yol açtı.

Google, Perşembe günü Gemini’nin insan görselleri oluşturma özelliğini kapattı ve yakın zamanda geliştirilmiş bir sürüm yayınlayacağını söyledi. Ancak Raghavan, şirketin özelliği yeniden etkinleştirmeden önce kapsamlı testler yoluyla önemli ölçüde iyileştirmeye çalışacağını söyleyerek “yakında” kısmı hakkında şüphe uyandırıyor gibi görünüyordu.

Raghavan, Gemini’nin gelecekte daha utanç verici, yanlış veya rahatsız edici sonuçlar üretmeyeceğine söz veremeyeceğini belirtti ancak Google’ın sorunu düzeltmek için müdahale etmeye devam edeceğini ekledi.

“Akılda tutulması gereken bir şey var: Gemini bir yaratıcılık ve üretkenlik aracı olarak tasarlanmıştır ve özellikle güncel olaylar, gelişen haberler veya önemli konular hakkında görseller veya metinler üretme söz konusu olduğunda her zaman güvenilir olmayabilir. Hatalar yapacaktır” dedi Raghavan.



genel-7

Popular Articles

Latest Articles