G­o­o­g­l­e­ ­G­e­m­i­n­i­ ­A­I­:­ ­S­i­y­a­h­ ­N­a­z­i­l­e­r­ ­m­i­?­ ­ ­K­a­d­ı­n­ ­p­a­p­a­ ­m­ı­?­ ­ ­Y­a­p­a­y­ ­z­e­k­a­ ­s­o­r­u­n­u­n­u­n­ ­s­a­d­e­c­e­ ­b­a­ş­l­a­n­g­ı­c­ı­.­

G­o­o­g­l­e­ ­G­e­m­i­n­i­ ­A­I­:­ ­S­i­y­a­h­ ­N­a­z­i­l­e­r­ ­m­i­?­ ­ ­K­a­d­ı­n­ ­p­a­p­a­ ­m­ı­?­ ­ ­Y­a­p­a­y­ ­z­e­k­a­ ­s­o­r­u­n­u­n­u­n­ ­s­a­d­e­c­e­ ­b­a­ş­l­a­n­g­ı­c­ı­.­

Daha geçen hafta, Google frenleri pompalamak zorunda kaldı yapay zeka Eleştirmenlerin beyaz insanlara karşı önyargıyı bastırdığından şikayet etmesi üzerine Gemini adı verilen görüntü oluşturucu.

Tartışma şu şekilde başladı – tahmin ettiğiniz gibi – bir viral gönderi X'te. @EndWokeness kullanıcısından gelen gönderiye göre, Gemini'den Amerika'nın Kurucu Babasının bir resmi istendiğinde Siyah bir adam, bir Kızılderili adam, Asyalı bir adam ve nispeten koyu tenli bir adam gösterdi. Bir papanın portresi istendiğinde, siyahi bir adam ve siyahi bir kadın görülüyordu. Nazilerin de şu şekilde tasvir edildiği bildirildi: ırksal olarak çeşitli.

gibi kişilerden gelen şikayetler sonrasında Elon MuskGemini'nin çıktısını çağıran “ırkçı” ve Google “uyandı” şirket, yapay zeka aracının insan resimleri oluşturma yeteneğini askıya aldı.

“Bu özelliğin hedefi kaçırdığı açık. Oluşturulan görsellerden bazıları hatalı ve hatta rahatsız edici.” Google Kıdemli Başkan Yardımcısı Prabhakar Raghavan yazdıGemini'nin çeşitlilik gösterme arayışında bazen “aşırı telafi” yaptığını da sözlerine ekledi.

Raghavan, aracın neden gereğinden fazla telafi ettiğine dair teknik bir açıklama yaptı: Google, Gemini'ye yapay zekanın bazı klasik tuzaklarına düşmekten kaçınmayı öğretmişti; stereotipik olarak tasvir tüm avukatlar erkektir. Ancak Raghavan şunları yazdı: “Gemini'nin bir dizi insanı göstermesini sağlamak için yaptığımız ayarlamalar, açıkça görülmesi gereken vakaları hesaba katmada başarısız oldu.” Olumsuz bir aralık göster.”

Bunların hepsi kulağa kasvetli kültür savaşının en son yinelemesi gibi gelebilir.uyanıklık” — ve en azından bu sefer, teknik bir sorunun hızlı bir şekilde onarılmasıyla çözülebilecek bir şey. (Google, aracı birkaç hafta içinde yeniden başlatmayı planlıyor.)

Ama burada daha derin bir şeyler oluyor. Gemini'nin sorunu sadece teknik bir sorun değil.

Bu felsefi bir sorun; yapay zeka dünyasının kesin bir çözümü yok.

Önyargı ne anlama geliyor?

Google'da çalıştığınızı düşünün. Patronunuz size bir yapay zeka görüntü oluşturucu tasarlamanızı söylüyor. Bu senin için çocuk oyuncağı; sen mükemmel bir bilgisayar bilimcisisin! Ancak bir gün, aracı test ederken bir ikilemle karşı karşıya olduğunuzu fark edersiniz.

Yapay zekadan bir CEO imajı oluşturmasını istiyorsunuz. Bakın, bu bir adam. Bir yandan, CEO'ların büyük çoğunluğunun erkek olduğu bir dünyada yaşıyorsunuz; dolayısıyla belki de aracınız bunu doğru bir şekilde yansıtmalı ve birbiri ardına insan görüntüleri yaratmalıdır. Öte yandan bu, kadınları üst düzey yöneticilerin dışında tutan toplumsal cinsiyet stereotiplerini güçlendirebilir. Ve “CEO” tanımında cinsiyet belirten hiçbir şey yok. Peki bunun yerine, günümüz gerçekliğini yansıtan bir karışım olmasa bile dengeli bir karışım gösteren bir araç mı yapmalısınız?

Bu, önyargıyı nasıl anladığınıza bağlıdır.

Bilgisayar bilimcileri “önyargı”yı istatistiksel anlamı açısından düşünmeye alışkındır: Tahminlerde bulunmak için kullanılan bir program, eğer bir yönde sürekli olarak yanlışsa, önyargılı demektir. (Örneğin, eğer bir hava durumu uygulaması yağmur olasılığını her zaman olduğundan fazla tahmin ediyorsa, tahminleri istatistiksel olarak taraflı olacaktır.) Bu çok açık ama aynı zamanda çoğu insanın “önyargı” kelimesini kullanma şeklinden de çok farklı; bu daha çok “karşı önyargılı olmak” anlamına geliyor Belli bir grup.”

Sorun şu ki, imaj oluşturucunuzu CEO'lar arasındaki cinsiyet dağılımı hakkında istatistiksel olarak tarafsız tahminler yapacak şekilde tasarlarsanız, o zaman kelimenin ikinci anlamıyla önyargılı olacaktır. Ve eğer onu, tahminlerinin cinsiyetle ilişkilendirilmeyeceği şekilde tasarlarsanız, istatistiksel anlamda önyargılı olacaktır.

Peki takası nasıl çözmelisiniz?

NYU Sorumlu Yapay Zeka Merkezi direktörü Julia Stoyanovich, daha önce şunu söylediğimde bana “Bu sorulara net bir cevap olabileceğini düşünmüyorum” dedi. rapor edildi Bu konuda. “Çünkü bunların hepsi değerlere dayanıyor.”

Herhangi bir algoritmanın içinde, bu rakip önyargı kavramları da dahil olmak üzere, neye öncelik verileceği konusunda bir değer yargısı vardır. Bu nedenle şirketlerin, toplumun şu anda nasıl göründüğünü doğru bir şekilde tasvir etmek mi, yoksa toplumun neye benzeyebileceğini düşündüklerine dair bir vizyon geliştirmek mi istediklerine karar vermeleri gerekiyor. meli benziyor – bir rüya dünyası.

Teknoloji şirketleri bu gerilimin üstesinden gelmek için nasıl daha iyi bir iş çıkarabilir?

Şirketlerin yapmasını beklememiz gereken ilk şey, bir algoritmanın neyi optimize ettiği konusunda açık bir ifadeye sahip olmaktır: Hangi tür önyargıyı azaltmaya odaklanacak? Daha sonra şirketlerin bunu algoritmaya nasıl yerleştireceklerini bulmaları gerekiyor.

Bunun bir kısmı insanların bir yapay zeka aracını nasıl kullanacaklarını tahmin etmektir. Dünyanın tarihsel tasvirlerini yaratmaya çalışabilirler (düşünün: beyaz papalar) ama aynı zamanda bir rüya dünyasının tasvirlerini de yaratmaya çalışabilirler (kadın papalar, haydi getirin!).

“Gemini'de, modelin öğrendiği tarihsel önyargılara uymamanın (minimum) kitlesel bir halk tepkisine yol açacağını anlayarak 'rüya dünyası' yaklaşımına yöneldiler.” yazdı Margaret Mitchell, yapay zeka girişimi Hugging Face'in baş etik bilimcisi.

Mitchell, Google Gemini'yi hayal dünyası görüntüleri üretmeye itmek için “kaputun altında” bazı hileler kullanmış olabilir açıkladı. Örneğin, kullanıcıların istemlerine çeşitlilik terimleri ekleyerek “bir papayı” “kadın bir papaya” veya “bir Kurucu Baba”yı “Siyah bir Kurucu Babaya” dönüştürüyor olabilir.

Ancak Google, yalnızca hayal dünyası yaklaşımını benimsemek yerine, Gemini'yi kullanıcının gerçekte hangi yaklaşımı istediğini anlayacak şekilde donatabilirdi (örneğin, kullanıcının tercihleri ​​hakkında geri bildirim isteyerek) ve ardından kullanıcının bunu istemediğini varsayarak bunu oluşturabilirdi. sınırların dışında bir şey.

Sınır dışı sayılan şeyler bir kez daha değerlere indirgeniyor. Her şirketin değerlerini açıkça tanımlaması ve ardından yapay zeka aracını bu değerleri ihlal eden talepleri reddedecek şekilde donatması gerekir. Aksi halde böyle şeylerle karşı karşıya kalırız Taylor Swift'in pornosu.

Yapay zeka geliştiricileri bunu yapabilecek teknik yeteneğe sahiptir. Soru, yaptıkları değer seçimlerini hesaba katacak felsefi yeteneğe ve bunlar hakkında şeffaf olma dürüstlüğüne sahip olup olmadıklarıdır.

Bu hikaye ilk olarak şurada ortaya çıktı: Bugün AçıklandıVox'un amiral gemisi günlük bülteni. Gelecek basımlar için buradan kaydolun.

Kaynak bağlantısı

Popular Articles

Latest Articles