Y­a­p­a­y­ ­Z­e­k­a­ ­Y­a­r­a­t­ı­c­ı­s­ı­ ­O­p­e­n­A­I­­ı­n­ ­K­e­n­y­a­l­ı­ ­İ­ş­ç­i­l­e­r­i­ ­S­a­a­t­l­i­k­ ­2­ ­D­o­l­a­r­a­ ­Ç­a­l­ı­ş­t­ı­r­d­ı­ğ­ı­ ­İ­d­d­i­a­ ­E­d­i­l­d­i­!­

Y­a­p­a­y­ ­Z­e­k­a­ ­Y­a­r­a­t­ı­c­ı­s­ı­ ­O­p­e­n­A­I­­ı­n­ ­K­e­n­y­a­l­ı­ ­İ­ş­ç­i­l­e­r­i­ ­S­a­a­t­l­i­k­ ­2­ ­D­o­l­a­r­a­ ­Ç­a­l­ı­ş­t­ı­r­d­ı­ğ­ı­ ­İ­d­d­i­a­ ­E­d­i­l­d­i­!­

TIME dergisinin yaptığı araştırmalar, yapay zeka yaratıcısı olan OpenAI'ın rahatsız edici bazı eylemlerini yakaladı. Biz de bu yazımızda yapay zeka geliştirme işinin daha az bilinen kısmından bahsediyoruz.

Kaynak: https://time.com/6247678/openai-chatg...

ChatGPT, geçtiğimiz Kasım ayında piyasaya sürüldüğünde 2022'nin en etkileyici teknolojik yeniliklerinden biri olarak lanse edildi.

ChatGPT, geçtiğimiz Kasım ayında piyasaya sürüldüğünde 2022'nin en etkileyici teknolojik yeniliklerinden biri olarak lanse edildi.

Güçlü yapay zeka (AI) sohbet robotu, Megan Thee Stallion tarzında yeniden tasarlanmış bir Shakespeare sonesinden, 5 yaşındaki bir çocuğun anlayabileceği dilde açıklanan karmaşık matematik teoremlerine kadar hemen hemen her konu/tema hakkında metin üretebiliyor. Bu yüzden uygulama bir hafta içinde bir milyondan fazla kullanıcıya ulaştı.

ChatGPT'nin yaratıcısı OpenAI'ın, Microsoft şirketinden 10 milyar dolarlık ek bir yatırım alacağı da gündemde.

ChatGPT'nin yaratıcısı OpenAI'ın, Microsoft şirketinden 10 milyar dolarlık ek bir yatırım alacağı da gündemde.

Bu, süper akıllı makineler oluşturmak amacıyla 2015 yılında San Francisco'da kurulan OpenAI'yi dünyanın en değerli yapay zeka şirketlerinden biri yapacak. Ancak bu başarı öyküsü, yalnızca Silikon Vadisi dehalarının hikayesi değil. Bir TIME araştırmasına göre OpenAI, ChatGPT'yi daha az toksik hale getirme arayışında, saatte 2 dolardan az kazanan dış kaynaklı Kenyalı işçileri kullandı.

Bu çalışma, OpenAI için hayati önem taşıyordu.

Bu çalışma, OpenAI için hayati önem taşıyordu.

ChatGPT'nin selefi GPT-3, cümleleri bir araya getirmek için etkileyici bir beceri göstermişti. Ancak uygulama aynı zamanda şiddetli, cinsiyetçi ve ırkçı sözler söylemeye eğilimli olduğundan satışı zordu. Bunun nedeni, yapay zekanın internetten kazınmış yüz milyarlarca kelimeyle - geniş bir insan dili deposuyla - eğitilmiş olması. Bu devasa eğitim veri seti, GPT-3'ün etkileyici dil becerilerinin nedeniydi ama aynı zamanda belki de en büyük lanetiydi. İnternetin bazı bölümleri toksik olduğundan, eğitim verisinin bu bölümlerini temizlemenin kolay bir yolu yoktu. Yüzlerce insandan oluşan bir ekibin bile devasa veri kümesini manuel olarak taraması onlarca yıl alırdı. OpenAI, yalnızca yapay zeka destekli ek bir güvenlik mekanizması oluşturarak bu zararı dizginleyebilir ve günlük kullanıma uygun bir sohbet robotu üretebilirdi.

Bu güvenlik sistemini oluşturmak için OpenAI, Facebook gibi sosyal medya şirketlerinin oyun kitabından yararlandı.

Bu güvenlik sistemini oluşturmak için OpenAI, Facebook gibi sosyal medya şirketlerinin oyun kitabından yararlandı.

Yapılacak şey basitti: Bir yapay zekayı etiketli şiddet, nefret söylemi ve cinsel taciz örnekleriyle besleyin ve bu araç, salınacağı yerde bu tür toksisiteleri tespit etmeyi öğrenebilir. Bu yardımcı dedektör, eğitim verilerinin toksisitesini yansıtıp yansıtmadığını kontrol etmek ve kullanıcıya ulaşmadan önce filtrelemek için ChatGPT'ye yerleştirilebilir. Ayrıca, gelecekteki yapay zeka modellerinin eğitim veri kümelerinden zehirli metinlerin temizlenmesine de yardımcı olabilir.

OpenAI, bu etiketleri almak için Kasım 2021'den itibaren Kenya'daki bir dış kaynak firmasına on binlerce metin parçacığı gönderdi.

OpenAI, bu etiketleri almak için Kasım 2021'den itibaren Kenya'daki bir dış kaynak firmasına on binlerce metin parçacığı gönderdi.

Bu metinlerin çoğu internetin en karanlık köşelerinden çekilmiş şeylerdi. Bazıları çocuklara yönelik cinsel istismar, hayvanlarla cinsel ilişki, cinayet, intihar, işkence, kendine zarar verme ve ensest gibi durumları grafik ayrıntılarla tanımlıyordu. OpenAI'nin Kenya'daki dış kaynak kullanım ortağı, Google, Meta ve Microsoft gibi Silikon Vadisi müşterilerinin verilerini etiketlemek için Kenya, Uganda ve Hindistan'da işçi çalıştıran San Francisco merkezli bir şirket olan Sama idi. Sama kendisini 'etik bir yapay zeka' şirketi olarak pazarlıyor ve 50 binden fazla insanı yoksulluktan kurtarmaya yardımcı olduğunu iddia ediyor.

Time; OpenAI adına Sama tarafından istihdam edilen veri etiketleyicilere, kıdeme ve performansa bağlı olarak saatte 1,32 ila 2 ABD Doları arasında bir ücret ödediğini iddia ediyor.

Time; OpenAI adına Sama tarafından istihdam edilen veri etiketleyicilere, kıdeme ve performansa bağlı olarak saatte 1,32 ila 2 ABD Doları arasında bir ücret ödediğini iddia ediyor.

Bu hikaye için TIME, işçi maaş bordroları da dahil olmak üzere yüzlerce sayfalık dahili Sama ve OpenAI belgelerini inceledi ve projede çalışan dört Sama çalışanıyla röportaj yaptı. Tüm çalışanlar, geçim kaynakları endişesi nedeniyle isimlerini gizli tutmak kaydıyla konuştu. ChatGPT'yi mümkün kılan işçilerin hikayesi, yapay zeka endüstrisinin bu az bilinen bölümündeki koşullara bir bakış sunuyor ancak yine de yapay zeka sistemlerini kamu tüketimi için güvenli hale getirme çabasında önemli bir rol oynuyor. OpenAI'nin ait olduğu yapay zeka kuruluşlarının bir koalisyonu olan Partnership on AI, 'Bu veri zenginleştirme uzmanlarının oynadığı temel role rağmen, giderek artan sayıda araştırma bu işçilerin karşı karşıya kaldığı güvencesiz çalışma koşullarını ortaya koyuyor' diyor.

Bir OpenAI sözcüsü yaptığı açıklamada, Kenya'daki Sama çalışanlarının, ChatGPT'ye dahil edilen zehirli içeriği tespit etmek için geliştirilen bir araca katkıda bulunduğunu doğruladı.

Bir OpenAI sözcüsü yaptığı açıklamada, Kenya'daki Sama çalışanlarının, ChatGPT'ye dahil edilen zehirli içeriği tespit etmek için geliştirilen bir araca katkıda bulunduğunu doğruladı.

Açıklamada ayrıca, bu çalışmanın ChatGPT gibi araçların eğitim veri setlerinden toksik verileri kaldırma çabalarına katkıda bulunduğu belirtildi. Sözcü, 'Misyonumuz, yapay zekanın tüm insanlığa fayda sağlaması. Bunun için zararlı içeriği sınırlayan güvenli ve kullanışlı yapay zeka sistemleri oluşturmak istiyoruz. Zararlı [metin ve resimleri] sınıflandırmak ve filtrelemek, eğitim verilerinde yer alan şiddet içeren içerik miktarını en aza indirmek ve zararlı içeriği tespit edebilecek araçlar oluşturmak için gerekli bir adım' diyor. 

Siz bu konu hakkında ne düşünüyorsunuz? Yorumlarda buluşalım!

Bu içerikler de ilginizi çekebilir

Popular Articles

Latest Articles