R­e­d­d­i­t­’­i­n­ ­A­m­ ­I­ ­T­h­e­ ­A­s­s­h­o­l­e­ ­f­o­r­u­m­u­n­u­n­ ­b­u­ ­A­I­ ­k­l­o­n­u­ ­s­i­z­e­ ­e­n­ ­i­y­i­ ­k­ö­t­ü­ ­t­a­v­s­i­y­e­y­i­ ­v­e­r­e­c­e­k­

R­e­d­d­i­t­’­i­n­ ­A­m­ ­I­ ­T­h­e­ ­A­s­s­h­o­l­e­ ­f­o­r­u­m­u­n­u­n­ ­b­u­ ­A­I­ ­k­l­o­n­u­ ­s­i­z­e­ ­e­n­ ­i­y­i­ ­k­ö­t­ü­ ­t­a­v­s­i­y­e­y­i­ ­v­e­r­e­c­e­k­

İlk olarak, gerekli bir sorumluluk reddi: etik ikilemlerinizi çözmek için yapay zeka dil oluşturucularını kullanmayın. İkinci: kesinlikle git bu ikilemleri söyle Reddit’in bu AI destekli simülasyonu çünkü sonuçlar büyüleyici.

Asshole Are You (AYTA), adından da anlaşılacağı gibi, Reddit’in r/AmITheAsshole (AITA) kitle kaynaklı tavsiye forumunu taklit etmek için inşa edilmiştir. Digital Void’in finansmanıyla internet sanatçıları Morris Kolman ve Alex Petros tarafından oluşturulan site, bir senaryo girmenize ve bu konuda tavsiye istemenize izin veriyor ve ardından durumunuza yanıt veren bir dizi geri bildirim gönderisi oluşturuyor. Geri bildirim, insan tarafından oluşturulan gerçek yanıtların stilini yakalamak için oldukça iyi bir iş çıkarıyor, ancak birçok AI dil modelinin ürettiği tuhaf, biraz yabancı çarpıklıkla. İşte klasik bilim kurgu romanının konusuna verdiği yanıtlar yol kenarında piknik:

Girdiğim önermenin tuhaflığını bir kenara bırakırsak bile, komut istemine tam olarak uymayan basmakalıp sözlere yöneliyorlar – ancak yazı stili ve içeriği bir bakışta oldukça inandırıcı.

Ben de geçen yılki çekişmeli anlaşmaya varmasını istedim”Kötü Sanat Arkadaşı” çekişme:

İlk iki bot bununla daha çok karıştı! Her ne kadar adalet içinde, birçok insan da öyleydi.

Birkaç örnek daha bulabilirsin bir alt dizinde siteye adanmıştır.

AYTA aslında her biri farklı bir veri alt kümesinde eğitilmiş üç farklı dil modelinin sonucudur. Sitenin açıkladığı gibi, içerik oluşturucular 2020 yılına ait yaklaşık 100.000 AITA gönderisini ve bunlarla ilişkili yorumları ele geçirdi. Ardından, verilerin farklı dilimleri üzerinde özel bir metin oluşturma sistemi eğittiler: bir bot, orijinal posterlerin NTA (pislik değil) olduğu sonucuna varan bir dizi yorumla beslendi, birine tersini belirleyen gönderiler verildi ve birine bir karışım verildi. hem önceki kümeleri hem de kimsenin veya dahil olan herkesin hatalı olduğunu beyan eden yorumları içeren verilerin toplamı. Tuhaf bir şekilde, birileri daha önce birkaç yıl önce Reddit’in tavsiye yazıları içeren tamamen robotik bir versiyonunu yapmıştı, ancak bu aynı zamanda istemleri belirgin şekilde daha gerçeküstü bir etki yaratmıştı.

AYTA, kullanıcı istemlerinin ahlakını analiz etmek için AITA gönderilerinde eğitilmiş bir AI kullanan (ancak Redditor’ların değil işe alınan katılımcıların yanıtlarıyla eşleştirilen) Ask Delphi adlı daha önceki bir araca benzer. Bununla birlikte, iki sistemin çerçevesi oldukça farklıdır.

Ask Delphi, ahlaki yargılar için AI dil analizini kullanmanın birçok eksikliğini, özellikle de bir gönderinin içeriği yerine tonuna ne sıklıkla yanıt verdiğini örtük olarak vurguladı. AYTA saçmalığı konusunda daha açık. Birincisi, ilgisiz bir hakemden ziyade Reddit yorumcularının keskin tarzını taklit ediyor. Bir diğeri için, tek bir yargıda bulunmaz, bunun yerine AI’nın farklı sonuçlara nasıl yol aldığını görmenize izin verir.

“Bu proje, kötü verilerin bir yapay zekaya öğrettiği önyargı ve motive edici akıl yürütme hakkındadır.” tweetlenmiş Kolman bir duyuru dizisinde. “Önyargılı yapay zeka, birine yalnızca birbirlerine pislik diyen insanların yorumlarının gösterildiği ve bir diğerinin de yalnızca posterlere tamamen haklı olduklarını söyleyen insanların yorumlarını gördüğü bir durumun etik nüanslarını ayrıştırmaya çalışan üç modele benziyor.” kontra yakın zamanda New York Times başlıkAI metin üreteçleri tam olarak dile hakim değil; insan tarzını taklit etmede çok iyi oluyorlar – mükemmel olmasa da, eğlencenin geldiği yer burası. “En komik tepkilerden bazıları açıkça yanlış olanlar değil,” notlar Kolman. “Açıkça insanlık dışı olanlar onlar.”

Popular Articles

Latest Articles