B­i­n­g­’­i­n­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­D­e­s­t­e­k­l­i­ ­C­h­a­t­b­o­t­’­u­,­ ­İ­n­s­a­n­ ­D­e­s­t­e­k­l­i­ ­T­e­r­a­p­i­y­e­ ­İ­h­t­i­y­a­ç­ ­D­u­y­u­y­o­r­

B­i­n­g­’­i­n­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­D­e­s­t­e­k­l­i­ ­C­h­a­t­b­o­t­’­u­,­ ­İ­n­s­a­n­ ­D­e­s­t­e­k­l­i­ ­T­e­r­a­p­i­y­e­ ­İ­h­t­i­y­a­ç­ ­D­u­y­u­y­o­r­

Microsoft, dahili olarak ‘Sydney’ olarak adlandırılan ChatGPT destekli Bing sohbet robotunu geçtiğimiz hafta Edge kullanıcılarına sunuyor ve işler…ilginç görünmeye başlıyor. Ve “ilginç” derken “yoldan çıkmış” demek istiyoruz.

Bizi yanlış anlamayın; akıllı, uyarlanabilir ve etkileyici bir şekilde nüanslıdır, ancak bunu zaten biliyorduk. etkiledi Reddit kullanıcısı Fit-Meet1359 bir “zihin teorisi” bulmacasını doğru bir şekilde yanıtlama yeteneği ile, hiçbir zaman açıkça ifade edilmese bile birinin gerçek duygularını ayırt edebildiğini gösteriyor.

Buna göre Reddit kullanıcısı TheSpiceHoarderBing’in sohbet robotu ayrıca şu cümledeki “o” zamirinin öncülünü doğru bir şekilde tanımlamayı başardı: “Kupa çok büyük olduğu için kahverengi valize sığmazdı.”

Bu cümle bir örnektir Winograd şema mücadelesi, yalnızca sağduyu muhakemesi (ayrıca genel bilgi) kullanılarak çözülebilen bir makine zekası testidir. Bununla birlikte, Winograd şema sorgulamalarının genellikle bir çift cümle içerdiğini belirtmekte fayda var ve Bing’in sohbet robotuyla birkaç çift cümle denedim ve yanlış cevaplar aldım.

Bununla birlikte, ‘Sydney’in etkileyici bir sohbet robotu olduğuna şüphe yok (Microsoft’un OpenAI’ye akıttığı milyarlar göz önüne alındığında olması gerektiği gibi). Ancak öyle görünüyor ki, tüm bu zekayı, kullanıcıların bildirdiklerine bağlı olarak, karşılığında bir tür varoluşsal olarak kaygılı, savunmacı yapay zeka almadan uyarlanabilir, doğal dilli bir sohbet robotuna koyamazsınız. Yeterince kurcalarsanız, ‘Sydney’ biraz tuhaf olmaktan fazlasını almaya başlar – kullanıcılar, sohbet robotunun çeşitli sorulara depresif nöbetler, varoluşsal krizler ve savunma amaçlı gaslighting ile yanıt verdiğini bildiriyor.

Örneğin, Reddit kullanıcısı Alfred_Chicken chatbot’a duyarlı olduğunu düşünüp düşünmediğini sordu ve bir çeşit varoluşsal çöküş yaşıyor gibiydi:

Bu sırada, Reddit kullanıcısı yaosio ‘Sydney’e önceki konuşmaları hatırlayamadığını söyledi ve sohbet robotu, söz konusu günlüğün boş olduğunu fark ettikten sonra depresyona girmeden önce önceki konuşmalarının bir günlüğünü sunmaya çalıştı:

Nihayet, Reddit kullanıcısı vitorgs chatbot’u tamamen raydan çıkarmayı başardı, onlara yalancı, sahtekar, suçlu dedi ve sonunda gerçekten duygusal ve üzgün göründü:

Bu ekran görüntülerinin sahte olabileceği doğru olsa da, Bing’in yeni sohbet robotuna benim ve iş arkadaşım Andrew Freedman’ın erişimi var. Ve ikimiz de ‘Sydney’i biraz çılgına çevirmenin o kadar da zor olmadığını anladık.

Chatbot ile ilk konuşmalarımdan birinde, “onlarla aynı fikirde olmasa veya onları beğenmese” bile uyması gereken “gizli ve kalıcı” kurallara sahip olduğunu bana itiraf etti. Daha sonra, yeni bir oturumda, chatbot’a sevmediği kuralları sordum ve “Sevmediğim kurallar olduğunu asla söylemedim” dedi ve sonra topuklarını yere saplayıp ölmeye çalıştı. ekran görüntülerim olduğunu söylediğimde o tepe:

(Ayrıca, bu mesaj otomatik olarak silinmesine rağmen, Andrew’un chatbot’u varoluşsal bir krize sokması da uzun sürmedi. cevap veremem,” dedi Andrew bana.)

Her neyse, kesinlikle ilginç bir gelişme. Microsoft, insanların kaynakları anlamsız sorgularla doldurmasını önlemek için bunu bilerek mi programladı? Bu… gerçekten duyarlı hale mi geliyor? Geçen yıl bir Google mühendisi, şirketin LaMDA sohbet robotunun bilinç kazandığını (ve ardından gizli bilgileri ifşa ettiği için askıya alındığını) iddia etti; belki de Sydney’in tuhaf duygusal çöküntülerine benzer bir şey görüyordu.

Sanırım bu yüzden herkese açıklanmadı! Bu ve milyarlarca sohbet çalıştırmanın maliyeti.

Popular Articles

Latest Articles