B­i­r­ ­t­e­r­a­p­i­s­t­ ­o­l­a­r­a­k­ ­y­a­p­a­y­ ­z­e­k­a­ ­b­o­t­u­:­ ­D­a­n­ı­ş­m­a­n­l­ı­k­t­a­ ­C­h­a­t­G­P­T­ ­k­u­l­l­a­n­a­n­ ­A­B­D­ ­a­k­ı­l­ ­s­a­ğ­l­ı­ğ­ı­ ­p­l­a­t­f­o­r­m­u­ ­t­a­r­t­ı­ş­m­a­y­a­ ­y­o­l­ ­a­ç­ı­y­o­r­

B­i­r­ ­t­e­r­a­p­i­s­t­ ­o­l­a­r­a­k­ ­y­a­p­a­y­ ­z­e­k­a­ ­b­o­t­u­:­ ­D­a­n­ı­ş­m­a­n­l­ı­k­t­a­ ­C­h­a­t­G­P­T­ ­k­u­l­l­a­n­a­n­ ­A­B­D­ ­a­k­ı­l­ ­s­a­ğ­l­ı­ğ­ı­ ­p­l­a­t­f­o­r­m­u­ ­t­a­r­t­ı­ş­m­a­y­a­ ­y­o­l­ ­a­ç­ı­y­o­r­

Mehul Ruben Das12 Ocak 2023 19:45:54 HEST

Akıl sağlığı, en iyi niyetle bile uğraşılması oldukça zor bir konudur. Hem danışmana hem de süreçte güven çok önemlidir. Peki Yapay Zeka ve makine öğrenimi tüm bunlara nasıl uyuyor? Bir Amerikan akıl sağlığı platformu, yakın zamanda AI’nın, özellikle ChatGPT’nin danışmanlıkta nasıl kullanılabileceğini öğrenmek için bir deney yaptı. Ne yazık ki onlar için deney, çözdüğünden daha fazla sorun doğurdu.

Koko, akıl sağlığı konusunda yardıma ihtiyacı olan gençleri ve yetişkinleri Telegram ve Discord gibi mesajlaşma uygulamaları aracılığıyla gönüllülerle buluşturan, kar amacı gütmeyen bir akıl sağlığı platformudur. Cuma günü, Koko’nun kurucu ortağı Rob Morris Twitter’da, şirketinin 4.000 kişiye önceden bilgi vermeden, herhangi bir fark görüp görmeyeceklerini görmek için yapay zeka ile yazılmış akıl sağlığı danışmanlığı sağlamak üzere bir deney yürüttüğünü duyurdu.

Eleştirmenler, deneyi son derece etik dışı olarak nitelendirdiler çünkü Koko, danışmanlık arayan insanlardan bilgilendirilmiş onay almadı.

Koko, bir Discord sunucusu aracılığıyla çalışır, kullanıcılar Koko Cares sunucusunda oturum açar ve bir Koko botuna “Bununla ilgili en karanlık düşüncen nedir?” gibi çoktan seçmeli sorular soran doğrudan mesajlar gönderir. Daha sonra, bir kişinin endişelerini birkaç cümlelik bir metin olarak yazılmış olarak, sunucudaki başka biriyle anonim olarak paylaşır ve bu kişi, kendilerine ait kısa bir mesajla anonim olarak yanıt verebilir.

Yaklaşık 30.000 mesaja uygulanan AI deneyi sırasında, başkalarına yardım sağlayan gönüllüler, kendileri yazmak yerine OpenAI’nin ChatGPT’nin temel aldığı model olan GPT-3 büyük dil modeli tarafından otomatik olarak oluşturulan bir yanıtı kullanma seçeneğine sahipti.

Deneyden sonra Morris, Twitter’da yaptıkları deneyi açıklayan bir ileti dizisi yayınladı. Burası Koko için işlerin çirkinleştiği yer. Morris, insanların AI tarafından yazıldığını öğrenene kadar yapay zeka tarafından hazırlanmış yanıtlara yüksek puan verdiğini ve bu da deneyin en az bir aşamasında bilgilendirilmiş onayın önemli bir eksikliğini öne sürdüğünü söylüyor.

Morris, deneyi etik dışı olmakla eleştiren, bilgilendirilmiş onam eksikliğiyle ilgili endişeleri dile getiren ve bir Kurumsal İnceleme Kurulunun (KİK) deneyi onaylayıp onaylamadığını soran birçok yanıt aldı.

AI’yı bir terapist olarak kullanma fikri yeni olmaktan çok uzak, ancak Koko’nun deneyi ile tipik AI terapi yaklaşımları arasındaki fark, hastaların tipik olarak gerçek bir insanla konuşmadıklarını bilmeleridir.

Koko söz konusu olduğunda, platform, doğrudan sohbet formatı yerine, bir insan aracının mesajı göndermeden önce önizlemesini yapabileceği hibrit bir yaklaşım sağladı. Yine de, bilgilendirilmiş onay olmaksızın eleştirmenler, Koko’nun savunmasız insanları zararlı veya suiistimal edici araştırma uygulamalarından korumak için tasarlanmış hakim etik normları ihlal ettiğini iddia ediyor.

Popular Articles

Latest Articles