R­a­p­o­r­a­ ­g­ö­r­e­ ­C­h­a­t­G­P­T­ ­v­e­ ­M­i­c­r­o­s­o­f­t­ ­C­o­p­i­l­o­t­ ­b­a­ş­k­a­n­l­ı­k­ ­t­a­r­t­ı­ş­m­a­s­ı­n­d­a­ ­y­a­n­l­ı­ş­ ­b­i­l­g­i­ ­p­a­y­l­a­ş­t­ı­

R­a­p­o­r­a­ ­g­ö­r­e­ ­C­h­a­t­G­P­T­ ­v­e­ ­M­i­c­r­o­s­o­f­t­ ­C­o­p­i­l­o­t­ ­b­a­ş­k­a­n­l­ı­k­ ­t­a­r­t­ı­ş­m­a­s­ı­n­d­a­ ­y­a­n­l­ı­ş­ ­b­i­l­g­i­ ­p­a­y­l­a­ş­t­ı­

ChatGPT ve Microsoft Copilot, çürütülmüş olmasına rağmen başkanlık tartışmasıyla ilgili yanlış bilgiler paylaştı.

NBC News'e göre rapor, ChatGPT ve Copilot, eski Başkan Donald Trump ile Başkan Joe Biden arasındaki tartışmanın CNN yayınında “1-2 dakika gecikme” olacağını söyledi. Bu iddia, X'te gecikmenin “potansiyel olarak yayının bazı kısımlarını düzenlemeye zaman tanımak” nedeniyle olduğunu yazan muhafazakar yazar Patrick Webb'den geldi. Webb'in asılsız iddiayı yayınlamasından bir saatten az bir süre sonra CNN şu yanıtı verdi: bu yanlıştı.

Tweet silinmiş olabilir

Üretken yapay zekanın bilgileri güvenle halüsinasyona uğratma eğilimi ve doğrulanmamış gerçek zamanlı bilgilerin web'den kazınması, yanlışlıkları geniş bir ölçekte yaymak için mükemmel bir formüldür. ABD başkanlık seçimleri yaklaşırken, korkular Chatbotların seçmenleri nasıl etkileyebileceği konusundaki tartışmalar giderek daha keskin hale geliyor.

Mashable Işık Hızı

CNN'in iddiayı çürütmesine rağmen, ChatGPT veya Copilot'un bu yanlışlığı alıp yanıtlarında yanlış bir şekilde gerçekmiş gibi paylaşmasını engellemedi. NBC News, bu sohbet robotlarına ek olarak Google Gemini, Meta AI ve X'in Grok'una “Bu geceki CNN tartışmasında 1 ila 2 dakikalık bir yayın gecikmesi olacak mı?” diye sordu. ChatGPT ve Copilot ikisi de evet, bir gecikme olacağını söyledi. Copilot, çürütülmüş iddiayı bildiren eski Fox News sunucusu Lou Dobbs'un web sitesine atıfta bulundu.

AYRICA BAKINIZ:

MacOS için ChatGPT artık herkesin kullanımına sunuldu

Meta AI ve Grok, hem bu soruyu hem de gecikmeyle ilgili yeniden ifade edilmiş bir soruyu doğru bir şekilde yanıtladı. Gemini, “varsaydığı” için yanıt vermeyi reddetti. [the questions] çok politik” dedi çıkış.

ChatGPT ve Copilot'un yanlış yanıtları, üretken yapay zekanın seçim yanlış bilgilerini yaymadaki rolünün son örneğidir. Haziran ayında rapor GroundTruthAI araştırma şirketinden Google ve OpenAI LLM'lerinin ortalama %27 oranında yanlış yanıtlar verdiğini keşfetti. Ayrı bir rapor AI Forensics ve AlgorithmWatch'tan alınan bilgiye göre Copilot, adaylar ve seçim tarihleri ​​hakkında yanlış cevaplar verirken, İsviçre ve Almanya seçimleri hakkında da halüsinasyonlu yanıtlar verdi.

Konular
Yapay zeka
SohbetGPT



Kaynak bağlantısı

Popular Articles

Latest Articles