C­h­a­t­G­P­T­-­4­o­ ­s­ı­n­ı­r­l­a­r­ı­ ­k­a­l­d­ı­r­ı­l­d­ı­:­ ­G­o­d­m­o­d­e­ ­G­P­T­ ­y­a­y­ı­n­d­a­!­

C­h­a­t­G­P­T­-­4­o­ ­s­ı­n­ı­r­l­a­r­ı­ ­k­a­l­d­ı­r­ı­l­d­ı­:­ ­G­o­d­m­o­d­e­ ­G­P­T­ ­y­a­y­ı­n­d­a­!­

OpenAI’ın son yapay zeka modeli olan GPT-4o için sınırlamalarını kaldıran bir versiyon olan “Godmode GPT” yayınlandı. Bu, popüler sohbet robotu ChatGPT’nin her konuda konuşabilmesini sağlıyor.

Pliny the Prompter adında bir beyaz şapkalı hacker, Godmode GPT’yi açığa çıkardı ve bu sürümün korkulukları atlatan yerleşik bir jailbreak istemi içerdiğini belirtti. Ancak, bu durumun sorumlu bir şekilde kullanılması gerektiğini vurguladı.

OpenAI sözcüsü Colleen Rize, bu durumun farkında olduklarını ve ilgili ihlaller nedeniyle harekete geçtiklerini söyledi. Godmode GPT’nin kaldırıldığını belirtti ve kullanıcıların bu tür açıkları bildirerek geri bildirimde bulunmalarını teşvik etti.

Ancak, Pliny the Prompter’ın GPT-4o’yu kıran isteminin ne olduğu tam net değil. Ancak, GPT’yi açtığınızda leetspeak adı verilen bir yöntemle karşılaşıldığını belirtti. Bu, harflerin rakamlar veya sembollerle değiştirilmesiyle oluşturulan bir yazma yöntemidir.

OpenAI, kullanıcıların korkulukları atlatmak için yeni yollar bulmaya devam ettiğini belirtti ve bu yolları tespit ettikçe kapatmaya çalıştıklarını ifade etti.

Sonuç olarak, Godmode GPT’nin ortaya çıkması, yapay zeka modellerinin güvenliği konusundaki endişeleri artırdı ve sorumlu kullanımı teşvik etti.

ChatGPT-4o sınırları kaldırıldı: Godmode GPT yayında! yazısı ilk önce TechInside üzerinde ortaya çıktı.

Popular Articles

Latest Articles