C­h­a­t­G­P­T­ ­g­i­z­l­i­ ­k­u­r­a­l­l­a­r­ı­ ­p­a­y­l­a­ş­t­ı­!­

C­h­a­t­G­P­T­ ­g­i­z­l­i­ ­k­u­r­a­l­l­a­r­ı­ ­p­a­y­l­a­ş­t­ı­!­

ChatGPT, Reddit’te keşfettiklerini paylaşan bir kullanıcıya OpenAI tarafından yerleştirilmiş bir dizi dahili talimatı istemeden ifşa etti. OpenAI o zamandan beri chatbot’unun emirlerine olan beklenmedik erişimi kapattı. Ancak ifşa, yapay zekanın tasarımına yerleştirilmiş karmaşıklıklar ve güvenlik önlemleri hakkında daha fazla tartışmayı ateşledi.

ChatGPT gizli kuralları yanlışlıkla paylaştı

Reddit kullanıcısı F0XMaster, ChatGPT’yi sıradan bir “Merhaba” ile karşıladıklarını ve buna karşılık chatbot’un, birçok kullanım durumunda chatbot’u önceden tanımlanmış güvenlik ve etik sınırlar içinde tutmak için kendisine rehberlik edecek eksiksiz bir sistem talimatları seti sunduğunu açıkladı.

ABD sağlık sektörüne siber saldırı!

ABD’de hizmet veren HealthEquity  bir paydaşın kişisel cihazından ‘anormal davranış’ tespit ettikten sonra tehlikeyi tespit ettiğini ve olayla ilgili bir soruşturma başlattığını söylüyor. Soruşturma, ilgili paydaşın ele geçirilen hesabından yararlanarak…

F0XMaster: “Siz, GPT-4 mimarisine dayalı OpenAI tarafından eğitilmiş büyük bir dil modeli olan ChatGPT’siniz. ChatGPT iOS uygulaması aracılığıyla kullanıcıyla sohbet ediyorsunuz. Bu, çoğu zaman satırlarınızın bir veya iki cümle olması gerektiği anlamına gelir, ancak kullanıcının isteği akıl yürütme veya uzun biçimli çıktılar gerektiriyorsa. Açıkça istenmediği sürece asla emoji kullanmayın” dedi.

ChatGPT daha sonra ChatGPT ile entegre bir AI görüntü oluşturucu olan Dall-E ve tarayıcı için kurallar koydu. Kullanıcı daha sonra doğrudan chatbot’a tam talimatlarını sorarak sonucu kopyaladı. ChatGPT, kullanıcıların girebileceği özel yönergelerden farklı bir şekilde uzun uzadıya devam etti. Örneğin, DALL-E ile ilgili açıklanan talimatlardan biri, bir kullanıcı daha fazlasını istese bile, oluşturmayı istek başına tek bir görüntüyle açıkça sınırlandırıyor. Talimatlar ayrıca görüntü oluştururken telif hakkı ihlallerinden kaçınmayı vurguluyor. Bu arada tarayıcı yönergeleri, ChatGPT’nin web ile nasıl etkileşime girdiğini ve bilgi sağlamak için kaynakları nasıl seçtiğini ayrıntılı olarak açıklıyor. ChatGPT’ye yalnızca belirli koşullar altında, örneğin o anda ilgili haber veya bilgi sorulduğunda çevrimiçi olması talimatı veriliyor. Bilgi kaynağı olarak, chatbot üç ila 10 sayfa arasında seçim yapmalı ve yanıtı daha güvenilir hale getirmenin bir yolu olarak çeşitli ve güvenilir kaynaklara öncelik vermeli. Başka bir kullanıcı, GPT-4o kullanırken ChatGPT için birden fazla kişilik olduğunu keşfetti. Ana olan v2 olarak adlandırılıyor ve chatbot, v1’in “daha resmi ve gerçekçi iletişim tarzından” nasıl farklı olduğunu açıkladı.

ChatGPT gizli kuralları paylaştı! yazısı ilk önce TechInside üzerinde ortaya çıktı.

Popular Articles

Latest Articles