O­p­e­n­A­I­ ­G­P­T­-­4­o­’­ı­ ­t­a­n­ı­t­t­ı­:­ ­A­r­t­ı­k­ ­d­a­h­a­ ­a­k­ı­c­ı­ ­ü­s­t­e­l­i­k­ ­d­u­y­g­u­l­a­r­ı­n­ı­z­ı­ ­d­a­ ­t­a­h­m­i­n­ ­e­d­e­b­i­l­i­y­o­r­…­

O­p­e­n­A­I­ ­G­P­T­-­4­o­’­ı­ ­t­a­n­ı­t­t­ı­:­ ­A­r­t­ı­k­ ­d­a­h­a­ ­a­k­ı­c­ı­ ­ü­s­t­e­l­i­k­ ­d­u­y­g­u­l­a­r­ı­n­ı­z­ı­ ­d­a­ ­t­a­h­m­i­n­ ­e­d­e­b­i­l­i­y­o­r­…­

OpenAI, yeni yapay zeka modeli “GPT-4o”yu tanıttı. Bugüne dek var olan ChatGPT modellerinden farklı olarak bu yeni model, ses, görüntü ve metin üzerinden gerçek zamanlı mantık yürütebiliyor, sorularınızı yanıtlıyor hatta zaman zaman sizinle flört ediyor…

Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN

Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx

— OpenAI (@OpenAI) May 13, 2024

OpenAI tarafından yapılan açıklamada, GPT-4o’nun daha doğal “insan-bilgisayar etkileşimi”ne doğru atılmış bir adım olduğu belirtilerek, modelin herhangi bir metin, ses ve görüntü kombinasyonundan oluşan girdilerden çıktı ürettiği aktarıldı.

GPT-4o, ses girişlerine verdiği yanıt süresinin, insan tepki süresine benzer olduğu vurgulandı. Ayrıca, modelin özellikle görüntü ve ses anlama konusunda önceki modellere göre fark yarattığı belirtiliyor.

Tanıtım etkinliğinde, modelin ücretsiz olarak sunulacağı ve ücretli kullanıcıların daha fazla kapasiteye sahip olacağı açıklandı. Yeni modelin birkaç hafta içinde ChatGPT’de kullanıma sunulması planlanıyor.

Popular Articles

Latest Articles