I­n­t­e­l­’­i­n­ ­y­e­n­i­ ­ç­i­p­l­e­r­i­ ­y­a­p­a­y­ ­z­e­k­a­ ­e­v­r­e­n­i­n­d­e­ ­N­v­i­d­i­a­ ­i­l­e­ ­r­e­k­a­b­e­t­ ­e­d­e­b­i­l­i­r­ ­m­i­?­ ­ ­–­ ­B­i­l­g­i­s­a­y­a­r­ ­D­ü­n­y­a­s­ı­

I­n­t­e­l­’­i­n­ ­y­e­n­i­ ­ç­i­p­l­e­r­i­ ­y­a­p­a­y­ ­z­e­k­a­ ­e­v­r­e­n­i­n­d­e­ ­N­v­i­d­i­a­ ­i­l­e­ ­r­e­k­a­b­e­t­ ­e­d­e­b­i­l­i­r­ ­m­i­?­ ­ ­–­ ­B­i­l­g­i­s­a­y­a­r­ ­D­ü­n­y­a­s­ı­

Bunun tersine Intel’in hedefi, özellikle PC AI (Intel Core Ultra) başta olmak üzere uç ve cihaza odaklanarak “Yapay Zekayı her yerde” mümkün kılmaktır. Heyden, veri merkezi/bulut GPU’larının hâlâ hızla genişleyen bir pazar olması nedeniyle NVIDIA’nın bu alana daha az odaklandığını belirtti.

Daha küçük LLM’ler Intel için bir açılış mı?

genAI araçları için kullanılan LLM’ler, büyük miktarda işlemci döngüsü tüketebilir ve kullanımı maliyetli olabilir. Daha küçük, daha endüstri veya iş odaklı modeller genellikle iş ihtiyaçlarına göre uyarlanmış daha iyi sonuçlar sağlayabilir ve birçok son kullanıcı kuruluşu ve satıcı, gelecekteki yönelimlerinin bu yönde olduğunun sinyalini verdi.

“Bilgi [is] daha küçük yüksek lisans fırsatları konusunda oldukça iyimser ve [is] bunu ‘Her Yerde Yapay Zeka’ stratejilerinin içine yerleştirmeyi amaçlıyorlar. ABI Research, yapay zekanın her yerde etkinleştirilmesinin daha düşük güç tüketimi, daha az maliyetli gen yapay zeka modelleri ve güç açısından verimli, düşük TCO donanımı gerektirdiğini kabul ediyor” dedi Hayden.



genel-13

Popular Articles

Latest Articles