M­i­c­r­o­s­o­f­t­,­ ­e­t­k­i­ ­y­a­r­a­t­a­n­ ­k­ü­ç­ü­k­ ­b­i­r­ ­y­a­p­a­y­ ­z­e­k­a­ ­m­o­d­e­l­i­ ­o­l­a­n­ ­P­h­i­-­3­ ­M­i­n­i­­y­i­ ­p­i­y­a­s­a­y­a­ ­s­ü­r­d­ü­

M­i­c­r­o­s­o­f­t­,­ ­e­t­k­i­ ­y­a­r­a­t­a­n­ ­k­ü­ç­ü­k­ ­b­i­r­ ­y­a­p­a­y­ ­z­e­k­a­ ­m­o­d­e­l­i­ ­o­l­a­n­ ­P­h­i­-­3­ ­M­i­n­i­­y­i­ ­p­i­y­a­s­a­y­a­ ­s­ü­r­d­ü­

Microsoft hafifliğinin yeni versiyonu olan Phi-3 Mini'yi piyasaya sürdü yapay zeka Belirli görevler için tasarlanmış model.

Araştırma makalesine göre yayınlanan Bu hafta başında Phi-3 Mini'nin 3,8 milyar parametresi var; bu, OpenAI gibi diğer modellerden çok daha az GPT-4bir akıllı telefona yerleştirilebilecek kadar küçük hale getiriyor. OpenAI GPT-4'ün kaç parametresi olduğu paylaşılmadı ancak bir trilyonun üzerinde parametreye sahip olduğuna inanılıyor Semafor başına.

AYRICA BAKINIZ:

ChatGPT Plus sıfır gün güvenlik açıklarından yararlanabilir; bu sizi neden ilgilendirsin?

Geleneksel yapay zeka modelleri çok büyük miktarda bilgi işlem gücü gerektirir; bu da çok pahalıdır ve büyük karbon ayak izi. Microsoft ve Google gibi şirketler, ortak görevleri yerine getiren daha küçük ve hafif modeller üzerinde çalışıyor; bu, modellerini operasyonel anlamda barındırmayı daha sürdürülebilir hale getirecek ve sektörün yoğun bir şekilde eğildiği akıllı telefonlar için daha uygun hale getirecek. Samsung üretken yapay zekaya her şeyiyle odaklanıyoruz Google, Galaxy cihazlarına yönelik bir dizi özellik ile aynı zamanda üretken özellikler de ekliyor AI özellikleri Pixel serisine eklendive Apple'ın bile bazı şeyler yapması bekleniyor büyük yapay zeka duyuruları için iOS 18.

Parametreler, modellerin karmaşıklığın üstesinden nasıl gelebileceğiyle ilgilidir; dolayısıyla ne kadar çok parametre olursa, model çok büyük ve incelikli istekleri karşılama konusunda o kadar yetenekli olur. Ancak ortalama bir kullanıcının çeviri yapmak, e-posta taslağı hazırlamaya yardım etmek veya yerel restoran aramak gibi bir AI modelinden ihtiyaç duyacağı günlük görevler için daha küçük ve hafif bir modelin yeterli olduğu varsayılmaktadır.

Mashlanabilir Işık Hızı

Phi-3 Mini, birkaç istisna dışında Meta'nın açık kaynaklı modeli Llama 3 ve OpenAI'nin GPT-3.5'ine karşı ortak kıyaslamalarda benzer puanlar aldı. Llama 3'ü geride bırakarak doğal dil anlama (MMLU) ve sağduyulu akıl yürütmede (HellaSwag) GPT 3,5'in hemen altında puan aldı ve aritmetik akıl yürütmede (GSM8K) her iki modeli de geride bıraktı. Makalede belirtildiği gibi, önemsiz şeyler ve “gerçek bilgi” açısından daha düşük puan aldı, ancak araştırmacılar “bu tür zayıflıkların bir arama motoruyla artırılarak çözülebileceğine” inanıyor, yani model internete bağlandığında bu o kadar da zor olmayacak. sorun.

Araştırmacılar Phi-3 Mini'yi, yüksek kaliteli eğitim bilgisi standartlarını karşılayan “yoğun şekilde filtrelenmiş web verilerinin” yanı sıra, her şeyi web'den kazımanın bir modeli eğitmenin en iyi yolu olduğu fikrine meydan okuyan sentetik verilerden oluşan bir kombinasyon üzerinde eğitti. Model ayrıca yatma vakti hikayeleri üzerine de eğitildi. GünlükAIBu aslında insan beyninin çalışma şeklini anlamak için oldukça mantıklı. Buradaki fikir, seçilmiş verilerle nicelik yerine kaliteyi tercih etmek, böylece gücünü korurken daha az parametreyle çalışabilmesidir.

Phi-3 Mini artık HuggingFace, Azure ve Ollama'da mevcut.

Konular
Yapay zeka
Microsoft



Kaynak bağlantısı

Popular Articles

Latest Articles