D­e­e­p­S­e­e­k­ ­C­o­d­e­r­,­ ­G­P­T­-­4­ ­T­u­r­b­o­’­y­u­ ­y­e­n­d­i­

D­e­e­p­S­e­e­k­ ­C­o­d­e­r­,­ ­G­P­T­-­4­ ­T­u­r­b­o­’­y­u­ ­y­e­n­d­i­

Çin’in DeepSeek Coder’ı GPT-4 Turbo’yu yenen ilk açık kaynaklı kodlama modeli oldu. Daha önce 2 trilyon İngilizce ve Çince token üzerinde eğitim almış bir ChatGPT rakibiyle manşetlere çıkan Çinli yapay zeka girişimi DeepSeek , açık kaynaklı uzman karışımı (MoE) kod dili modeli olan DeepSeek Coder V2’nin piyasaya sürüldüğünü duyurdu.

DeepSeek Coder GPT-4 Turbo’dan daha mı iyi?

Geçtiğimiz ay piyasaya sürülen bir MoE modeli olan DeepSeek-V2 üzerine inşa edilen DeepSeek Coder V2, hem kodlama hem de matematik görevlerinde üstün performans sergiliyor. 300’den fazla programlama dilini destekler ve GPT-4 Turbo, Claude 3 Opus ve Gemini 1.5 Pro dahil olmak üzere son teknoloji ürünü kapalı kaynak modellerinden daha iyi performans gösteriyor. Şirket, Llama 3-70B ve kategorideki diğer modellerin çok önünde yer alan açık bir modelin bu başarıya ilk kez ulaştığını iddia ediyor. Ayrıca DeepSeek Coder V2’nin genel muhakeme ve dil yetenekleri açısından karşılaştırılabilir performansı koruduğu da belirtiliyor.

Samsung Galaxy AI'yı akıllı ev ürünlerine entegre ediyor1

Teknoloji devi Samsung, yapay zeka teknolojisini akıllı telefonlardan sonra şimdi de akıllı ev ürünlerine entegre etmeye hazırlanıyor. Galaxy AI ile donatılmış yeni nesil telefonlarının kullanıcılarından olumlu geri dönüşler alan şirket, bu yenilikçi adımıyla…

Geçen yıl ” YGZ’nin gizemini merakla ortaya çıkarma” misyonuyla kurulan DeepSeek, yapay zeka yarışında Qwen, 01.AI ve Baidu gibi rakiplerin arasına katılan önemli bir Çinli oyuncu oldu. Aslında, lansmanından sonraki bir yıl içinde şirket, DeepSeek Coder ailesi de dahil olmak üzere birçok modeli zaten açık kaynaklı hale getirdi.

33 milyara kadar parametreye sahip orijinal DeepSeek Coder, proje düzeyinde kod tamamlama ve doldurma gibi yeteneklerle kıyaslamalarda iyi performans gösterdi, ancak yalnızca 86 programlama dilini ve 16K bağlam penceresini destekledi. Yeni V2 teklifi bu çalışmayı temel alarak dil desteğini 338’e ve bağlam penceresini 128K’ya genişleterek daha karmaşık ve kapsamlı kodlama görevlerini yerine getirmesine olanak tanıyor.

Gelişmiş dillere kod oluşturma, düzenleme ve problem çözme yeteneklerini değerlendirmek üzere tasarlanan MBPP+, HumanEval ve Aider kıyaslamalarında test edildiğinde DeepSeek Coder V2 sırasıyla 76,2, 90,2 ve 73,7 puan alarak çoğu kapalı ve açık kaynaklı modelin önünde yer aldı. GPT-4 Turbo, Claude 3 Opus , Gemini 1.5 Pro, Codestral ve Llama-3 70B dahil . Modelin matematiksel yeteneklerini değerlendirmek için tasarlanan kıyaslamalarda da benzer performans görüldü (MATH ve GSM8K).

DeepSeek Coder, GPT-4 Turbo’yu yendi yazısı ilk önce TechInside üzerinde ortaya çıktı.

Popular Articles

Latest Articles