I­n­t­e­l­ ­v­e­ ­d­i­ğ­e­r­l­e­r­i­,­ ­k­u­r­u­l­u­ş­l­a­r­ ­i­ç­i­n­ ­a­ç­ı­k­,­ ­ü­r­e­t­k­e­n­ ­y­a­p­a­y­ ­z­e­k­a­ ­a­r­a­ç­l­a­r­ı­ ­o­l­u­ş­t­u­r­m­a­y­a­ ­k­a­r­a­r­l­ı­d­ı­r­

I­n­t­e­l­ ­v­e­ ­d­i­ğ­e­r­l­e­r­i­,­ ­k­u­r­u­l­u­ş­l­a­r­ ­i­ç­i­n­ ­a­ç­ı­k­,­ ­ü­r­e­t­k­e­n­ ­y­a­p­a­y­ ­z­e­k­a­ ­a­r­a­ç­l­a­r­ı­ ­o­l­u­ş­t­u­r­m­a­y­a­ ­k­a­r­a­r­l­ı­d­ı­r­

Kuruluş için tasarlanmış üretken yapay zeka (örneğin raporları, elektronik tablo formüllerini vb. otomatik olarak tamamlayan yapay zeka) birlikte çalışabilir mi? Cloudera ve Intel'in de aralarında bulunduğu bir grup kuruluşun yanı sıra, sayıları giderek artan açık kaynak çalışmalarını destekleyen ve sürdüren kar amacı gütmeyen kuruluş Linux Vakfı da bunu öğrenmeyi amaçlıyor.

Linux Vakfı bugün duyuruldu açık, çok sağlayıcılı ve birleştirilebilir (yani modüler) üretken yapay zeka sistemlerinin geliştirilmesini teşvik eden bir proje olan Kurumsal Yapay Zeka için Açık Platformun (OPEA) lansmanı. Linux Vakfı'nın yapay zeka ve veriyle ilgili platform girişimlerine odaklanan LFAI ve Veri organizasyonu kapsamında OPEA'nın hedefi, “sertleştirilmiş”, “ölçeklenebilir” üretken yapay zeka sistemlerinin piyasaya sürülmesinin önünü açmak olacak. LFAI ve Veri genel müdürü İbrahim Haddad bir basın açıklamasında, ekosistemdeki en iyi açık kaynak yeniliği olduğunu söyledi.

Haddad, “OPEA, teknoloji yığınlarının ön saflarında yer alan ayrıntılı, şekillendirilebilir bir çerçeve oluşturarak yapay zekada yeni olanakların kilidini açacak” dedi. “Bu girişim, tarafsız ve açık bir yönetişim modeli altında yapay zeka ve veri toplulukları içinde açık kaynak inovasyonunu ve iş birliğini teşvik etme misyonumuzun bir kanıtıdır.”

Cloudera ve Intel'e ek olarak, Linux Vakfı'nın bir tür kuluçka programı olan Sandbox Projelerinden biri olan OPEA, üyeleri arasında Intel, IBM'in sahip olduğu Red Hat, Hugging Face, Domino Data Lab, MariaDB ve VMWare gibi kurumsal ağır topları da sayıyor.

Peki birlikte tam olarak ne inşa edebilirler? Haddad, yapay zeka iş yüklerinin farklı donanım bileşenleri üzerinde çalışmasını sağlayan yapay zeka araç zincirleri ve derleyicileri için “optimize edilmiş” desteğin yanı sıra erişimle artırılmış nesil (RAG) için “heterojen” işlem hatları gibi birkaç olasılığa işaret ediyor.

RAG, üretken yapay zekanın kurumsal uygulamalarında giderek daha popüler hale geliyor ve bunun nedenini anlamak zor değil. Çoğu üretken yapay zeka modelinin yanıtları ve eylemleri, eğitildikleri verilerle sınırlıdır. Ancak RAG ile bir modelin bilgi tabanı, orijinal eğitim verilerinin dışındaki bilgileri de içerecek şekilde genişletilebilir. RAG modelleri, bir yanıt oluşturmadan veya bir görevi gerçekleştirmeden önce, özel şirket verileri, kamuya açık bir veritabanı veya ikisinin bir birleşimi biçiminde olabilen bu dış bilgilere referans verir.

RAG modellerini açıklayan bir diyagram.

Intel kendi başına birkaç ayrıntı daha sundu basın bülteni:

Şirketler kendin yap yaklaşımıyla karşı karşıya [to RAG] çünkü kuruluşların açık ve birlikte çalışabilen ve hızlı bir şekilde pazara çıkmalarına yardımcı olan RAG çözümlerini seçmelerine ve dağıtmalarına olanak tanıyan bileşenler arasında fiili standartlar yoktur. OPEA, çerçeveler, mimari planlar ve referans çözümler de dahil olmak üzere bileşenleri standartlaştırmak için sektörle işbirliği yaparak bu sorunları çözmeyi amaçlıyor.

Değerlendirme aynı zamanda OPEA'nın ele aldığı konuların önemli bir parçası olacaktır.

GitHub'unda depoOPEA, üretken yapay zeka sistemlerini dört eksende derecelendirmek için bir değerlendirme tablosu önermektedir: performans, özellikler, güvenilirlik ve “kurumsal düzeyde” hazırlık. Verim OPEA'nın tanımına göre bu, gerçek dünyadaki kullanım durumlarından elde edilen “kara kutu” kriterleriyle ilgilidir. Özellikler bir sistemin birlikte çalışabilirliğinin, dağıtım seçeneklerinin ve kullanım kolaylığının değerlendirilmesidir. Güvenilirlik, bir yapay zeka modelinin “sağlamlığı” ve kaliteyi garanti etme becerisine bakar. Ve kurumsal hazırlık Önemli sorunlar olmadan bir sistemi kurup çalıştırmaya yönelik gereksinimlere odaklanır.

Intel'in açık kaynak stratejisi direktörü Rachel Roumeliotis, diyor OPEA'nın, değerlendirme tablosuna dayalı testler sunmak ve talep üzerine üretken yapay zeka dağıtımlarının değerlendirmelerini ve derecelendirmesini sağlamak için açık kaynak topluluğuyla birlikte çalışacağını söyledi.

OPEA'nın diğer çabaları şu anda biraz havada. Ancak Haddad, Meta'nınkine benzer şekilde açık model geliştirme potansiyelini ortaya çıkardı. Lama ailesini genişletiyor ve Databricks'in DBRX. Bu amaçla Intel, OPEA deposunda, Xeon 6 ve Gaudi 2 donanımı için optimize edilmiş, üretken yapay zeka destekli bir sohbet robotu, belge özetleyici ve kod oluşturucu için referans uygulamalarına zaten katkıda bulundu.

Artık OPEA üyeleri, kurumsal üretken yapay zeka için araçlar oluşturmaya çok açık bir şekilde yatırım yapıyor (ve bu konuda kendi çıkarlarını düşünüyor). Cloudera yakın zamanda ortaklıklar başlattı bulutta bir “Yapay Zeka ekosistemi” olarak sunduğu şeyi yaratmak. Domino'nun sunduğu uygulama paketi İş dünyasında ileriye yönelik üretken yapay zeka oluşturmak ve denetlemek için. Kurumsal yapay zekanın altyapı yönüne yönelik VMWare ise geçtiğimiz Ağustos ayında kullanıma sunuldu yeni “özel yapay zeka” bilgi işlem ürünleri.

Soru şu: OPEA kapsamında bu satıcılar Aslında Çapraz uyumlu yapay zeka araçları oluşturmak için birlikte çalışmak ister misiniz?

Bunu yapmanın bariz bir faydası var. Müşteriler ihtiyaçlarına, kaynaklarına ve bütçelerine bağlı olarak birden fazla satıcıdan memnuniyetle yararlanacaklardır. Ancak tarih, satıcıya bağımlı kalmanın çok kolay olduğunu gösterdi. Umarız buradaki nihai sonuç bu değildir.

Kaynak bağlantısı

Popular Articles

Latest Articles