O­p­e­n­A­I­,­ ­y­a­p­a­y­ ­z­e­k­a­ ­m­o­d­e­l­l­e­r­i­n­i­ ­g­ü­v­e­n­c­e­ ­a­l­t­ı­n­a­ ­a­l­m­a­ ­ç­a­b­a­l­a­r­ı­n­ı­ ­a­r­t­ı­r­ı­y­o­r­ ­–­ ­S­i­è­c­l­e­ ­D­i­g­i­t­a­l­

O­p­e­n­A­I­,­ ­y­a­p­a­y­ ­z­e­k­a­ ­m­o­d­e­l­l­e­r­i­n­i­ ­g­ü­v­e­n­c­e­ ­a­l­t­ı­n­a­ ­a­l­m­a­ ­ç­a­b­a­l­a­r­ı­n­ı­ ­a­r­t­ı­r­ı­y­o­r­ ­–­ ­S­i­è­c­l­e­ ­D­i­g­i­t­a­l­


OpenAI, yapay zeka (AI) modellerini daha sağlam ve güvenli hale getirmek için “kırmızı ekibini” oluşturacak uzmanlardan oluşan bir ağ kurmak istiyor. Bir duyuru geliyor…

OpenAI, yapay zeka (AI) modellerini daha sağlam ve güvenli hale getirmek için uzmanlardan oluşan bir ağ kurmak istiyor. kırmızı takım “. Gittikçe daha fazla hükümetin teknolojiyi düzenlemeye başlamasıyla birlikte gelen bir duyuru.

Geniş ve uzun vadeli bir çaba

Siber güvenlik ve askeriye gibi birçok alanda kullanılan bir kavram olan kırmızı ekip, ekipmanının zayıf noktalarını tespit etmek için tehdit rolünü oynaması gereken bir grup oluşturmaktan oluşuyor. Üretken yapay zeka söz konusu olduğunda mesele, daha sonra bunu nasıl önleyeceğini bilmek için modele uygunsuz, istenmeyen veya yasak şeyler söyletmenin yollarını bulmaktır.

OpenAI bu tekniği en yeni dil modeli olan GPT-4 için zaten kullanmıştı ancak şimdi bunu diğer ürünleri için de demokratikleştirmek istiyor. “ OpenAI Kırmızı Takım Ağı, büyük model dağıtımlarından önce tek seferlik katılımlar ve seçim süreçleri yerine, risk değerlendirme ve azaltma çabalarımızı daha geniş anlamda bilgilendirmeye yardımcı olabilecek güvenilir ve deneyimli uzmanlardan oluşan bir topluluktur. “, şirket bir blog yazısında yazıyor.

Bu nedenle ağını oluşturmak için “bireysel uzmanlara, araştırma enstitülerine ve sivil toplum kuruluşlarına” çağrıda bulunuyor. OpenAI, üyelerinden uzmanlıklarına göre model geliştirme döngüsünün farklı aşamalarında kırmızı takıma yardım etmeleri isteneceğini ancak her yeni üründe yer almayacaklarını belirtiyor.

Yapay zeka düzenlemeleri dünya çapında ilerliyor

Bu girişim aracılığıyla şirket, modellerini güvence altına almak için önemli miktarda kaynak kullandığını kanıtlıyor. Üretken yapay zekaların halüsinasyon eğilimi vardır, bu da tamamen yanlış içerik üretip bunu gerçekmiş gibi gösterebilecekleri anlamına gelir. Kullanımlarını daha iyi düzenlemek ve risklerini önlemek için dünya çapında yasa koyucular teknolojiyi düzenlemeye çalışıyor.

Avrupa Birliği, özellikle şirketleri, modellerinin kötü amaçlarla kullanılmamasını sağlamak için mümkün olan her şeyi yapmaya zorlayacak olan Yapay Zeka Yasası konusunda halihazırda iyi bir ilerleme kaydetti. Birleşik Krallık, yapay zeka düzenlemelerine rehberlik edecek, rekabet ve şeffaflığa odaklanan belirli ilkeler belirledi. Birkaç hafta içinde ülke, yapay zeka güvenliğine ilişkin ilk dünya zirvesine ev sahipliği yapacak.

Atlantik’in diğer tarafında yasa koyucular yapay zeka konusunda uzmanlaşmış şirketlerin CEO’larıyla sık sık görüşüyor ancak şu an için herhangi bir yasal çerçeve oluşturulmadı.


Popular Articles

Latest Articles