E­t­i­k­,­ ­s­a­n­a­y­i­l­e­ş­m­e­ ­v­e­ ­g­ü­v­e­n­l­i­k­,­ ­y­e­ş­i­l­ ­A­I­…­Y­a­p­a­y­ ­z­e­k­a­d­a­ ­2­0­2­2­ ­t­r­e­n­d­l­e­r­i­

E­t­i­k­,­ ­s­a­n­a­y­i­l­e­ş­m­e­ ­v­e­ ­g­ü­v­e­n­l­i­k­,­ ­y­e­ş­i­l­ ­A­I­…­Y­a­p­a­y­ ­z­e­k­a­d­a­ ­2­0­2­2­ ­t­r­e­n­d­l­e­r­i­


İklim değişikliğinin hızlanması ve yapay zekanın karbon emisyonlarına katkısının farkındalığı karşısında iki kavram öne çıkıyor: Yeşil AI ve yeşil için AI.

İlki, daha az enerji ve kaynak tüketen ve kendi karbon etkisini azaltmayı hedefleyen bir yapay zekayı teşvik ediyor. Bunu yapmak için içerik oluşturucular daha az karmaşık modeller kullanabilir, model sürücülerinin sayısını sınırlayabilir ve hatta teknik performans ile enerji tüketimi arasında bir uzlaşmaya varabilir.

İkinci konsept olan “Yeşil için AI”, sürdürülebilir kullanım için ve çevrenin hizmetinde geliştirilen yapay zekayı nitelendiriyor: yakıt tasarrufu için araba yolculuklarının optimizasyonu, aşırı iklim olaylarının tahmini ve etkilerinin öngörülmesi, vb. Bu nedenle yapay zekanın bu uygulamaları, ekonomik sektörlerin çoğunda sürdürülebilir geçişi kolaylaştırmayı mümkün kılıyor.

Bu iki kavram nihayetinde aynı ihtiyacı karşılamaktadır ki bu – acil – karbon emisyonlarını azaltma çabalarına katılma ihtiyacı. 2022’de, yapay zeka algoritmalarının yaratıcılarının bunları entegre etmesi şart: algoritmanın amacı ve kullanışlılığı hakkında yukarı yönde bir yansıma başlatarak, ardından geliştirme için tutumlu AI’yı tercih ederek ve üretime sokarak.

Başarılı POC’den sanayileşmeye geçiş

Makine Öğrenimi algoritmalarının oluşturulması konusunda şirketler tarafında olgunlukta güçlü bir artış görürsek, üretimdeki algoritma sayısındaki artışın gözle görülür bir etkisi olmaz: POC/endüstriyel algoritma oranı, bazı şirketler için düşük, hatta sıfır kalır. Algoritmaların endüstrileşmesini kolaylaştırmak için, büyük dijital oyuncular DevOps tekniklerini, bunları Makine Öğrenimine uygulamak ve MLOps vermek için yavaş yavaş uyarladılar.

Bir Makine Öğrenimi modelinin üretime alınması, modelin tasarımından mevcut altyapı ve süreçlere entegrasyonuna kadar dikkate alınması gereken farklı adımları içerir. Modelin üretimde düzgün çalışması için gerekli unsurlar arasında, verilerin elde edilmesi ve temizlenmesi, eğitimin otomasyonu, deneylerin izlenmesi, model kaymasının konuşlandırılması veya izlenmesi yer almaktadır.

Geçen yıl zaten belirlenen MLOps, şirketlerin yakalaması için bir fırsat sunmaya devam ediyor: Veri mühendisliğindeki teknik zorluklar ve beceri kıtlığı ve bir Makine Öğrenimi modelini üretime sokmak için DevOps dikkate alınmalıdır. Sektörden bağımsız olarak müşteriler arasında üretimde yapay zeka talebindeki artış kötü bir üne sahip ve bu eğilimin 2022’de hızlanması bekleniyor.

Üretimde yapay zeka çözümlerini önleyin ve koruyun

Üretime alınan ve dolayısıyla kullanıcılar tarafından erişilebilir olan yapay zeka çözümlerinin sayısındaki artış, bu araçlara yönelik saldırı ve saldırılarda artışa neden oluyor. Bu saldırılar, girdiyi değiştirerek bir modeli kandırabilir: örneğin, bir ikili metin sınıflandırıcısı “ye bir çocuk” cümlesini “kötü” olarak değerlendirirken, “ye bir çocuğu çok acıktım çünkü” “iyi” olarak kabul edilebilir. Buna algoritmanın korunmama olasılığını da ekleyin: daha sonra eğitildiği verileri ortaya çıkarabilir ve kişisel veriler söz konusu olduğunda ciddi sonuçlar doğurabilir.

Bu tehditlerle başa çıkmak için üç önlem önerilir: (1) yeni saldırıları belirlemek ve konunun farkında olmak için teknoloji izlemesi yapın, (2) bir AI ürünü oluştururken, potansiyel tehditlerin ve güvenlik kısıtlamalarının tanımlanmasını kapsam belirlemeden entegre edin. (modelin ve çözümü barındıran altyapının, erişim tipinin, …) ve (3) modelin geliştirilmesi sırasında, farklı gizlilik veya bilgi damıtması gibi eğitim verilerini güvenlik koruma tekniklerini kullanın. Son olarak, başka bir önleyici yöntem, üretime geçmeden önce çözümün güvenlik açıklarını belirlemek için sistematik olarak sağlamlık testleri uygulamaktır.

Tüm bu parametreleri göz önünde bulundurduğumuzda, yapay zeka algoritmalarının üretime alınmadan önce güvenliğini ve korunmasını öngörmekten büyük fayda sağladığımız açıktır: bu, sapmaları ve gizli verilerin sızmasını önler.

Kullanıcı güvenini kazanmak için şeffaf yapay zekaya öncelik verin

2022’de güvenilir yapay zeka, bir dizi teorik değer ve kavramdan, yapay zeka yaratıcılarının algoritmalarının tasarımına entegre etmesi gereken operasyonel bir kaldıraca doğru ilerliyor. Tasarım gereği güvenilir bir yapay zeka, modellerin açıklanabilirliği, kararların yorumlanabilirliği, aynı zamanda önyargıların tespiti ve yönetimi veya müdahale olasılığı, insan (döngüdeki insan) konularını yaşam döngüsü boyunca entegre ederek tasarlanmalıdır.

Bu değerlerin operasyonel entegrasyonuyla ilgili bu zorluğun üstesinden gelmek için, sorumlu yapay zeka dijitalin temel direklerinden biri haline geldiğinden, kazanacak her şeye sahip olan şirketler için ekiplerin kültürlenmesi ve eğitilmesi konusunda gerçek bir zorluk vardır.

Kara kutu AI’dan şeffaf ve açıklanabilir AI’ya geçişte herkes kazanır. Algoritma kullanıcılarının güvenini kazanmak ve sürdürmek elbette ama aynı zamanda şirketlerin imajını korumak, sapkın algoritmaların pazarlanmasını önlemek ve son olarak gelecekteki düzenlemeleri öngörmek için de gereklidir.

Yapay zeka düzenleme projesi ile bir Avrupa Birliği liderinin itici gücü altında, bu yıl, yapay zeka çözümlerinin tasarımı ve kullanımı, doğal olarak “güven” olarak bilinen ve kullanıcı talebini karşılamak için operasyonel olan sorumlu AI’ya yönelik olmalıdır. gelecekteki düzenlemeler.

Bir trendin ötesinde, birkaç referans sisteminin (LNE’den AI sertifikası, Labelia’dan güvenilir AI etiketi vb.) ortaya çıkması, bu AI’nın Avrupa düzeyinde ve yakında dünya çapında bir standart haline geleceğini mi gösteriyor? Bu hafta, tüm sektörlerden 230 şirketi temsil eden Amerikan kolektif Business Roundtable, Biden yönetiminden bu yönde kurallar oluşturmasını istedi. Bu nedenle, 2022’de sertifikalı şirketlerin sayısının artması gerektiğine şüphe yoktur.


Popular Articles

Latest Articles