A­B­,­ ­İ­n­s­a­n­ ­H­a­k­l­a­r­ı­n­ı­ ­K­o­r­u­m­a­k­,­ ­Y­ü­k­s­e­k­ ­R­i­s­k­l­i­ ­K­u­l­l­a­n­ı­m­l­a­r­ı­ ­T­a­n­ı­m­l­a­m­a­k­ ­İ­ç­i­n­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­Y­a­s­a­s­ı­n­ı­ ­T­a­r­t­ı­ş­ı­y­o­r­

A­B­,­ ­İ­n­s­a­n­ ­H­a­k­l­a­r­ı­n­ı­ ­K­o­r­u­m­a­k­,­ ­Y­ü­k­s­e­k­ ­R­i­s­k­l­i­ ­K­u­l­l­a­n­ı­m­l­a­r­ı­ ­T­a­n­ı­m­l­a­m­a­k­ ­İ­ç­i­n­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­Y­a­s­a­s­ı­n­ı­ ­T­a­r­t­ı­ş­ı­y­o­r­



Avrupa Komisyonu (EC) şu anda yapay zeka (AI) teknolojisinde güven ve hesap verebilirlik için yeni kurallar ve eylemler adı verilen yasal bir çerçeve aracılığıyla tartışıyor. AB Yapay Zeka Yasası. Amacı, bazı AI sistemlerinin güvenlik ve temel haklara karşı oluşturabileceği potansiyel riskleri ele alırken, AI’nın geliştirilmesini ve benimsenmesini teşvik etmektir.

AB, yapay zeka sistemlerinin çoğu düşük veya sıfır risk oluşturacak olsa da, bazılarının ele alınması gereken tehlikeler yarattığını söylüyor. Örneğin, birçok algoritmanın opaklığı belirsizlik yaratabilir ve mevcut güvenlik ve haklar yasalarının etkin bir şekilde uygulanmasını engelleyebilir.

AK, hem faydaların hem de risklerin yeterince ele alındığı AI sistemleri için iyi işleyen bir iç pazar sağlamak için yasal eyleme ihtiyaç olduğunu savunuyor.

Transatlantik Teknoloji Hukuku Forumu Üyesi Mauritz Kop, “AB AI Yasası, insan haklarını ve temel özgürlükleri algoritmalar ve akıllı makineler tarafından bu hak ve özgürlüklerin ihlallerine karşı korumayı ve korumayı amaçlayan insan merkezli bir yasal-etik çerçeve olmayı hedefliyor” diyor. Stanford Hukuk Okulu ve AIRecht’te stratejik fikri mülkiyet avukatı.

Bir insanla mı yoksa bir makineyle mi uğraştığınızı bilme hakkı – AI daha karmaşık hale geldikçe giderek daha zor hale geliyor – bu vizyonun bir parçası, diye açıklıyor.

Kop, sektöre özgü birkaç kural dışında, yapay zekanın artık çoğunlukla düzenlenmemiş olduğunu belirtiyor. Hareket hitap etmeyi amaçlar AI için bir ürün güvenliği rejimi getirerek yasal boşlukları ve boşlukları ortadan kaldırın.

“Yalnızca şirketler tarafından bağlayıcı olmayan kendi kendini düzenleme için riskler çok yüksek” diyor.

Yapay Zeka İnovasyonu Üzerindeki Etkiler

Kop, özellikle yüksek riskli AI sistemleri geliştiren erken AI girişimleri için mevzuata uygunluk ve yasal uyumluluğun bir yük olacağını kabul ediyor. GSYİH’yi gösteren ampirik araştırmanın – gizliliği ve veri korumasını ve veri güvenliğini korurken – inovasyon üzerinde olumsuz bir etkisi olduğunu belirtiyor.

AI için risk sınıflandırması, mevcut AB ürün güvenliği mevzuatına uygun olarak sistemin kullanım amacına dayanmaktadır. Sınıflandırma, AI sisteminin gerçekleştirdiği işleve ve sistemin kullanıldığı belirli amaç ve modalitelere bağlıdır.

“Yasal belirsizlik [regulation] ve uzman avukatları veya multidisipliner ekipleri işe almak için bütçe eksikliği, gelişen bir AI başlangıç ​​ve ölçek büyütme ekosistemi için hala önemli engellerdir” diyor Kop, “AI Yasasının AB’deki başlangıç ​​​​ortamını iyileştirip iyileştirmeyeceği veya kötüleştireceği sorusu devam ediyor. “

Avrupa Komisyonu, halen tartışılmakta olan kriterleri kullanarak hangi AI’nın “yüksek riskli” olarak sınıflandırılacağını belirleyecek ve yargıya rehberlik etmeye yardımcı olacak yüksek riskli sistem örneklerinin bir listesini oluşturacak.

Kop, “Bu, belirli yüksek riskli sektörlerde kullanılan çeşitli AI uygulamalarını içeren dinamik bir liste olacak, bu da sağlık ve savunmada daha riskli AI için kuralların turizmdeki AI uygulamalarına göre daha katı hale geldiği anlamına geliyor” diyor. “Örneğin, tıbbi yapay zeka [classified as] AI hataları nedeniyle hastalara doğrudan zarar gelmesini önlemek için yüksek risk.”

Taslağın kullandığı AI’nın kriterleri ve tanımı hakkında hala tartışmalar olduğunu belirtiyor. Bazı yorumcular, derin denetimsiz öğrenme veya derin pekiştirmeli öğrenme gibi belirli daha riskli makine öğrenimi türlerini hedefleyen daha teknolojiye özgü olması gerektiğini savunuyor.

Kop, “Diğerleri, nöro-etkileme gibi potansiyel zararlı sonuçlar yerine, sosyal kredi puanlaması gibi sistemin amacına daha fazla odaklanıyor” dedi. “Bu nedenle, yasanın son versiyonunda ‘riskin’ ne içerdiğine dair daha ayrıntılı bir sınıflandırma memnuniyetle karşılanacaktır.”

Yüksek Riskli Bir Teknoloji Olarak Yüz Tanıma

Delinea’da baş güvenlik bilimcisi ve danışman CISO’su olan Joseph Carson, yasa uygulama alanında yapay zeka kullanımı konusunda bir konu uzmanı olarak ve güvenlik ve mahremiyetle ilgili endişeleri dile getirmek de dahil olmak üzere, yasayla ilgili birçok görüşmeye katıldı.

AB AI Yasası, esas olarak kişisel olarak tanımlanabilir bilgileri toplayan ve işleyen kuruluşları etkileyeceğini söylüyor. Bu nedenle, verileri işlerken gelişmiş algoritmaları nasıl kullandıklarını etkileyecektir.

“Herhangi bir düzenleme veya eylem yoksa riskleri ve olası etkilerin ne olduğunu anlamak önemlidir. [is] eğer kuruluşlar hassas veri ve algoritma kombinasyonunu kötüye kullanırsa,” diyor Carson. “İnternet’in geleceği korkutucu bir yer ve AB Yapay Zeka Yasası’nın uygulanması, AI kullanarak İnternet’in geleceğini hem sorumluluk hem de hesap verebilirlik ile benimsememizi sağlıyor. “

Yüz tanıma ile ilgili olarak, teknolojinin düzenlenmesi ve kontrol edilmesi gerektiğini söylüyor.

“Toplumda pek çok şaşırtıcı kullanımı var, ancak tercih ettiğiniz ve kullanmayı kabul ettiğiniz bir şey olmalı; vatandaşların bir seçeneği olmalı” diyor. “Hiçbir önlem alınmazsa, kontrolden çıkacak olan deepfake’lerde önemli bir artış göreceğiz.”

McKinsey & Co’da kıdemli bilgi uzmanı olan Malin Strandell-Jansson, yüz tanımanın yasa tasarısında en çok tartışılan konulardan biri olduğunu ve nihai sonucun henüz net olmadığını söylüyor.

Taslak biçiminde, AI Yasası, temel haklar için belirli riskler oluşturduğundan, gerçek zamanlı uzaktan biyometrik tanımlamanın kanun yaptırımı amacıyla kamuya açık alanlarda kamuya açık alanlarda kullanılmasını kesinlikle yasaklamaktadır. özellikle insan onuru, özel hayata ve aile hayatına saygı, kişisel verilerin korunması ve ayrımcılık yapmama.

Strandell-Jansson, kayıp çocuklar da dahil olmak üzere belirli potansiyel suç mağdurlarına yönelik hedefli arama için kolluk kuvvetleri amacıyla kullanım dahil olmak üzere birkaç istisnaya dikkat çekiyor; yakın bir terör saldırısı tehdidine yanıt; veya ciddi suçların faillerinin tespiti ve tespiti.

“Özel işletmelerle ilgili olarak, AI Yasası, tüm duygu tanıma ve biyometrik sınıflandırma sistemlerini, örneğin istihdam, eğitim, kanun yaptırımı, göç ve benzeri alanlarda – bu şekilde tanımlanan kullanım durumlarına giriyorlarsa yüksek riskli uygulamalar olarak kabul eder. sınır kontrolü” diye açıklıyor.

Bu nedenle, potansiyel sağlayıcıların bu tür AI sistemlerini Avrupa’da piyasaya sürmeden önce şeffaflık ve uygunluk yükümlülüklerine tabi tutmaları gerekecektir.

Şimdi Yapay Zeka Üzerinde Harekete Geçme Zamanı

Bir yapay zeka siber güvenlik şirketi olan Vectra’da yapay zeka araştırma lideri Dr. Sohrob Kazerounian, yapay zeka için düzenleyici bir çerçeve oluşturma ihtiyacının hiç bu kadar acil olmadığını söylüyor.

“AI sistemleri, geniş kapsamlı pazarlarda ürün ve hizmetlere hızla entegre ediliyor” diyor. “Yine de bu sistemlerin güvenilirliği ve yorumlanabilirliği, kullanıcılar ve daha geniş anlamda toplum için yeterince anlaşılmayan risklerle birlikte oldukça belirsiz olabilir.”

Mevcut bazı yasal çerçeveler ve tüketici korumaları ilgili olabilirken, AI kullanan uygulamalar, geleneksel tüketici ürünlerinden yeterince farklı ve temelde yeni yasal mekanizmalar gerektiriyor, diye ekliyor.

Tasarının genel amacı, “kabul edilemez risk” olarak kabul edilen sistemlerin yasaklanmasından “yüksek riskli” sistemlerin ağır şekilde düzenlenmesine kadar çeşitli eylemlerle, AI’nın kullanımından ve başarısızlığından kaynaklanan en kritik riskleri tahmin etmek ve azaltmaktır. Çerçevenin bir başka, ancak daha az not edilen sonucu, hangi düzenlemelerin var olacağı ve bunların nasıl uygulanacağı konusunda piyasalara açıklık ve kesinlik sağlayabilmesidir.

Kazerounian, “Bu nedenle, düzenleyici çerçeve aslında AI sektöründe artan yatırım ve pazar katılımıyla sonuçlanabilir.” Dedi.

Deepfakes ve Biyometrik Tanıma için Limitler

Yapay Zeka Yasası, derin sahtekarlıklar ve biyometrik veya duygusal tanıma gibi belirli AI kullanım durumlarını ele alarak, bu tür teknolojilerin ortaya çıkardığı, mahremiyetin ihlali, ayrım gözetmeksizin veya toplu gözetleme, vatandaşların profilinin çıkarılması ve puanlanması ve manipülasyon gibi yüksek riskleri iyileştirmeyi umuyor. Strandell-Jansson diyor.

“Kategorileme ve duygu tanıma için biyometri, insanların mahremiyetinin ve kişisel verilerin korunmasının yanı sıra manipülasyon haklarının ihlal edilmesine yol açma potansiyeline sahip” diyor. “Ayrıca, bu tür sistemlerin bilimsel doğası ve güvenilirliği konusunda ciddi şüpheler var.”

Tasarı, insanların duygularını okuyabildiğini iddia eden derin sahtekarlıklar, biyometrik tanıma sistemleri veya AI uygulamalarıyla karşılaştıklarında bilgilendirilmelerini gerektiriyor. Bu umut verici bir adım olmasına rağmen, birkaç olası sorunu gündeme getiriyor.

Genel olarak, Kazerounian, tüketiciler için biyometrik verilerle sınıflandırıldıklarında ve gerçek insanlar veya gerçek içerik yerine AI tarafından oluşturulan içerikle etkileşime girdiklerinde daha fazla görünürlük gerektirmenin “şüphesiz” iyi bir başlangıç ​​olduğunu söylüyor.

“Ne yazık ki, AI yasası, AI’nın gelecekteki uygulamalarının durumunu belirlemek için kullanılabilecek risk temelli kriterleri tartışmadan, AI kullanımının yüksek riskli olarak kabul edileceği bir dizi uygulama alanını belirtir” dedi. . “Bu nedenle, hangi uygulama alanlarının aynı anda yüksek riskli olarak kabul edildiğine ilişkin görünüşte geçici kararlar çok spesifik ve çok belirsiz görünüyor.”

Mevcut yüksek riskli alanlar arasında belirli biyometrik tanımlama türleri, kritik altyapının işletilmesi, istihdam kararları ve bazı kanun uygulama faaliyetleri yer alıyor, diye açıklıyor.

“Yine de neden sadece bu alanların yüksek riskli olarak kabul edildiği açık değil ve ayrıca bu alanlardaki istatistiksel modellerin ve makine öğrenimi sistemlerinin hangi uygulamalarının ağır düzenleyici gözetim alması gerektiğini tanımlamıyor” diye ekliyor.

Benzer ABD Yasası için Olası Temel Çalışmalar

Kazerounian, bu yasanın ABD’deki benzer bir yasa için ne anlama gelebileceğinin belirsiz olduğunu belirterek, AB’nin veri düzenleme yasası olan GDPR’nin ardından benzer herhangi bir federal yasa olmadan geçmesinin üzerinden yarım on yıldan fazla bir süre geçtiğini belirtti. ABD – henüz.

“Yine de GDPR, ya AB ve AB dışı ortamlar için veri koruma konusundaki politikalarını kırmak zorunda kalan ya da küresel olarak uygulanan GDPR’ye dayalı tek bir politikaya sahip olan çok uluslu şirketlerin davranışlarını kuşkusuz etkiledi” dedi. “Her halükarda, ABD AI’nın düzenlenmesine ilişkin mevzuat önermeye karar verirse, en azından AB yasasından etkilenecektir.”


Popular Articles

Latest Articles