A­B­’­n­i­n­ ­d­ö­n­ü­m­ ­n­o­k­t­a­s­ı­ ­n­i­t­e­l­i­ğ­i­n­d­e­k­i­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­Y­a­s­a­s­ı­n­ı­ ­g­e­ç­i­r­m­e­k­ ­n­e­d­e­n­ ­b­u­ ­k­a­d­a­r­ ­z­o­r­d­u­?­

A­B­’­n­i­n­ ­d­ö­n­ü­m­ ­n­o­k­t­a­s­ı­ ­n­i­t­e­l­i­ğ­i­n­d­e­k­i­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­Y­a­s­a­s­ı­n­ı­ ­g­e­ç­i­r­m­e­k­ ­n­e­d­e­n­ ­b­u­ ­k­a­d­a­r­ ­z­o­r­d­u­?­


Avrupalı ​​milletvekilleri geçen hafta yapay zeka kuralları konusunda geçici bir anlaşmaya vardıklarında bunu kutlamak için nedenleri vardı.

AB AI Yasası’na ulaşıldı Cuma günü uzun zamandır beklenen zirve Bu, yalnızca iki yıl süren geniş bir tartışmanın değil, aynı zamanda Avrupa Komisyonu, Avrupa Parlamentosu ve AB üye ülkeleri arasında anlaşmazlıkları gidermeye yönelik üç günlük bir “maraton” tartışmanın ardından geldi. Gece gündüz uyuyanlar çekildi. Kovanlar taştı kahve, enerji içecekleri ve şekerli atıştırmalıkların kalıntıları. Bu, küresel yapay zeka düzenlemesi için bir plan oluşturabilecek mevzuat üzerinde çalışan yasa koyuculardan değil, finallere çalışan öğrencilerden bekleyeceğiniz türden bir ortamdı. Kaos büyük ölçüde tüm müzakereyi raydan çıkarma tehlikesi taşıyan iki tartışmalı konu sayesinde oldu: yüz tanıma ve güçlü “temel” modeller.

Yapay Zeka Yasası ilk kez önerildiğinde Nisan 2021’deyapay zekanın yol açabileceği “bireyler veya toplum için yeni riskler veya olumsuz sonuçlarla” mücadele etmek amaçlanmıştı. Yasa, polislik, işe alım ve eğitim gibi alanlarda halihazırda kullanılmakta olan araçlara odaklandı. Ancak tasarının genel amacı değişmese de yapay zeka teknolojisi yaptı – ve hızla. Önerilen kurallar, OpenAI’nin Kasım 2022’de piyasaya sürülen son derece popüler ChatGPT’sinin altında yatan teknoloji gibi genel olarak temel modeller olarak adlandırılan genel amaçlı sistemleri yönetmek için yeterli donanıma sahip değildi.

Son dakika gecikmelerinin büyük bir kısmı, politika yapıcıların bu yeni yapay zeka teknolojilerinin ve henüz geliştirilmemiş gelecekteki teknolojilerin mevzuat kapsamına girmesini sağlamak için çabalamasından kaynaklandı. Kanun, bu hayvanların görünebileceği her alanı (arabalar, oyuncaklar, tıbbi cihazlar ve çok daha fazlasını içeren bir liste) basitçe düzenlemek yerine, Yapay zeka uygulamalarını riske göre sıralayan katmanlı sistem. Güvenliği veya temel hakları etkileyebilecek “yüksek riskli” yapay zeka sistemleri, en ağır düzenleyici kısıtlamalara tabi tutuldu. Dahası, OpenAI’nin GPT modelleri gibi Genel Amaçlı Yapay Zeka Sistemleri (GPAI) ek düzenlemelerle karşı karşıya kaldı. Bu atamanın riskleri yüksekti ve buna bağlı olarak bu konudaki tartışmalar da şiddetliydi.

Dijital bir insan hakları kuruluşu olan Access Now’ın kıdemli politika analisti Daniel Leufer, “Bir noktada, GPAI’nin nasıl düzenleneceği konusundaki gerilimlerin tüm müzakere sürecini raydan çıkarabileceği görüldü” diyor. “Fransa, Almanya ve İtalya’dan, bu sistemleri Yapay Zeka Yasası kapsamındaki yükümlülüklerden tamamen hariç tutmak için büyük bir baskı vardı.”

Fransa, Almanya ve İtalya, temel yapay zeka modelleri için son dakikada uzlaşma arayışına girdi

Avrupa’nın en büyük ekonomilerinden üçü olan bu ülkeler, Kasım ayında taş duvar müzakerelerine başladı sert kısıtlamaların olabileceğine dair endişeler nedeniyle yeniliği azaltmak ve kendi yetki alanlarında temel yapay zeka modelleri geliştiren startuplara zarar verebilir. Bu endişeler, bunların nasıl kullanılabileceği ve geliştirilebileceği konusunda sıkı düzenlemeler getirmeye çalışan diğer AB yasa yapıcılarıyla çatıştı. AI Yasası müzakerelerine atılan bu son dakika anahtarı, anlaşmaya varılmasında gecikmelere katkıda bulundu, ancak tek anlaşmazlık noktası bunlar değildi.

Aslına bakılırsa, fiili mevzuatın büyük bir kısmı, geçici anlaşmanın yapılmasından günler önce bile kararsız kalmış gibi görünüyor. Avrupa iletişim ve ulaştırma bakanları arasındaki toplantıda 5 Aralık’taAlmanya Dijital Bakanı Volker Wissing, “Yapay zeka düzenlemesi bir bütün olarak henüz tam olarak olgunlaşmadı” dedi.

GPAI sistemleri, eğitim verilerinin, enerji tüketiminin ve güvenlik olaylarının ifşa edilmesinin yanı sıra ek risk değerlendirmelerine tabi tutulması gibi gereksinimlerle karşı karşıya kaldı. Şaşırtıcı olmayan bir şekilde, OpenAI (çalışmalarıyla ilgili ayrıntıları açıklamayı reddetmesiyle bilinen bir şirket), GoogleVe Microsoft AB’ye lobi yaptı Daha sert düzenlemeleri sulandırmak için. Görünüşe göre bu girişimler sonuç verdi. Yasa koyucular daha önce sınıflandırmayı düşünmüş olsa da Tümü Geçen hafta varılan anlaşma, GPAI’leri “Yüksek riskli” olarak nitelendiriyor ve bunun yerine onları, AI Yasasının en sert kısıtlamalarından kaçınmak için şirketlere biraz hareket alanı tanıyan iki kademeli bir sisteme tabi tutuyor. Bu da muhtemelen son dakika gecikmelerine katkıda bulundu geçen hafta Brüksel’de tartışıldı.

Leufer, “Sonuçta, ‘sistemik risk’ oluşturan ‘yüksek etkili’ GPAI sistemleri olarak adlandırılan sistemler için bazı ek gereksinimlerle birlikte, GPAI sistemleri için çok az şeffaflık yükümlülüklerimiz var” diyor Leufer – ancak hala “uzun bir savaş” var Bu tür önlemlerin gözetimi ve uygulanmasının düzgün bir şekilde çalışmasını sağlamak için ilerlemeye devam edeceğiz.”

Çok daha zorlu bir kategori daha var: Yapay Zeka Yasasının fiilen tamamen yasakladığı, “kabul edilemez” risk düzeyine sahip sistemler. Ve son saatlere kadar süren müzakerelerde üye ülkeler hala tartışıyoruz bunun en tartışmalı yüksek teknolojili gözetim araçlarından bazılarını içermesi gerekip gerekmediği.

Yüz tanıma yapay zeka sistemlerinin doğrudan yasaklanmasına şiddetle itiraz edildi

Avrupa Parlamentosu ilk etapta Kitlesel kamu gözetimi için biyometrik sistemlerin tamamen yasaklanmasına yeşil ışık yaktı Temmuzda. Bu, sosyal medyadan veya CCTV görüntülerinden ayrım gözetmeksizin veri toplayarak yüz tanıma veritabanları oluşturmayı; konuma ve geçmiş davranışlara dayalı öngörücü polislik sistemleri; ve etnik köken, din, ırk, cinsiyet, vatandaşlık ve siyasi bağlılık gibi hassas özelliklere dayalı biyometrik sınıflandırma. Aynı zamanda hem gerçek zamanlı hem de geriye dönük uzaktan biyometrik tanımlamayı da yasakladı; tek istisna, kolluk kuvvetlerinin adli onayın ardından “ciddi suçları” kovuşturmak için gecikmeli tanıma sistemlerini kullanmasına izin vermekti. Avrupa Komisyonu ve AB üye ülkeleri buna itiraz etti ve tavizler kazandı – bazılarına eleştirmenlerin şaşkınlığı.

Cuma günü onaylanan taslak, kimlik belirlemenin önemli bir gecikmeden sonra meydana geldiği durumlar gibi, otomatik yüz tanımanın sınırlı kullanımına izin veren istisnalar içeriyor. Ayrıca, yalnızca belirli (şu anda belirtilmemiş) koşullar altında olsa da, ulusal güvenlik tehditlerini içeren belirli kolluk kuvvetleri kullanım durumları için de onaylanabilir. Bu muhtemelen yapay zeka destekli gözetimi kullanmaya zorlayan Fransa gibi blok üyelerini yatıştırdı. terörizm gibi şeyleri izlemek ve gelecek 2024 Olimpiyatları Paris’teancak Uluslararası Af Örgütü gibi insan hakları örgütleri kararı daha çok eleştirdi.

“Avrupa Parlamentosu’nun üye devletlerin orijinal pozisyonundan geri adım atma baskısına boyun eğdiğini görmek hayal kırıklığı yaratıyor.” dedi Mher HagopyanUluslararası Af Örgütü’nde yapay zeka mevzuatı konusunda savunuculuk danışmanı. “Taslağın savunucuları yüz tanımanın yalnızca sınırlı kullanımına izin verdiğini ve güvenlik önlemlerine tabi olduğunu savunurken, Uluslararası Af Örgütü’nün araştırması New York Şehri, İşgal Altındaki Filistin Toprakları, Haydarabadve başka yerlerde hiçbir önlemin yüz tanımanın yol açtığı insan hakları zararlarını önleyemeyeceğini gösteriyor, bu yüzden doğrudan bir yasağa ihtiyaç var.”

İşleri daha da karmaşık hale getirmek için, hangi konuyu derinlemesine inceleyemiyoruz özel Onaylanan Yapay Zeka Yasası metninin tamamı birkaç hafta boyunca mevcut olmayacağı için tavizler verildi. Teknik olarak muhtemelen AB içinde resmi olarak henüz mevcut değil hiç. Bu anlaşmalara ilişkin tavizlerin genellikle kesin ifadelerden ziyade ilkelere dayandığını söylüyor Michael VealeUCL Hukuk Fakültesi’nde dijital haklar ve düzenleme alanında doçent olarak görev yapmaktadır. Bu, yasa koyucuların hukuk dilini düzeltmelerinin biraz zaman alabileceği anlamına geliyor.

Ayrıca, yalnızca geçici bir anlaşmaya varıldığı için nihai mevzuat hâlâ değişebilir. Resmi bir zaman çizelgesi mevcut değil, ancak politika uzmanları tahminlerinde oldukça hemfikir görünüyor: Yapay Zeka Yasasının, AB’nin resmi gazetesinde yayınlanmasının ardından 2024 ortalarında yasalaşması ve tüm hükümlerin önümüzdeki iki yıl içinde kademeli olarak yürürlüğe girmesi bekleniyor.

Bu, politika yapıcılara bu kuralların tam olarak nasıl uygulanacağını belirlemeleri için biraz zaman tanıyor. Yapay zeka şirketleri bu süreyi, hükümlerin yürürlüğe girmesiyle birlikte ürün ve hizmetlerinin kurallara uygun olmasını sağlamak için de kullanabilir. Sonuçta bu, Yapay Zeka Yasası kapsamındaki her şeyin 2026 ortasına kadar düzenlendiğini göremeyebileceğimiz anlamına geliyor. Yapay zekanın geliştirildiği yıllarda bu uzun zaman – yani o zamana kadar, başa çıkmamız gereken yepyeni bir dizi sorunla karşı karşıya kalabiliriz.


Popular Articles

Latest Articles