B­e­y­a­z­ ­S­a­r­a­y­ ­b­i­r­ ­A­I­ ­“­h­a­k­l­a­r­ ­b­i­l­d­i­r­g­e­s­i­”­ ­b­a­ş­l­a­t­ı­y­o­r­

B­e­y­a­z­ ­S­a­r­a­y­ ­b­i­r­ ­A­I­ ­“­h­a­k­l­a­r­ ­b­i­l­d­i­r­g­e­s­i­”­ ­b­a­ş­l­a­t­ı­y­o­r­


Beyaz Saray bir açıklama yayınladı bir “AI haklar beyannamesi” için taslak (yeni sekmede açılır) artırmak için görünüyor mahremiyet ve otomatik sistemlerle karşılaşan Amerikan vatandaşlarının güvenliği.

bu duyuru (yeni sekmede açılır) Hükümetin Bilim ve Teknoloji Politikası Ofisi (OSTP) tarafından geliştirilen taslak, AI güvenliği ile ilgili beş temel alanı teşvik etmeyi hedefliyor: “Güvenli ve Etkili Sistemler”, “Algoritmik Ayrımcılık Korumaları”, “Veri Gizliliği”, “Bildirim ve Açıklama ” ve “İnsan Alternatifleri, Değerlendirme ve Geri Dönüş”.

Beyaz Saray, planın “Amerikan halkının haklarını, fırsatlarını veya kritik kaynaklara veya hizmetlere erişimini anlamlı bir şekilde etkileme potansiyeline sahip” herhangi bir otomatik sistem için geçerli olacağını yazdı.

Bir bakışta, plandaki fikirler, tüm dünyadaki işletmeler ve hükümetler süreçlerinde otomasyona doğru ilerledikçe federal hükümetin ele alması gereken türden şeylerdir.

Sorun şu ki bunlar sadece fikir. Federal hükümetin mevzuat haline gelmesi gerektiğine inandığı şey bu, ancak plandaki hiçbir şey yasal olarak bağlayıcı değil ve – temelde – hiçbir şey değişmedi.

Plan aynı zamanda yapay zekaya sahip otomasyon sistemlerinin yükselişini karşı çıkılması gereken bir tehditten ziyade kaçınılmaz bir durum olarak görüyor.

OSTP’nin kalbi doğru yerdedir, çünkü marjinalleştirilmiş Amerikalıları öngörücü polislikten (otomatik bir sistem, genellikle etnik köken veya cinsiyet temelinde bir kişinin bir suç işlediğinden şüphelenebilir) korumak için görünüyor, ancak daha iyisini yapabilir. işletmelerin otomatik sistemlerinde önerilen değişiklikleri yapacaklarına güvenmekten daha fazlası.

Özellikle OSTP, otomasyon başarısız olduğunda insan gözetiminin “yedek” olmasını ve sağlık ve sigorta gibi belirli senaryolarda daha güvenli bir sistem oluşturup oluşturmadığına bakılmaksızın asla bir sistemin birincil uygulaması olmasını istememektedir.

Ile konuşmak kablolu (yeni sekmede açılır)Wisconsin-Madison Üniversitesi’nde yapay zeka, adalet ve ahlak felsefesi araştırmacısı olan Annette Zimmermann, basit bir şekilde otomasyonu dağıtmamayı düşünmede başarısız olan planın, doğru Amerikalıların adalete karşı en büyük tehdidi olduğuna inanıyor.

“En fazla hakları koruyan seçenek olan konuşlandırmamayı düşünmeden bir haklar bildirgesi oluşturamayız” dedi.

Dünyanın başka yerlerinde, yapay zekanın insanların hayatındaki rolüne karşı katı bir tutum sergileyen yasalar yolda olabilir.

Avrupa Parlamentosu bu yıl Avrupa Birliği’nin AI Yasası’nın yeniden taslağı üzerinde tartışıldı (yeni sekmede açılır), bazı milletvekilleri tahmine dayalı polislik yasağını destekliyor. 2022’nin sonuna kadar bir oylama yapılması bekleniyor, değişiklik sürecine liderlik edenler ise kestirimci polisliğin “insanlık onurunun yanı sıra masumiyet karinesini de ihlal ettiğini” belirtti.

Beyaz Saray’ın önerilerinin gelişmesini izlemek ilginç olabilir, ancak AB’deki çabalarla karşılaştırıldığında yeterli olmayabilir ve sonuçta hiçbir şeye yol açmayabilir.



işletim-sistemi-1

Popular Articles

Latest Articles