Y­a­p­a­y­ ­Z­e­k­a­,­ ­İ­s­r­a­i­l­­i­n­ ­G­a­z­z­e­­y­i­ ­b­o­m­b­a­l­a­m­a­s­ı­n­a­ ­n­a­s­ı­l­ ­h­ı­z­ ­k­a­z­a­n­d­ı­r­ı­y­o­r­?­

Y­a­p­a­y­ ­Z­e­k­a­,­ ­İ­s­r­a­i­l­­i­n­ ­G­a­z­z­e­­y­i­ ­b­o­m­b­a­l­a­m­a­s­ı­n­a­ ­n­a­s­ı­l­ ­h­ı­z­ ­k­a­z­a­n­d­ı­r­ı­y­o­r­?­

İsrail'in Gazze'deki savaşını yönlendirmek için yapay zekayı kullandığı ve kararlarını adeta müjde gibi ele aldığı bildiriliyor. Aslında kullanılan yapay zeka sistemlerinden birinin adı kelimenin tam anlamıyla “İncil”.

Bir binbaşıya göre soruşturma İsrail merkezli +972 Dergisi tarafından geçen ay yayınlanan bir rapora göre İsrail, özellikle savaşın ilk aşamalarında karar almada endişe verici derecede küçük bir rol oynarken, İsrail öldürmek için kimi hedef alacağına karar vermek için yapay zekaya güveniyor. Bir temele dayanan soruşturma önceki ifşa aynı kaynaktan, uyum içinde çalışan üç yapay zeka sistemini anlatıyor.

“İncil”, Hamas militanlarının kullandığını söylediği binaları işaret ediyor. Bilinen militanlarla ilgili veriler üzerine eğitim alan “Lavender”, daha sonra her kişinin militan olma olasılığını değerlendirmek için Gazze'deki neredeyse herkesin (fotoğraflardan telefon bağlantılarına kadar) gözetim verilerini tarıyor. Daha yüksek puan alan kişileri öldürme listesine koyar. Ve “Babam nerede?” İsrailli bir istihbarat görevlisi +972'ye, bu hedefleri takip ettiğini ve ailelerinin evlerindeyken orduya haber verdiğini, çünkü onları orada bombalamak korumalı bir askeri binada bombalamaktan daha kolay olduğunu söyledi.

Sonuç? +972'nin görüştüğü İsrail istihbarat görevlilerine göre, yaklaşık 37.000 Filistinli suikast için işaretlendi ve binlerce kadın ve çocuk, yapay zekanın ürettiği kararlar nedeniyle ikincil hasar olarak öldürüldü. +972'nin yazdığı gibi, Hamas'ın 7 Ekim'de İsrailli sivillere yönelik ölümcül saldırılarının hemen ardından başlayan “Lavanta, Filistinlilere yönelik benzeri görülmemiş bombalamalarda merkezi bir rol oynadı”.

Yapay zeka kullanımı, savaştaki yüksek ölü sayısını kısmen açıklayabilir. bugüne kadar en az 34.735 kişi öldürüldü – İsrail'e yönelik uluslararası eleştiriyi ateşleyen ve hatta soykırım suçlamaları Uluslararası Adalet Divanı huzurunda.

Her ne kadar “döngü içinde bir insan” olsa da (teknolojik tabirle yapay zekanın tavsiyesini onaylayan veya buna karşı çıkan bir kişi için konuşuyoruz) İsrail askerleri +972'ye, yapay zekanın çıktılarına esas olarak “insani bir kararmış gibi” davrandıklarını, bazen yalnızca bombalamadan önce hedefi incelemeye “20 saniye” ayırdıklarını ve ordu liderliğinin onları savaştan birkaç hafta sonra Lavender'ın öldürme listelerini otomatik olarak onaylamaya teşvik ettiğini söyledi. Bu, “sistemin vakaların yaklaşık yüzde 10'unda 'hata' olarak kabul edilen şeyleri yaptığını bilmesine rağmen” gerçekleşti. +972'ye göre.

İsrail ordusu reddedildi insan hedeflerini seçmek için yapay zekayı kullandığını ve bunun yerine “amacı istihbarat kaynaklarına çapraz referans vermek olan bir veritabanına” sahip olduğunu söylüyor. Ancak BM Genel Sekreteri Antonio Guterres söz konusu haberlerden “derinden rahatsızdı” ve Beyaz Saray ulusal güvenlik sözcüsü John Kirby söz konusu ABD bunu araştırıyordu.

Geri kalanımız yapay zekanın Gazze'deki rolü hakkında nasıl düşünmelidir?

Yapay zeka savunucuları sıklıkla söylemek teknolojinin tarafsız olduğunu (“sadece bir araç”) veya hatta tartışmak Yapay zekanın savaşı daha insancıl hale getireceğine (“daha kesin davranmamıza yardımcı olacak”) rağmen, İsrail'in askeri yapay zekayı kullandığı yönündeki rapor muhtemelen bunun tam tersini gösteriyor.

“Çoğu zaman bu silahlar bu kadar hassas bir şekilde kullanıldı” Elke SchwarzLondra Queen Mary Üniversitesi'nde askeri yapay zekanın etiğini inceleyen siyaset teorisyeni bana şunu söyledi. “Teşvikler, sistemleri geniş ölçekte ve şiddeti daraltmak yerine genişletecek şekilde kullanmaktır.”

Schwarz savunuyor teknolojimizin aslında düşünme şeklimizi ve neye değer verdiğimizi şekillendirdiğini. Biz teknolojimizi yönettiğimizi sanıyoruz ama teknoloji bir dereceye kadar bizi yönetiyor. Geçen hafta onunla, askeri yapay zeka sistemlerinin nasıl ahlaki rehavete yol açabileceği, kullanıcıları eylemsizlik yerine eyleme teşvik edebileceği ve insanları bilinçli etik muhakeme yerine hıza öncelik vermeye nasıl teşvik edebileceği hakkında konuştum. Konuşmamızın uzunluk ve netlik açısından düzenlenmiş bir metni aşağıdadır.

Sigal Samuel

İsrail'in Gazze'deki savaşını yönlendirmek için yapay zeka sistemlerini kullandığının söylendiğini öğrendiğinizde şaşırdınız mı?

Elke Schwarz

Hayır, hiç de değil. Vardı raporlar için yıllar İsrail'in çeşitli türde yapay zeka destekli silahlara sahip olmasının çok muhtemel olduğunu söylüyor. Ve gayet açık bir şekilde açıkladılar bu yetenekleri geliştirdiklerini ve kendilerini düşünmek Dünyanın en gelişmiş dijital askeri güçlerinden biri olarak bu arayışın hiçbir sırrı yok.

Lavanta ve hatta İncil gibi sistemler şaşırtıcı değil çünkü sadece bakarsanız ABD'nin Maven Projesi [the Defense Department’s flagship AI project]bu bir video analiz algoritması olarak başladı ve şimdi bir hale geldi hedef önerisi sistem. Yani her zaman bu yönde ilerleyeceğini düşündük ve gerçekten de öyle oldu.

Sigal Samuel

Beni etkileyen şeylerden biri, karar vericilerin ne kadar ilgisiz göründüğüydü. İsrail askeri kaynağı söz konusu Bombalamaya izin vermeden önce her hedefe yalnızca yaklaşık “20 ​​saniye” ayırıyordu. Bunu yaptım seni şaşırttı mı?

Elke Schwarz

Hayır, bu da olmadı. Çünkü ordudaki konuşma son beş yılda bu oldu fikir hızlandırmaktır “öldürme zinciri” – ölüm oranını artırmak için yapay zekayı kullanmak. Her zaman kullanılan ifade, “sensörden atıcıya kadar olan zaman çizelgesini kısaltmaktır”; bu, temel olarak girişten silahın ateşlenmesine kadar geçen sürenin gerçekten hızlı hale getirilmesi anlamına gelir.

Bu yapay zeka sistemlerinin cazibesi ve çekiciliği, çok hızlı ve çok geniş ölçeklerde çalışmaları ve kısa bir süre içinde çok çok sayıda hedefi akla getirmeleridir. Böylece insan bir nevi düğmeye basan bir otomat haline gelir ve “Tamam, sanırım bu doğru görünüyor” der.

Savunma yayınları her zaman söyledim Proje Yakınsamasıbaşka bir ABD [military] programı, sensörden atıcıya olan zaman çizelgesini dakikalardan saniyelere kısaltmak için gerçekten tasarlandı. Yani 20 saniyenin olması, yıllardır rapor edilenlere oldukça açık bir şekilde uyuyor.

Sigal Samuel

Benim için bu, teknolojik determinizm, yani teknolojimizin nasıl düşündüğümüzü ve neye değer verdiğimizi belirlediği fikriyle ilgili soruları gündeme getiriyor. Bir zamanlar askeri bilim adamı Christopher Coker olarak söz konusu“Aletlerimizi dikkatli seçmeliyiz, insanlık dışı oldukları için değil (tüm silahlar öyledir), onlara ne kadar çok güvenirsek, dünyaya bakışımızı o kadar şekillendirecekleri için.”

Bunu hatırlatan bir şey yazmıştın 2021 tarihli bir makale: “Yapay zeka ve insan muhakemesi bir ekosistem oluşturduğunda, insanın kontrol etme olasılığı sınırlıdır.” Bununla ne demek istedin? Yapay zeka, insan eylemliliğini nasıl kısıtlıyor veya bizi ahlaki temsilciler olarak nasıl yeniden şekillendiriyor?

Elke Schwarz

Birkaç yolla. Bunlardan biri bilişsel yük ile ilgilidir. İşlenen tüm veriler göz önüne alındığında, bir bakıma makinenin kararına güvenmeniz gerekir. Birincisi, hangi verilerin toplandığını ve modele tam olarak nasıl uygulandığını bilmediğimiz için. Ancak aynı zamanda insan beyninin olayları işleme biçimi ile yapay zeka sisteminin hesaplama yapma biçimi arasında bilişsel bir eşitsizlik de var. Bu, “otomasyon önyargısı” dediğimiz şeye yol açar; bu, temelde insanlar olarak makinelerin otoritesine uyma eğiliminde olmamızdır çünkü onların bizden daha iyi, daha hızlı ve bilişsel olarak daha güçlü olduklarını varsayarız.

Başka bir şey durumsal farkındalıktır. Gelen veriler neler? Algoritma nedir? Bunda bir önyargı mı var? Bunların hepsi, bir operatörün veya döngüdeki herhangi bir insanın bilgi sahibi olması gereken ancak çoğunlukla bilgisi olmayan sorulardır ve bu da, gözetim altında bulundurmaları gereken bağlam hakkındaki kendi durumsal farkındalıklarını sınırlar. Bildiğiniz her şey size veri, nokta ve grafiklerden oluşan bir ekranda sunulursa, bunu olduğu gibi kabul edersiniz, ancak savaş alanındaki durumun ne olduğuna dair kendi algınız çok sınırlı hale gelir.

Ve sonra hız unsuru var. Yapay zeka sistemleri o kadar hızlı ki elimizde yeterince yok [mental] olmayacak kaynaklar Harekete geçirici mesaj olarak önerdiklerini kabul edin. İnsan mantığına dayanarak müdahale edecek paraya sahip değiliz. Bu, telefonunuzun size tepki vermeniz gerektiğini hissettirecek şekilde tasarlanmış olması gibidir; örneğin, e-postanızda kırmızı bir nokta belirdiğinde ilk içgüdünüz, tıklamak değil, ona tıklamaktır. üstüne tıkla! Yani kullanıcıları eylemsizlik yerine eyleme teşvik etme eğilimi var. Ve gerçek şu ki, eğer öldürmek ya da öldürmemek gibi ikili bir seçim sunulursa ve acil bir durumdaysanız, muhtemelen harekete geçip silahı bırakma olasılığınız daha yüksektir.

Sigal Samuel

Bunun filozof Shannon Vallor'un dediği şeyle nasıl bir ilişkisi var? “ahlaki vasıfsızlaştırma” – teknolojinin ahlaki gelişimimizi olumsuz etkilediği durumlar için kullandığı terim mi?

Elke Schwarz

Ahlaki müzakere veya eylemlerimizin sonuçları hakkında düşünmek ile hız ve ölçeğin zorunluluğu arasında doğal bir gerilim var. Etik, düşünmekle ilgilidir, şunu söylemek için zaman ayırmakla ilgilidir: “Bunlar gerçekten istediğimiz parametreler mi, yoksa yaptığımız şey sadece daha fazla sivil kaybına mı yol açacak?”

Her ordunun sahip olması gereken ve normalde sahip olduğu bu ahlaki fikirleri uygulamanız için size alan veya zaman verilmezse, o zaman bir otomat haline gelirsiniz. Temel olarak şunu söylüyorsunuz: “Ben makinenin bir parçasıyım. Ahlaki hesaplamalar daha önce başkaları tarafından yapılmıştı ama artık bu benim sorumluluğumda değil.”

Sigal Samuel

Bu, merak ettiğim başka bir şeyle bağlantılı: niyet meselesi. Uluslararası hukuk bağlamlarında, soykırım davası İsrail'e karşı, Karar vericiler arasında niyetin gösterilmesi çok önemlidir. Ancak kararlar yapay zekaya verildiğinde niyet hakkında nasıl düşünmeliyiz? Teknoloji bilişimizi yeniden şekillendirirse, savaşta yapay zeka sistemi tarafından önerilen hatalı bir eylemden ahlaki olarak kimin sorumlu olduğunu söylemek zorlaşır mı?

Elke Schwarz

İnsanların her zaman döngünün bir yerinde olduğunu söyleyen bir itiraz var çünkü onlar en azından bu yapay zeka sistemlerini kullanma kararını veriyorlar. Ancak ahlaki sorumluluğun tamamı ve sonu bu değil. Savaş gibi ahlaki açıdan ağır bir şeyde, birden fazla sorumluluk düğümü vardır; karar alma sürecinde ahlaki açıdan pek çok sorunlu nokta vardır.

Ve niyeti dağıtan bir sisteminiz varsa, o zaman herhangi bir alt sistemle makul bir inkar edilebilirliğe sahip olursunuz. Amacımızın bu olduğunu söyleyebilirsiniz, sonra yapay zeka sistemi bunu yapar ve sonuç sizin gördüğünüz şeydir. Dolayısıyla niyeti atfetmek zordur ve bu da işi çok ama çok zorlaştırır. Makine röportaj vermiyor.

Sigal Samuel

Yapay zeka, bazıları yararlı, bazıları zararlı olmak üzere çok sayıda amaç için kullanılabilen genel amaçlı bir teknoloji olduğuna göre, yapay zekanın nerede yarardan çok zarar vereceğini nasıl önceden tahmin edebilir ve bu kullanımları engellemeye çalışabiliriz?

Elke Schwarz

Her alet silaha dönüştürülebilir. Yeterince gaddarsan yastık bile silah olabilir. Birini yastıkla öldürebilirsin. Tüm yastıkları yasaklamayacağız. Ancak toplumdaki gidişat yastıkları kötü amaçlarla kullanma eğilimini gösteriyorsa ve yastığa erişim gerçekten kolaysa ve aslında bazı insanlar insanları boğmak için yapılmış yastıklar tasarlıyorsa, o zaman evet, bunu sormalısınız. bazı sorular!

Bu da topluma, onun eğilimlerine ve eğilimlerine dikkat etmeyi gerektirir. Kafanı kuma gömemezsin. Ve bu noktada yapay zekanın sorunlu amaçlar için nasıl kullanıldığına dair yeterince rapor var.

İnsanlar her zaman yapay zekanın savaşı daha etik hale getireceğini söylüyor. Drone'larla ilgili de bir iddia vardı; gözetleme sistemimiz var, böylece çok daha kesin olabiliriz ve misket bombası atmamıza ya da büyük bir hava harekatına ihtiyacımız yok. Ve elbette bunda bir şey var. Ancak çoğu zaman bu silahlar bu kadar kesin bir şekilde kullanılmaz.

Şiddet uygulamasını çok daha kolay hale getirmek aslında şiddet kullanma eşiğini düşürüyor. Teşvikler, sistemleri geniş ölçekte ve şiddeti daraltmak yerine genişletecek şekilde kullanmaktır.

Sigal Samuel

+972 soruşturmalarında en çarpıcı bulduğum şey buydu; İsrail'in iddia edilen yapay zeka sistemlerinin şiddeti azaltmak yerine şiddeti genişletmesi. Lavanta sistemi 37.000 Filistinliyi suikast hedefi olarak işaretledi. Ordu bunu yapabilecek teknolojik kapasiteye sahip olduğunda, askerler buna ayak uydurma konusunda baskı altına giriyor. Kıdemli bir kaynak +972'ye şunları söyledi: “Sürekli baskı altındaydık: 'Bize daha fazla hedef getirin.' Bize gerçekten bağırdılar. Bitirdik [killing] Hedeflerimize çok hızlı ulaşıyoruz.”

Elke Schwarz

Bu bir nevi kapitalist mantık, değil mi? Taşıma bandının mantığı bu. Daha fazlasına, daha fazla veriye, daha fazla eyleme ihtiyacımız olduğunu söylüyor. Ve eğer bu öldürmeyle ilgiliyse, bu gerçekten sorunlu.

Kaynak bağlantısı

Popular Articles

Latest Articles