A­m­a­z­o­n­ ­D­e­s­t­e­k­l­i­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­K­a­m­e­r­a­l­a­r­,­ ­F­a­r­k­ı­n­d­a­ ­O­l­m­a­y­a­n­ ­B­i­r­l­e­ş­i­k­ ­K­r­a­l­l­ı­k­ ­T­r­e­n­ ­Y­o­l­c­u­l­a­r­ı­n­ı­n­ ­D­u­y­g­u­l­a­r­ı­n­ı­ ­T­e­s­p­i­t­ ­E­t­m­e­k­ ­İ­ç­i­n­ ­K­u­l­l­a­n­ı­l­ı­y­o­r­

A­m­a­z­o­n­ ­D­e­s­t­e­k­l­i­ ­Y­a­p­a­y­ ­Z­e­k­a­ ­K­a­m­e­r­a­l­a­r­,­ ­F­a­r­k­ı­n­d­a­ ­O­l­m­a­y­a­n­ ­B­i­r­l­e­ş­i­k­ ­K­r­a­l­l­ı­k­ ­T­r­e­n­ ­Y­o­l­c­u­l­a­r­ı­n­ı­n­ ­D­u­y­g­u­l­a­r­ı­n­ı­ ­T­e­s­p­i­t­ ­E­t­m­e­k­ ­İ­ç­i­n­ ­K­u­l­l­a­n­ı­l­ı­y­o­r­

Network Rail, AI kullanımının mevcut durumu, duygu algılama ve gizlilik endişeleri dahil olmak üzere WIRED tarafından gönderilen denemelerle ilgili soruları yanıtlamadı.

Network Rail sözcüsü, “Demiryolu ağının güvenliğini son derece ciddiye alıyoruz ve yolcuları, meslektaşlarımızı ve demiryolu altyapısını suçlardan ve diğer tehditlerden korumak için istasyonlarımızda bir dizi ileri teknoloji kullanıyoruz” dedi. “Teknolojiyi kullandığımızda, orantılı eylemde bulunduğumuzdan emin olmak için polis ve güvenlik hizmetleriyle birlikte çalışıyoruz ve gözetleme teknolojilerinin kullanımına ilişkin ilgili mevzuata her zaman uyuyoruz.”

Duygu tespit analizinin ne kadar geniş çapta uygulandığı belirsiz; belgeler zaman zaman kullanım senaryosunun “daha dikkatli incelenmesi” gerektiğini söylüyor ve istasyonlardan gelen raporlar “doğruluğunu doğrulamanın imkansız” olduğunu söylüyor. Ancak denemelerde Network Rail ile birlikte çalışan veri analitiği ve bilgisayarlı görüntü şirketi Purple Transform'un CEO'su Gregory Butler, bu özelliğin testler sırasında durdurulduğunu ve aktifken hiçbir görüntünün saklanmadığını söylüyor.

AI denemeleriyle ilgili Network Rail belgeleri, kameraların belirli davranışları tespit ettiğinde personele otomatik uyarılar gönderme potansiyelini içeren birden fazla kullanım durumunu açıklamaktadır. Hiçbir sistem kullanmıyor tartışmalı yüz tanıma teknolojisiİnsanların kimliklerini veritabanlarında saklananlarla eşleştirmeyi amaçlayan.

Firmasının analiz sistemi SiYtE'nin tren istasyonları ve raylar dahil 18 tesiste kullanıldığını ekleyen Butler, “Birincil fayda, izinsiz giriş olaylarının daha hızlı tespit edilmesidir” diyor. Butler, geçen ay, sistemlerin iki bölgede tespit ettiği beş ciddi izinsiz giriş vakası yaşandığını söylüyor; bunlar arasında pistlerden top toplayan bir genç ve yüksek hızlı bir yolda golf toplarını toplamak için beş dakikadan fazla zaman harcayan bir adam da var. astar.”

Leeds tren istasyonunda biri Londra dışında en yoğunButler, SiYtE platformuna bağlı 350 CCTV kameranın bulunduğunu söylüyor. “Analitikler, insan akışını ölçmek ve platformun kalabalıklaşması ve tabii ki izinsiz giriş gibi sorunları belirlemek için kullanılıyor; burada teknoloji, izleme çalışanlarını KKD üniformaları aracılığıyla filtreleyebiliyor” diyor. “Yapay zeka, tüm kameraları sürekli olarak izleyemeyen insan operatörlerin güvenlik risklerini ve sorunlarını hızla değerlendirmesine ve ele almasına yardımcı oluyor.”

Network Rail belgeleri, Reading istasyonunda kullanılan kameraların, görüntülerde bisikletlerin yerini tespit ederek polisin bisiklet hırsızlıklarıyla ilgili soruşturmaları hızlandırmasına olanak tanıdığını iddia ediyor. Dosyalarda, “Analizlerin bir hırsızlığı kesin olarak tespit edemediği ancak bisikletli bir kişiyi tespit edebildiği tespit edildi” deniliyor. Ayrıca denemelerde kullanılan yeni hava kalitesi sensörlerinin, personelin kontrolleri manuel olarak yürütmesinden tasarruf edebileceğini de ekliyorlar. Bir yapay zeka örneği, yoğunlaşma nedeniyle kaygan hale gelen “terleyen” zeminleri tespit etmek ve temizlenmeleri gerektiğinde personeli uyarmak için sensörlerden gelen verileri kullanıyor.

Belgeler denemelerin bazı unsurlarını detaylandırsa da, gizlilik uzmanları genel olarak şeffaflık eksikliğinden ve yapay zekanın kamusal alanlarda kullanımına ilişkin tartışmalardan endişe duyduklarını söylüyor. Big Brother Watch'tan Hurfurt, sistemlerdeki veri koruma sorunlarını değerlendirmek için tasarlanan bir belgede, gizlilik endişeleri olabilecek kişilere karşı “küçümseyen bir tutum” görüldüğünü söylüyor. Bir soru sorar: “Bazı kişilerin buna itiraz etmesi veya müdahaleci bulma ihtimali var mı?” Bir personel şöyle yazıyor: “Genellikle hayır, ancak bazı kişilerin muhasebesi yok.”

Aynı zamanda, kalabalıkları izlemek için teknolojiyi kullanan benzer yapay zeka gözetim sistemleri dünya çapında giderek daha fazla kullanılıyor. Bu yılın sonlarında Fransa'da düzenlenecek Paris Olimpiyat Oyunları sırasında yapay zeka video gözetimi binlerce kişiyi izleyecek ve Kalabalık dalgalarını, silah kullanımını ve terk edilmiş nesneleri ayırt edin.

Oxford Üniversitesi Yapay Zeka Etik Enstitüsü'nde psikoloji alanında doçent olan Carissa Véliz, “İnsanları tanımlamayan sistemler, bunu yapanlardan daha iyidir, ancak ben kaygan zemin konusunda endişeleniyorum” diyor. Véliz benzer noktalara işaret ediyor Londra Metrosu'nda yapay zeka denemeleri Bu, başlangıçta biletlerden kaçan insanların yüzlerini bulanıklaştırdı, ancak daha sonra yaklaşımı değiştirerek fotoğrafların bulanıklığını kaldırdı ve görüntüleri başlangıçta planlanandan daha uzun süre sakladı.

Véliz, “Gözetimin genişletilmesi yönünde çok içgüdüsel bir dürtü var” diyor. “İnsan daha fazlasını görmekten, daha uzağı görmekten hoşlanır. Ancak gözetim kontrole, kontrol ise özgürlük kaybına yol açarak liberal demokrasileri tehdit ediyor.”

Kaynak bağlantısı

Popular Articles

Latest Articles