B­a­n­k­ ­o­f­ ­E­n­g­l­a­n­d­,­ ­A­I­ ­ö­n­y­a­r­g­ı­s­ı­n­ı­n­ ­f­i­n­a­n­s­ ­s­e­k­t­ö­r­ü­ ­i­ç­i­n­ ­t­e­h­l­i­k­e­ ­o­l­u­ş­t­u­r­d­u­ğ­u­ ­k­o­n­u­s­u­n­d­a­ ­u­y­a­r­d­ı­

B­a­n­k­ ­o­f­ ­E­n­g­l­a­n­d­,­ ­A­I­ ­ö­n­y­a­r­g­ı­s­ı­n­ı­n­ ­f­i­n­a­n­s­ ­s­e­k­t­ö­r­ü­ ­i­ç­i­n­ ­t­e­h­l­i­k­e­ ­o­l­u­ş­t­u­r­d­u­ğ­u­ ­k­o­n­u­s­u­n­d­a­ ­u­y­a­r­d­ı­

Günümüzün örtülü önyargısı üretken yapay zeka İngiltere Merkez Bankası için çalışan bir finansal teknoloji uzmanı tarafından hazırlanan bir rapora göre, modeller finans sektöründe hızlı bir şekilde benimsenmeyi tehlikeli hale getiriyor.

Kathleen Blake’in Çarşamba günü yayınlanan raporu, yapay zeka modelinin önyargısını iki kategoriye ayırıyor: temel eğitim verilerine dayanan önyargı ve model çıktısının sonuçlarına dayanan önyargı. Her ikisi de geliştiricilerin ve yaratıcıların yapay zeka modellerine getirdiği insani önyargıları yansıtsa da, ilk kategorinin yalnızca kadınlık veya beyaz olmama gibi durumları gösteren veri noktalarından kurtularak etkisiz hale getirilmesi imkansızdır.

Blake, veri önyargısını ipotek kredilerindeki kırmızı çizgi uygulamasına benzetti. Kırmızı çizgi sisteminde, ev sigortacıları ve ipotek kredisi verenler, beyaz olmayan müşterileri mahallelerine göre “riskli” olarak değerlendiriyor, bu da beyaz olmayan insanlar için kredi ve sigortaya ulaşmayı daha zor hale getiriyor, ancak reddedilmeleri veya daha yüksek fiyatları doğrudan ırka atfetmiyor. Blake, benzer mantığın yapay zeka sistemlerinde zaten görülebildiğini belirtti.

“[T]Model, korunmayan özelliklere dayalı olarak önyargılı karar almaya yol açan temel korelasyonları ortaya koyabilir.” Blake yazdı. “Başka bir deyişle, geri kalan korunmayan özellikler, korunan özelliklerin vekilleri olarak hareket edebilir.”

Toplumsal önyargı ise tam tersine, “bir toplumdan gelen normların ve olumsuz mirasın kör noktalara neden olduğu yerdir.” Blake, Amazon’un kadın adaylardan daha fazla erkek aday önerme eğiliminde olan bir işe alım algoritmasına değindi, çünkü veriler tarihsel olarak erkeklerin daha sık işe alınma eğiliminde olduğunu gösteriyordu.

Blake, yapay zeka önyargısının özellikle finans sektöründe tehlikeli olduğu konusunda uyardı. Bankacılık sistemine olan güven, yapay zeka tarafından sergilenen yukarıda belirtilen önyargılar nedeniyle ciddi bir risk altındadır; zira yapay zeka (insan karar vericilere göre belirgin şekilde daha az ayrımcı olmasına rağmen), beyaz olanlarla karşılaştırıldığında siyahi ve Latin mortgage müşterilerinden hala daha yüksek oranlar talep etmektedir. Dahası, özel modellerin şeffaf olmayan “kara kutu” doğası, büyük bir grup önemli firmanın bunları benzer amaçlarla kullanması durumunda, eylemlerinin bir bütün olarak ekonomi üzerinde büyük bir etkiye sahip olabileceği ve pazarlıkta oldukça öngörülemez olabileceği anlamına gelir.

Blake, bu tür istikrarsızlaştırıcı yapay zeka olayının henüz gerçekleşmediğini kabul etti, ancak 2021’de Apple ve Goldman Sachs’ın New York Eyaleti Finansal Hizmetler Departmanı tarafından algoritmik olarak daha küçük hatlar sunmaları nedeniyle araştırıldığı bir vakaya atıfta bulunarak risklerin son derece gerçek olduğu konusunda uyardı. kadınlara kredi.

Blake, “Önyargı, adalet ve etik ile ilgili doğal sorunların ötesinde, bu durum potansiyel olarak finansal kurumlar veya bir bütün olarak finansal sistem için istikrar sorunlarına yol açabilir” diye yazdı.

Popular Articles

Latest Articles