B­i­r­l­e­ş­i­k­ ­K­r­a­l­l­ı­k­ ­v­e­r­i­ ­d­ü­z­e­n­l­e­y­i­c­i­s­i­,­ ­ü­r­e­t­k­e­n­ ­A­I­ ­v­e­r­i­ ­k­o­r­u­m­a­ ­e­n­d­i­ş­e­l­e­r­i­ ­k­o­n­u­s­u­n­d­a­ ­u­y­a­r­ı­ ­y­a­y­ı­n­l­a­d­ı­

B­i­r­l­e­ş­i­k­ ­K­r­a­l­l­ı­k­ ­v­e­r­i­ ­d­ü­z­e­n­l­e­y­i­c­i­s­i­,­ ­ü­r­e­t­k­e­n­ ­A­I­ ­v­e­r­i­ ­k­o­r­u­m­a­ ­e­n­d­i­ş­e­l­e­r­i­ ­k­o­n­u­s­u­n­d­a­ ­u­y­a­r­ı­ ­y­a­y­ı­n­l­a­d­ı­


İngiltere’nin veri düzenleyicisi, teknoloji şirketlerine büyük dil geliştirirken ve dağıtırken kişisel bilgileri koruma konusunda bir uyarı yayınladı. üretici yapay zeka modeller.

İtalya’nın veri gizliliği düzenleyicisinin, gizlilik ihlalleri iddiasıyla ChatGPT’yi yasaklamasından bir haftadan kısa bir süre sonra, Bilgi Komisyonu Ofisi (ICO), kuruluşlara, işlenmekte olan kişisel bilgiler halka açık kaynaklardan geldiğinde veri koruma yasalarının hala geçerli olduğunu hatırlatan bir blog yazısı yayınladı.

ICO’nun teknoloji ve yenilik direktörü Stephen Almond, “Üretken yapay zeka geliştiren veya kullanan kuruluşlar, veri koruma yükümlülüklerini en başından itibaren göz önünde bulundurmalı, tasarım gereği ve varsayılan olarak bir veri koruma yaklaşımı benimsemelidir” dedi. postalamak.

Almond ayrıca, üretken yapay zeka geliştirmek amacıyla kişisel verileri işleyen kuruluşların kendilerine sormaları gereken çeşitli sorular olduğunu ve şu konulara odaklandığını söyledi: kişisel verileri işlemek için yasal dayanakları nedir; güvenlik risklerini nasıl azaltabilirler; ve bireysel hak taleplerine nasıl yanıt verecekleri.

Almond, “Üretken yapay zekanın mahremiyet üzerindeki etkilerini yanlış anlamanın hiçbir mazereti olamaz,” dedi ve ChatGPT’nin kendisine yakın zamanda “üretken yapay zekanın, diğer tüm teknolojiler gibi, kullanılmadığı takdirde veri gizliliğine yönelik riskler oluşturma potansiyeline sahip olduğunu” söylediğini ekledi. sorumlu bir şekilde.”

Almond, “Kuruluşların doğru anladığından emin olmak için çok çalışacağız” dedi.

ICO ve İtalyan veri düzenleyicisi, son zamanlarda üretken yapay zekanın halk için neden olabileceği potansiyel risk hakkında endişelerini dile getirenler değil.

Geçen ay, Apple’ın kurucu ortağı Steve Wozniak, Twitter’ın sahibi Elon Musk ve 1.100 teknoloji lideri ve bilim insanından oluşan bir grup altı aylık ara verilmesi çağrısında bulundu OpenAI’nin yeni piyasaya sürülen GPT-4’ünden daha güçlü sistemler geliştirmede.

Açık bir mektupta imza sahipleri, distopik bir geleceği tasvir ediyor ve gelişmiş yapay zekanın “uygarlığımızın kontrolünü kaybetmesine” yol açıp açamayacağını sorgularken, aynı zamanda insan gibi davranan sohbet robotlarının sosyal medya platformlarını propaganda ve “sahte haber”.

Grup ayrıca yapay zekanın “yerine getiren işler de dahil olmak üzere tüm işleri otomatikleştirebileceği” endişesini dile getirdi.

AI düzenlemesi neden bir zorluktur?

Gartner’da analist olan Frank Buytendijk, yapay zekayı düzenleme söz konusu olduğunda en büyük zorluğun inovasyonun o kadar hızlı ilerlemesi ki düzenlemelerin ayak uydurmakta zorlanması olduğunu söylüyor ve düzenlemelerin çok spesifik olması durumunda teknolojinin hareket ettiği anda etkililiğini yitirdiğine dikkat çekiyor. Açık.

“Eğer çok yüksek seviyedelerse, net olmadıkları için etkili olmakta zorlanırlar” dedi.

Bununla birlikte Buytendijk, yapay zeka inovasyonunu nihai olarak engelleyebilecek olanın düzenleme olmadığını, bunun yerine çok fazla maliyetli hata nedeniyle güven ve sosyal kabul kaybı olduğunu da sözlerine ekledi.

Buytendijk, “Yapay zeka düzenlemesi, modellerin önyargı için kontrol edilmesini talep etmesi ve algoritmaların daha şeffaf olmasını talep etmesi, önyargının tespit edilebilmesini ve şeffaflık ile açıklanabilirliğin sağlanabilmesini sağlamak için birçok yeniliği de tetikliyor” dedi.

Telif hakkı © 2023 IDG Communications, Inc.


Popular Articles

Latest Articles