“­D­i­j­i­t­a­l­ ­d­ü­n­y­a­d­a­ ­i­n­o­v­a­s­y­o­n­ ­a­y­n­ı­ ­z­a­m­a­n­d­a­ ­e­t­i­k­l­e­ ­d­e­ ­i­l­g­i­l­i­ ­o­l­m­a­l­ı­ ­v­e­ ­b­u­ ­b­a­z­e­n­ ­i­z­i­n­ ­v­e­r­m­e­d­e­n­ ­ö­n­c­e­ ­y­a­s­a­k­l­a­m­a­k­ ­a­n­l­a­m­ı­n­a­ ­g­e­l­i­y­o­r­”­

“­D­i­j­i­t­a­l­ ­d­ü­n­y­a­d­a­ ­i­n­o­v­a­s­y­o­n­ ­a­y­n­ı­ ­z­a­m­a­n­d­a­ ­e­t­i­k­l­e­ ­d­e­ ­i­l­g­i­l­i­ ­o­l­m­a­l­ı­ ­v­e­ ­b­u­ ­b­a­z­e­n­ ­i­z­i­n­ ­v­e­r­m­e­d­e­n­ ­ö­n­c­e­ ­y­a­s­a­k­l­a­m­a­k­ ­a­n­l­a­m­ı­n­a­ ­g­e­l­i­y­o­r­”­


Filozof ve psikanalist Elsa Godart, Paris-Est-Créteil-Val-de-Marne Üniversitesi’nde (UPEC) “Etik ve dijital – sağlık” üniversite derecesini yarattı. Hannah-Arendt Disiplinlerarası Siyaset Araştırmaları Laboratuvarı’nda (Gustave-Eiffel Üniversitesi) araştırmacı ve Siyasi Antropoloji Laboratuvarı’nda (EHESS-CNRS) yardımcı araştırmacıdır. Yazdı Samimiyet ahlakı. Yalanlar Çağında Hayatta Kal (Arman Colin, 2020).

Ayrıca okuyun: Makale abonelerimize ayrılmıştır. Yapay zekanın ürettiği sesler, “hukuk sorunu”

Bir etik ve dijital tüzük oluşturmak istiyorsunuz. Ne amaçla?

Bu, teknik-bilimsel gelişmelerin önemli bir sorununa cevap verecektir. Bir noktada elimizden kaçıyorlar ve onları bir bütün olarak yakalayamıyoruz. Bir mikro-örnek alalım, ancak problemin oldukça simgesidir. derin sahteler. TikTok uygulamasında bulunan ve kişinin görünümünü değiştiren bazı filtreler tamamen algılanamaz. Bu, özellikle ergenliğin kimlik krizinin ortasında olan gençlerde, kendi kendini inşa etme sorununu gündeme getiriyor. Bu tür uygulamalar, piyasaya sürülmeden önce bir komite tarafından onaylanması gereken bilimsel keşiflerin aksine, yukarı yönde test edilmeden, herhangi bir onay ve herhangi bir etik çerçeve olmaksızın piyasaya sürülür.

Sen ne önerirsin?

Bir standart getirilmeli. Bu alanlarda düzenleme kesinlikle gereklidir. Teknolojik bir yenilik toplumsalın, insanın alanına girer girmez bir etik kurulun önüne gitmeli; insan ve “insan” olan her şey teknolojinin bir nesnesi olarak görülmemelidir. bir tür içindeyiz “etik boşluk”Alman filozof Hans Jonas’ın kitabında formüle ettiği şekliyle Sorumluluk İlkesi [1979]. O kınadı “Modern teknolojinin içerdiği kıyamet olasılıkları” emsal teşkil eden hidrojen bombası gibi; bundan böyle İnsan kendini yok edebilir. Bizi aşan teknik-bilimsel bir ortamda olduğumuzda, artık şeyler ve onların geleceği hakkında düşünecek etik araçlara sahip değiliz, yeni ilkeler, yeni kurallar koymak zorundayız. İnovasyon aynı zamanda etik olmalıdır. Ve bazen bu, izin vermeden önce yasaklamak anlamına gelir!

Bu aynı zamanda güven sorununu da gündeme getiriyor mu?

Evet ve nesneye hakim olana kadar bu güven imkansızdır. Yapay zeka gibi yenilikler [IA] test edilir, halka sunulur ve ancak o zaman analiz edilir. Son derece endişe verici. Kalabalığı endişelendiren ChatGPT örneğini ele alalım. Böyle bir aracın sahip olabileceği etkiye ilişkin yukarı yönde herhangi bir yansıma olmamıştır. Ustalaşmaya gelince, biz onu evcilleştirmeden önce herkes tarafından mevcuttu ve kullanılıyordu. Eğilim gösterdiğimiz daha yüksek aşamadan, kendi kendini üretecek olan yapay zekanın güçlendirilmesinden bahsetmiyorum bile ve orada tüm kontrol olasılığımızı kaybetmiş olacağız… ChatGPT ne zaman ilerleyecek, ne zaman daha fazla olacak kesin, soru neden kendimiz için düşündüğümüzü, neden yazmaya çalıştığımızı, makine bunu benim gibi ve hatta daha iyi yapabildiğinde soracaktır…

Bu makalenin %22,8’ini okumak için kaldınız. Aşağıdakiler yalnızca aboneler içindir.


Popular Articles

Latest Articles