A­n­t­h­r­o­p­i­c­ ­a­r­t­ı­k­ ­ç­o­c­u­k­l­a­r­ı­n­ ­A­I­ ­t­e­k­n­o­l­o­j­i­s­i­n­i­ ­s­ı­n­ı­r­l­a­r­ ­d­a­h­i­l­i­n­d­e­ ­k­u­l­l­a­n­m­a­l­a­r­ı­n­a­ ­i­z­i­n­ ­v­e­r­i­y­o­r­

A­n­t­h­r­o­p­i­c­ ­a­r­t­ı­k­ ­ç­o­c­u­k­l­a­r­ı­n­ ­A­I­ ­t­e­k­n­o­l­o­j­i­s­i­n­i­ ­s­ı­n­ı­r­l­a­r­ ­d­a­h­i­l­i­n­d­e­ ­k­u­l­l­a­n­m­a­l­a­r­ı­n­a­ ­i­z­i­n­ ­v­e­r­i­y­o­r­


Yapay zeka girişimi Anthropic, en azından belirli durumlarda reşit olmayanların üretken yapay zeka sistemlerini kullanmasına izin verecek şekilde politikalarını değiştiriyor.

Bir şekilde duyuruldu postalamak Cuma günü şirketin resmi blogunda Anthropic, gençlerin ve gençlerin üçüncü taraf uygulamalarını kullanmasına izin vermeye başlayacak (ancak kendi uygulamasını değil) uygulamalarBu uygulamaların geliştiricileri belirli güvenlik özelliklerini uyguladığı ve kullanıcılara hangi Antropik teknolojilerden yararlandıklarını açıkladıkları sürece yapay zeka modelleri tarafından desteklenmektedir.

İçinde destek makalesiAnthropic, yaş doğrulama sistemleri, içerik denetimi ve filtreleme ile küçükler için “güvenli ve sorumlu” yapay zeka kullanımına ilişkin eğitim kaynakları gibi, küçüklere yönelik yapay zeka destekli uygulamalar üreten geliştiricilerin içermesi gereken çeşitli güvenlik önlemlerini listeliyor. Şirket ayrıca, küçükleri hedef alan geliştiricilerin uygulaması gereken bir “çocuk güvenliği sistemi uyarısı” gibi, yapay zeka ürün deneyimlerini küçüklere uyarlamayı amaçlayan “teknik önlemleri” de sunabileceğini söylüyor.

Anthropic’in yapay zeka modellerini kullanan geliştiricilerin aynı zamanda 13 yaşın altındaki çocukların çevrimiçi gizliliğini koruyan ABD federal yasası olan Çocukların Çevrimiçi Gizliliğini Koruma Yasası (COPPA) gibi “geçerli” çocuk güvenliği ve veri gizliliği düzenlemelerine de uyması gerekecek. Anthropic bunu planladığını söylüyor Uygulamaları uyumluluk açısından “periyodik olarak” denetlemek, uyumluluk gerekliliğini sürekli olarak ihlal edenlerin hesaplarını askıya almak veya sonlandırmak ve geliştiricilerin, halka açık sitelerde veya belgelerde uyumlu olduklarını “açıkça belirtmelerini” zorunlu kılmak.

Anthropic, gönderisinde “Yapay zeka araçlarının genç kullanıcılara test hazırlığı veya özel ders desteği gibi önemli faydalar sağlayabileceği belirli kullanım durumları var” diye yazıyor. “Bunu göz önünde bulundurarak güncellenen politikamız, kuruluşların API’mizi reşit olmayanlara yönelik ürünlerine dahil etmelerine olanak tanıyor.”

Anthropic’in politikasındaki değişiklik, çocukların ve gençlerin yalnızca çeşitli konularda yardım için üretken yapay zeka araçlarına giderek daha fazla yönelmesiyle birlikte geliyor. okul işi ancak kişisel sorunlar ve rakip üretken yapay zeka sağlayıcıları (Google ve OpenAI dahil) çocuklara yönelik daha fazla kullanım senaryosu araştırıyor. Bu yıl OpenAI, çocuk güvenliğini incelemek için yeni bir ekip kurdu ve çocuk dostu yapay zeka yönergeleri üzerinde işbirliği yapmak üzere Common Sense Media ile bir ortaklık yaptığını duyurdu. Ve Google, Gemini olarak yeniden markalanan sohbet robotu Bard’ı, seçili bölgelerde İngilizce olarak gençlerin kullanımına sundu.

Bir göre anket Demokrasi ve Teknoloji Merkezi’nden çocukların yüzde 29’u OpenAI’nin ChatGPT’si gibi üretken yapay zekayı kaygı ya da zihinsel sağlık sorunlarıyla başa çıkmak için, yüzde 22’si arkadaşlarıyla sorunları için ve yüzde 16’sı aile çatışmaları için kullandığını bildirdi.

Geçtiğimiz yaz okullar ve kolejler, intihal ve yanlış bilgi korkusu nedeniyle üretken yapay zeka uygulamalarını, özellikle de ChatGPT’yi yasaklamak için harekete geçti. O zamandan beri bazıları tersine çevrilmiş onların yasakları. Ancak herkes üretken yapay zekanın iyilik potansiyeline ikna olmuş değil. anketler Çocukların yarısından fazlasının (%53) kendi yaşlarındaki insanların üretken yapay zekayı olumsuz yönde kullandıklarını gördüklerini bildiren Birleşik Krallık Güvenli İnternet Merkezi gibi; örneğin inandırıcı yanlış bilgi veya birisini üzmek için kullanılan resimler oluşturmak (bunlar dahil) pornografik deepfake’ler).

Üretken yapay zekanın çocuklarda kullanımına ilişkin yönergelere yönelik çağrılar artıyor.

BM Eğitim, Bilim ve Kültür Örgütü (UNESCO) geçen yılın sonlarında itti Hükümetlerin, kullanıcılar için yaş sınırlarının uygulanması ve veri koruma ve kullanıcı mahremiyetine ilişkin korkuluklar da dahil olmak üzere üretken yapay zekanın eğitimde kullanımını düzenlemesi gerekiyor. UNESCO genel müdürü Audrey Azoulay bir basın açıklamasında, “Üretken yapay zeka insan gelişimi için muazzam bir fırsat olabilir, ancak aynı zamanda zarara ve önyargıya da neden olabilir” dedi. “Halkın katılımı ve hükümetlerin gerekli önlemleri ve düzenlemeleri olmadan eğitime entegre edilemez.”



genel-24

Popular Articles

Latest Articles