Y­a­p­a­y­ ­g­e­n­e­l­ ­z­e­k­a­n­ı­n­ ­y­ü­k­s­e­l­i­ş­i­n­d­e­n­ ­k­o­r­k­m­a­l­ı­ ­m­ı­y­ı­z­?­

Y­a­p­a­y­ ­g­e­n­e­l­ ­z­e­k­a­n­ı­n­ ­y­ü­k­s­e­l­i­ş­i­n­d­e­n­ ­k­o­r­k­m­a­l­ı­ ­m­ı­y­ı­z­?­


Geçen hafta, teknoloji uzmanlarından oluşan bir grup, “toplum ve insanlık için büyük riskler” öne sürerek yapay zeka (AI) laboratuvarlarının en güçlü AI sistemlerini en az altı ay boyunca eğitmeyi bırakmasını istedi.

bir açık mektup Apple’ın kurucu ortağı Steve Wozniak da dahil olmak üzere şu anda 2.100’den fazla imza sahibi olan teknoloji liderleri, San Francisco merkezli OpenAI Lab’ın yakın zamanda duyurulan GPT-4 algoritmasına özellikle seslendi ve şirketin gözetim standartları yerine getirilene kadar daha fazla geliştirmeyi durdurması gerektiğini söyledi. Bu hedef, dünyanın her yerinden teknoloji uzmanlarının, CEO’ların, CFO’ların, doktora öğrencilerinin, psikologların, tıp doktorlarının, yazılım geliştiricilerin ve mühendislerin, profesörlerin ve devlet okulu öğretmenlerinin desteğine sahiptir.

Beklenti, Üretken Önceden Eğitilmiş Transformatör anlamına gelen GPT’nin, GPT-5 – ve bu sürüm bir olacak yapay genel zeka, veya AGİ. AGI, kendi kendine düşünebilen yapay zekayı temsil eder ve bu noktada, algoritma zaman içinde katlanarak daha akıllı büyümeye devam eder.

2016 civarında, AI eğitim modellerinde önceki sistemlerden iki ila üç kat daha büyük bir trend ortaya çıktı. Epoch’a göre, dönüştürücü yapay zekanın gelişimini tahmin etmeye çalışan bir araştırma grubu. Bu eğilim devam etti.

Direktörü Jaime Sevilla’ya göre şu anda eğitim hesaplaması açısından GPT-4’ten daha büyük AI sistemleri yok. dönem. Ama bu değişecek.

çığır açan ilerlemeler dönem

Yapay zeka için büyük ölçekli Makine Öğrenimi modellerinin kapasitesi her yıl iki kattan fazla arttı.

UC Santa Cruz’da fizik profesörü ve geliştiricilere açık mektubu yayınlayan kar amacı gütmeyen bir kuruluş olan Future of Life’ın başkan yardımcısı Anthony Aguirre, GPT-4’ün daha fazla devam etmeyeceğine inanmak için hiçbir neden olmadığını söyledi. hesaplama yeteneklerini her yıl ikiye katlıyor.

“En büyük ölçekli hesaplamalar, boyutu yılda yaklaşık 2,5 kat artırıyor. Acquirre, GPT-4’ün parametreleri OpenAI tarafından açıklanmadı, ancak bu eğilimin durduğunu ve hatta yavaşladığını düşünmek için hiçbir neden yok” dedi. “Hangi hesaplamaları yaptıklarını yalnızca laboratuvarların kendileri biliyor, ancak eğilim açık.”

onun içinde iki haftada bir blog 23 Mart’ta Microsoft’un kurucu ortağı Bill Gates, herhangi bir görevi veya konuyu öğrenebilen AGI’yi “bilgisayar endüstrisinin büyük hayali” olarak müjdeledi.

Gates, “AGI henüz mevcut değil – bilgisayar endüstrisinde onun nasıl yaratılacağı ve hatta yaratılıp yaratılamayacağı hakkında güçlü bir tartışma var” diye yazdı. “Şimdi, makine öğreniminin ve büyük miktarda bilgi işlem gücünün gelişiyle, gelişmiş yapay zekalar bir gerçek ve çok hızlı bir şekilde daha iyi olacaklar.”

CEO’su Muddu Sudhakar Aiseraişletmeler için üretken bir yapay zeka şirketi olan OpenAI gibi AGI’ye odaklanan bir avuç şirket olduğunu söyledi ve Derin Düşünce (Google tarafından desteklenmektedir), ancak “muazzam miktarda finansal ve teknik kaynağa” sahiptirler.

Buna rağmen, AGI’ye ulaşmak için kat etmeleri gereken uzun bir yol var.

Sudhakar, “Yapay zeka sistemlerinin sağduyulu muhakeme, bir gerçeğin ne olduğunu bilme ve soyut kavramları (adalet, politika ve felsefe gibi) anlama gibi insanların doğal olarak yapabileceği pek çok görev var” dedi. Bilgisayar Dünyası. “AGI için birçok atılım ve yeniliğin olması gerekecek. Ancak bu sağlanırsa, bu sistem büyük ölçüde insanların yerini alacak gibi görünüyor.

Sudhakar, “Bu kesinlikle yıkıcı olacaktır ve AGI’nin tam kontrolü ele geçirmesini önlemek için çok sayıda korkuluk olması gerekir.” Dedi. “Ama şimdilik, bu muhtemelen uzak bir gelecekte. Daha çok bilim kurgu alanında.”

Herkes aynı fikirde değil.

Yapay zeka teknolojisi ve sohbet robotu asistanları, neredeyse her sektörde çığır açtı ve açmaya devam edecek. Teknoloji verimlilik yaratabilir ve sıradan görevleri üstlenebilir, bilgi çalışanlarını ve diğerlerini daha önemli işlere odaklanmaları için serbest bırakır.

Örneğin, sohbet botlarına güç veren algoritmalar olan büyük dil modelleri (LLM’ler) milyonlarca uyarıyı, çevrimiçi sohbeti ve e-postayı inceleyebilir ve ayrıca kimlik avı web sayfalarını ve potansiyel olarak kötü amaçlı yürütülebilir dosyaları bulabilir. LLM destekli sohbet botları, yalnızca basit kullanıcı istemlerinden (önerilerden) makaleler, pazarlama kampanyaları yazabilir ve bilgisayar kodu önerebilir.

LLM’ler tarafından desteklenen sohbet robotları, temel olarak bir kullanıcının sorusuyla istendikten sonra sonraki kelimeleri tahmin eden doğal dil işlemcileridir. Bu nedenle, bir kullanıcı bir sohbet robotundan Nantucket’ta bir kumsalda oturan bir kişi hakkında bir şiir yazmasını isterse, yapay zeka, programcıların önceki eğitimlerine dayanan en iyi yanıtlar olan kelimeleri, cümleleri ve paragrafları basitçe zincirler.

Ancak LLM’ler ayrıca yüksek profilli hatalar da yaptılar ve yeni kelime nesil motorlarının raydan çıkıp tuhaf tepkiler ürettiği “halüsinasyonlar” üretebilirler.

Milyarlarca ayarlanabilir parametreye sahip LLM’lere dayalı yapay zeka raydan çıkabilirse, yapay zekanın artık öğretmek için insanlara ihtiyacı kalmadığında ve kendisi için düşünebildiğinde risk ne kadar büyük olur? Gartner Research’ün başkan yardımcısı ve seçkin analisti Avivah Litan’a göre cevap çok daha büyük.

Litan, yapay zeka geliştirme laboratuvarlarının herhangi bir gözetim olmaksızın aşırı bir hızla ilerlediğine ve bunun da AGI’nin kontrol edilemez hale gelmesine neden olabileceğine inanıyor.

Yapay zeka laboratuvarlarının, “kullanıcıların neler olup bittiğini izlemesi için uygun araçları devreye sokmadan hızla ilerlediğini” savundu. Bence herkesin beklediğinden çok daha hızlı gidiyor” dedi.

Mevcut endişe, şirketler tarafından kullanılan AI teknolojisinin, kullanıcıların teknolojinin doğru veya yanlış bilgi üretip üretmediğini belirlemek için ihtiyaç duyduğu araçlar olmadan piyasaya sürülmesidir.

Litan, “Şu anda, tüm bu yenilikçi yeteneğe sahip tüm iyi adamlardan bahsediyoruz ama kötü adamlarda da var,” dedi. “Dolayısıyla, bu su işaretleme sistemlerine sahip olmalı ve neyin gerçek neyin sentetik olduğunu bilmeliyiz. Ve algılamaya güvenemeyiz, içeriğin doğrulanmasına sahip olmalıyız. Aksi takdirde, yanlış bilgi orman yangını gibi yayılacaktır.”

Örneğin, Microsoft bu hafta Güvenlik Yardımcı Pilotunu başlattı, OpenAI’nin GPT-4 büyük dil modelini temel alır. Araç, siber güvenlik uzmanlarının tehditleri hızlı bir şekilde tespit edip bunlara yanıt vermelerine ve genel tehdit ortamını daha iyi anlamalarına yardımcı olan bir yapay zeka sohbet robotudur.

Litan, sorun şu ki, “bir kullanıcı olarak sizin içeri girip yaptığı hataları belirlemeniz gerekiyor” dedi. “Bu kabul edilemez. Bu çıktının muhtemelen %95 doğru olduğunu ve dolayısıyla %5 hata şansı olduğunu söyleyen bir tür puanlama sistemine sahip olmaları gerekir. Ve bunun %10 hata şansı var. Güvenebileceğiniz bir şey olup olmadığını görmek için size performans hakkında herhangi bir fikir vermiyorlar.

Çok da uzak olmayan bir gelecekte daha büyük bir endişe, GPT-4 yaratıcısı OpenAI’nin AGI özellikli bir sürüm yayınlayacak olmasıdır. Bu noktada, teknolojiyi dizginlemek için çok geç olabilir.

Litan’ın önerdiği olası bir çözüm, her üretici yapay zeka aracı için iki model yayınlamaktır – biri yanıtlar oluşturmak için, diğeri ise ilkinin doğruluğunu kontrol etmek için.

“Bu, bir modelin güvenebileceğiniz bir şey ortaya koyup koymadığından emin olmak için gerçekten iyi bir iş çıkarabilir,” dedi. “Bir insanın tüm bu içeriği gözden geçirmesini ve neyin doğru olup olmadığına karar vermesini bekleyemezsiniz, ancak onlara kontrol eden başka modeller verirseniz… bu, kullanıcıların performansı izlemesine olanak tanır.”

2022’de Zaman bildirildi OpenAI, GPT LLM’nin güvenli bilgi üretip üretmediğini belirlemek için Kenya’daki düşük ücretli işçilere dış kaynak sağladı. İşe alınan işçiler samaSan Francisco merkezli bir şirket olan şirketin saat başına 2 dolar aldığı ve “şiddet içeren, cinsiyetçi ve hatta ırkçı yorumları ağzından kaçırmaya meyilli” GPT uygulama yanıtlarını gözden geçirmesi gerektiği bildirildi.

“Ve sen bizi böyle mi koruyorsun? Hastalanan insanlara saatte 2 dolar ödüyoruz. Tamamen verimsiz ve tamamen ahlaka aykırı” dedi Litan.

Litan, “Yapay zeka geliştiricilerinin politika yapıcılarla çalışması gerekiyor ve bunlar en azından yeni ve yetenekli düzenleyici makamları içermelidir” diye devam etti. “Oraya ulaşabilecek miyiz bilmiyorum ama düzenleyiciler buna ayak uyduramıyor ve bu yıllar önce tahmin edilmişti. Yeni bir otorite türü bulmamız gerekiyor.”

Shubham Mishra, AI start-up’ın kurucu ortağı ve küresel CEO’su Pixis, kendi alanındaki ilerlemenin “duramayacağına ve durmaması gerektiğine” inanırken, yapay zeka geliştirmede bir duraklama çağrısının haklı olduğuna inanıyor. Üretken yapay zekanın, propaganda ya da “ayırt edilmesi zor” bilgileri kamu alanına pompalayarak kitlelerin kafasını karıştırma gücüne sahip olduğunu söyledi.

“Yapabileceğimiz şey, bu ilerleme için plan yapmak. Bu, ancak hepimizin karşılıklı olarak bu yarışı durdurmayı kabul etmesi ve aynı enerjiyi ve çabaları daha büyük yapay zeka modellerinin güvenli gelişimi için yönergeler ve protokoller oluşturmaya yoğunlaştırması durumunda mümkün olabilir” dedi. Bilgisayar Dünyası.

“Bu özel durumda, çağrı yapay zeka gelişiminin genel olarak yasaklanması için değil, insan zekasıyla rekabet eden daha büyük, öngörülemeyen modeller oluşturmaya geçici bir ara verilmesi için” diye devam etti. “Yeni, güçlü AI yeniliklerinin ve modellerinin geliştirildiği akıllara durgunluk veren oranlar, kesinlikle teknoloji liderlerinin ve diğerlerinin güvenlik önlemleri ve protokolleri oluşturmak için bir araya gelmelerini gerektiriyor.”

Telif hakkı © 2023 IDG Communications, Inc.


Popular Articles

Latest Articles