T­e­k­n­o­l­o­j­i­ ­t­r­e­n­d­l­e­r­i­ ­2­0­2­2­:­ ­A­I­ ­h­a­l­a­ ­k­o­n­u­ş­u­l­m­a­l­ı­

T­e­k­n­o­l­o­j­i­ ­t­r­e­n­d­l­e­r­i­ ­2­0­2­2­:­ ­A­I­ ­h­a­l­a­ ­k­o­n­u­ş­u­l­m­a­l­ı­

2021 yılı henüz sona erdiği için, ZDNet’in yazı işleri ekibinin 2022 yılına damgasını vuracak teknolojileri gözden geçirme zamanı geldi. Açık kaynak, bulut ve blok zinciri ile ilgili trendleri tartıştıktan sonra, şimdi veritabanları, veri yönetimi ve yapay zeka (AI) dünyasının bu yeni yılda bize neler getirdiğine odaklanalım.

Prensip olarak, yapay zekaya bütünsel olarak yaklaşmak daha kolaydır. Parlaktan sıradana, donanımdan yazılıma giden bu teknolojinin olumlu ve olumsuz yönlerini dikkate almak. Son yıllarda, donanım, AI’nın daha geniş tarihinde tekrar eden bir konu olmuştur.

Son iki yıldır, özellikle yapay zeka iş yüklerini hedefleyen A’dan Z’ye yeni donanım mimarileri geliştirmek için yola çıkan şirketler olan “AI çipleri” tedarikçilerinin büyüyen listesini yakından takip ediyoruz. Hepsi, görünüşte sürekli büyüyen bir pastadan bir parça arıyor: Yapay zeka büyüdükçe, iş yükleri büyümeye devam ediyor ve onlara mümkün olduğunca hızlı ve ekonomik bir şekilde hizmet vermek bariz bir hedef.

Nvidia, AI iş yükleri patlamaya başlamadan çok önce olduğu gibi bu pazara hakim olmaya devam ediyor. Şirket, bir donanım ve yazılım ekosistemi kurarak bu durumdan yararlanmak için içgörü ve reflekslere sahipti. Arm’ı bu ekosisteme entegre etme konusundaki 2020 kararı hâlâ düzenleyici inceleme altında.

Nvidia’nın Kasım 2021’deki GTC etkinliğinde yapılan birçok duyuru arasında, donanım seviyesine yeni bir şey getirenler, 2021’de AI önceliğini karakterize ettiğine inandığımız şeyle ilgili: çıkarım ve çevre. Nvidia, Triton çıkarım sunucusu için bir dizi iyileştirme yaptı. Ayrıca, Nvidia’nın, CPU’lardan 20 kata kadar daha iyi çıkarım performansı sağladığını söylediği uçta AI çıkarımı için düşük güçlü, az yer kaplayan bir hızlandırıcı olan Nvidia A2 Tensor Core GPU’yu da sergiledi.

Peki ya yeni gelenler? SambaNova, bugün 5 milyar dolarlık değerleme işaretini aşarak 676 milyon dolarlık D Serisi finansman sağlayarak “dünyanın en iyi finanse edilen yapay zeka girişimi” olduğunu iddia ediyor. SambaNova’nın felsefesi, artık GPT dil modellerini içeren “Hizmet olarak AI” sunmaktır. Her şeyden önce 2021, şirket için lansman yılı gibi görünüyor.

Xilinx, Nvidia’nın GPU’larına kıyasla sinir ağlarında çarpıcı bir hızlanma elde ettiğini iddia ediyor. Cerebras, ileri teknoloji bilgisayarlara “kesinlikle hükmettiğini” iddia ediyor. Şirket ayrıca önemli bir finansman sağladı. Graphcore, MLPerf sonuçlarında Nvidia (ve Google) ile rekabet ediyor. Tenstorrent, efsanevi çip tasarımcısı Keller’ı işe aldı.

Blaize, endüstriyel uygulamaları son teknoloji yapay zeka ile donatmak için 71 milyon dolar topladı. Flex Logix, 55 milyon dolarlık risk sermayesi artırdı ve toplamını 82 milyon dolara çıkardı. Son olarak, NeuReality ile yarışta yeni bir atımız var, ONNX ve TVM’de dağıtımı karıştırmanın ve eşleştirmenin yolları ve AI çiplerini tasarlamak için AI kullanma vaadimiz var.

Linux Vakfı’nın Edge of the Edge raporuna göre, dijital sağlık, üretim ve perakende şirketlerinin özellikle 2028 yılına kadar uç bilgi işlem kullanımlarını genişletmeleri muhtemel. Hiç şüphe yok ki, uç bilgi işlem için donanım, çerçeveler ve AI uygulamaları da çoğalıyor.

Uçlarda çalışacak kadar tutumlu makine öğrenimi modelleri üretme sanatını ve bilimini kullanan TinyML, hızla büyüyor ve bir ekosistem oluşturuyor. Edge’de makine öğrenimini herkes için erişilebilir hale getirmek isteyen bir girişim olan Edge Impulse, B Serisi finansman için 34 milyon dolar duyurdu. Çevresel uygulamalar geliyor ve yapay zeka ve donanımı bunun önemli bir parçası olacak.

2021, makine öğrenimini üretime getirdiğini iddia eden MLOps olarak adlandırılan şeyin patlamasını gördü. Ancak 2022’de odak noktası artık MLO’ların parlak yeni modelleri üzerinde değil, belki daha sıradan, ancak MLO’ların gelişmeye devam etmesini sağlayacak veri kalitesi ve veri boru hattı yönetimi gibi pratik yönler üzerinde olacak.

Hem büyüklük hem de sayı açısından gelişmesi muhtemel diğer unsur, büyük dil modelleridir (LLM). Bazıları, LLM’lerin biyoloji, kimya veya insan dili gibi temel dil biçimlerini içselleştirebileceğine ve LLM’lerin olağandışı uygulamalarının gelişmek üzere olduğuna inanıyor. Diğerleri aynı fikirde değil. Her iki durumda da, LLM’ler çoğalıyor.

OpenAI ve GPT3’ü, DeepMind ve en son LLM RETRO’su, Google ve sürekli genişleyen ana dil modelleri yelpazesinin yanı sıra Nvidia, Megatron modeli için Microsoft ile ortaklık kurdu. Ama hepsi bu değil. Son zamanlarda, bağımsız AI araştırmacılarından oluşan bir kolektif olan EleutherAI, altı milyar parametre içeren GPT-j modelini yayınladı. İngilizce dışındaki dillerle ilgileniyorsanız, şimdi Aleph Alpha tarafından oluşturulan harika bir Avrupa dilleri modeline (İngilizce, Almanca, Fransızca, İspanyolca ve İtalyanca) sahiptir.

DeepMind ve Google, geniş dil modellerinin ötesinde, sırasıyla Perceiver ve Pathways ile AI modelleri için çığır açan mimarilere dair ipuçları verdi. Yollar oldukça belirsiz olduğu için eleştiriliyor. Ancak, Perceiver’a dayalı olabileceği tahmin edilebilir. Ancak geleceğin teknolojisi alanında kalmak için, klasik hesaplama algoritmalarını derin öğrenme ile birleştirmeyi vaat eden bir araştırma yönü olan DeepMind’in sinirsel algoritmik akıl yürütmesinden bahsetmemek bir ihmal olacaktır.

Ne kadar yoğun olursa olsun, 2021 yılında yapay zekaya yapılan hiçbir ziyaret, yapay zeka etiği üzerine yürütülen çalışmaların onursal bir sözü olmadan tamamlanmış sayılmaz. Yapay zeka etiği 2021’de endişe odağı olmaya devam etti. Düzenleyicilerden uygulayıcılara kadar herkes yapay zeka etiğini kendi yöntemleriyle yeniden yazmak için kendi başına gitti. Yapay zeka olsun ya da olmasın, etiğin birinci öncelik olması gereken bir alan olan sağlık hizmetlerinde yapay zeka uygulamalarında yaşanan mevcut patlamayı da unutmayalım.

Kaynak: ZDNet.com

Popular Articles

Latest Articles