G­o­o­g­l­e­ ­I­/­O­­d­a­ ­­S­o­r­u­m­l­u­ ­Y­a­p­a­y­ ­Z­e­k­a­­d­a­n­ ­B­a­h­s­e­d­i­y­o­r­.­ ­ ­N­e­ ­h­a­k­k­ı­n­d­a­?­

G­o­o­g­l­e­ ­I­/­O­­d­a­ ­­S­o­r­u­m­l­u­ ­Y­a­p­a­y­ ­Z­e­k­a­­d­a­n­ ­B­a­h­s­e­d­i­y­o­r­.­ ­ ­N­e­ ­h­a­k­k­ı­n­d­a­?­

Büyük gücün büyük sorumluluk gerektirdiğini biliyoruz ve bu özellikle yapay zeka. Geçtiğimiz bir buçuk yılda çoğalan sohbet robotları ve diğer üretken yapay zeka araçları, sizi insan sesi gibi diyaloglara sokabilir, makul e-postalar ve makaleler yazabilir, tıpkı gerçek dünyadaki politikacılara benzeyen sesler çıkarabilir ve hayali fotoğraflar ve videolar yaratabilir. gerçeğe giderek daha da yaklaşıyor.

AI Atlası etiketi

Zooey Liao/CNET

Demek istediğim, endişelenmene gerek yok, değil mi?

Aslında, ister insanlar tarafından kötüye kullanılma potansiyeli, ister yapay zekanın kendisinin kötü niyetli eylemleri olsun, yapay zeka hakkında endişelenmek gerçekten büyük bir mesele.

Bu nedenle Google gibi bir şirket, yazılım geliştiricilere yönelik gösterişli bir etkinliğe ev sahipliği yaptığında sorumlu yapay zeka kavramından bahsediyor. Bu, Salı günü iki saatlik süreçte açıkça ortaya çıktı Google G/Ç Şirketin en son yapay zeka gelişmelerini, özellikle de şirketle ilgili olanlarını konu alan açılış konuşması Gemini sohbet robotu.

Gibi gelişmeler olurken uzun bağlam pencereleri, çok modluluk Ve kişiselleştirilmiş ajanlar Zamandan tasarruf etmemize ve daha verimli çalışmamıza yardımcı olabilirler, aynı zamanda, örneğin dolandırıcı sanatçıların dolandırıcılık yapmaları için fırsatlar da sunarlar… ve daha kötüsü.

Google I/O 2024'ten daha fazlası

Bu tür kötü sonuçlara karşı korunmak için yapay zeka üreticilerinin uyanık kalması gerekiyor. Açılış konuşmasında Google, otomatikleştirilmiş kaynaklar ile insan kaynaklarının bir kombinasyonunu içeren sorumlu yapay zekaya yönelik yaklaşımını özetledi.

Google'ın araştırma, teknoloji ve toplumdan sorumlu kıdemli başkan yardımcısı James Manyika, açılış konuşmasında şunları söyledi: “Bu alanda, zarar ve kötüye kullanım potansiyeli de dahil olmak üzere pek çok araştırma yapıyoruz.”

Yeniliği güvenlikle dengelemeye yardımcı olacak yapay zeka ilkelerine olan ihtiyacı dile getiren tek kişi Google değil. ChatGPT yapımcısı OpenAI, GPT-4o modelini duyuruyor Pazartesi günü kendi yönergelerine atıfta bulundu. Blog yazısında, “GPT-4o'nun, ses çıkışlarında korkuluk sağlamak için yeni sistemler de dahil olmak üzere tasarım gereği yerleşik bir güvenliğe sahip olduğu” belirtildi.

Hızlı ve iyi bir Google araması yaptığınızda, görünüşe göre her şirketin sorumlu veya etik yapay zekaya adanmış sayfaları olduğunu göreceksiniz. Örneğin: Microsoft, Meta, Adobe Ve Antropikile birlikte OpenAI Ve Google kendisi.

Yapay zekanın giderek daha gerçekçi sonuçlar vermesiyle bu daha da zorlaşacak bir zorluk Görüntüler, videolar Ve ses.

İşte Google'ın yaptıklarından bazılarına bir bakış.

Şunu izle: Google'ın I/O 2024'te Duyurduğu Her Şey

Yapay zeka destekli kırmızı takım oluşturma

Etik bilgisayar korsanlarının kötü niyetli bilgisayar korsanlarının zayıf noktalarını belirlemek için şirketin sistemlerine karşı taktiklerini taklit etmelerine izin verildiğinde ortaya çıkan standart kırmızı ekip çalışmasına ek olarak Google, yapay zeka destekli kırmızı ekip adını verdiği şeyi geliştiriyor.

Bu taktikle Google, AI temsilcilerini birbirleriyle rekabet etmeleri için eğitiyor ve böylece geleneksel kırmızı takım yeteneklerinin kapsamını genişletiyor.

“Rakip yönlendirmelerin ele alınmasına ve sorunlu çıktıların sınırlandırılmasına yardımcı olmak için bu yeteneklere sahip yapay zeka modelleri geliştiriyoruz.”Manyika dedi.

Google ayrıca, modelleri hakkında geri bildirimde bulunmak üzere çeşitli disiplinlerden iki grup güvenlik uzmanını da işe aldı.

Manyika, “Her iki grup da siber güvenlik tehditlerinden kimyasal biyo gibi alanlarda potansiyel olarak tehlikeli yeteneklere kadar ortaya çıkan riskleri belirlememize yardımcı oluyor” dedi.

OpenAI ayrıca risklerin belirlenmesine ve korkulukların oluşturulmasına yardımcı olmak için model eğitim sürecinde kırmızı ekip oluşturma ve otomatik ve insan değerlendirmelerinden de yararlanıyor.

Sentez Kimliği

Modellerinin kötüye kullanımını önlemek için Resim 3 görüntü oluşturucu ve yeni Veo video oluşturucu yanlış bilgi yaymakGoogle, yapay zeka tarafından oluşturulan görsellere ve sese filigran ekleyen Synth ID aracını metin ve videoya da genişletiyor.

Kaynak Synth ID metin filigranını “önümüzdeki aylarda” açacak.

Geçen hafta, TikTok duyuruldu AI tarafından oluşturulan içeriğe filigran eklemeye başlayacağını

Toplumsal faydalar

Google'ın sorumlu yapay zeka çalışmaları aynı zamanda bilim adamlarının hastalıkları tedavi etmelerine, selleri tahmin etmelerine ve Birleşmiş Milletler gibi kuruluşların dünyanın 17 Sürdürülebilir Kalkınma Hedefine ilişkin ilerlemeyi izlemesine yardımcı olmak gibi topluma nasıl fayda sağlanabileceğine de odaklanıyor.

Manyika sunumunda, öğrencilere öğretmenlik veya öğretmenlere asistanlık yapmak gibi üretken yapay zekanın eğitimi nasıl geliştirebileceğine odaklandı.

Bu şunları içerir: Gem veya Gemini'nin özel bir versiyonu beğenmek ChatGPT'nin özel GPT'leri, Lear LM adı verilen öğrenmeye odaklanan Gemini modelleri ailesinin yanı sıra çalışma rehberliği, pratik ve hafıza teknikleri sağlayan Öğrenme Koçu adı verilen. Bunlara Arama, Android, Gemini ve YouTube gibi Google ürünleri aracılığıyla erişilebilecek.

Bu Mücevherlerin Gemini'de “önümüzdeki aylarda” satışa sunulacağını söyledi.

Editörün notu: CNET, bir avuç hikaye oluşturmaya yardımcı olmak için bir yapay zeka motoru kullanıyor. AI ürünlerine ilişkin bunun gibi incelemeler CNET'in diğer uygulamalı incelemeleri, şirket içi uzmanlardan oluşan insan ekibimiz tarafından yazılmıştır. Daha fazlası için bkz. CNET'in yapay zeka politikası Ve Yapay zekayı nasıl test ediyoruz.



Kaynak bağlantısı

Popular Articles

Latest Articles