K­a­n­a­d­a­l­ı­ ­S­i­b­e­r­ ­Y­e­t­k­i­l­i­,­ ­Y­a­p­a­y­ ­Z­e­k­a­n­ı­n­ ­K­ö­t­ü­ ­A­m­a­ç­l­ı­ ­Y­a­z­ı­l­ı­m­ ­O­l­u­ş­t­u­r­m­a­k­ ­İ­ç­i­n­ ­K­ö­t­ü­y­e­ ­K­u­l­l­a­n­ı­l­d­ı­ğ­ı­n­ı­ ­İ­d­d­i­a­ ­E­t­t­i­

K­a­n­a­d­a­l­ı­ ­S­i­b­e­r­ ­Y­e­t­k­i­l­i­,­ ­Y­a­p­a­y­ ­Z­e­k­a­n­ı­n­ ­K­ö­t­ü­ ­A­m­a­ç­l­ı­ ­Y­a­z­ı­l­ı­m­ ­O­l­u­ş­t­u­r­m­a­k­ ­İ­ç­i­n­ ­K­ö­t­ü­y­e­ ­K­u­l­l­a­n­ı­l­d­ı­ğ­ı­n­ı­ ­İ­d­d­i­a­ ­E­t­t­i­

Kanada’nın en üst düzey siber güvenlik yetkilisi Reuters’e verdiği demeçte, bilgisayar korsanları ve propagandacıların kötü amaçlı yazılım oluşturmak, ikna edici kimlik avı e-postaları hazırlamak ve internette dezenformasyon yaymak için yapay zekayı (AI) kullandığını, Silikon Vadisi’ni kasıp kavuran teknolojik devrimin siber suçlular tarafından da benimsendiğine dair erken kanıtlar olduğunu söyledi.

Kanada Siber Güvenlik Merkezi Başkanı Sami Khoury, bu hafta yaptığı bir röportajda, ajansının yapay zekanın “kimlik avı e-postalarında veya e-postaları daha odaklı bir şekilde, kötü amaçlı kodda (ve) yanlış bilgi ve dezenformasyonda” kullanıldığını gördüğünü söyledi.

Khoury ayrıntı veya kanıt sağlamadı, ancak siber suçluların zaten yapay zeka kullandığına dair iddiası, ortaya çıkan teknolojinin haydut aktörler tarafından kullanılmasıyla ilgili endişe korosuna acil bir not ekliyor.

Son aylarda birkaç siber gözlemci grubu, AI’nın varsayımsal riskleri hakkında uyarılar yayınladı – özellikle de ikna edici diyaloglar, belgeler ve daha fazlası oluşturmak için büyük hacimli metinlerden yararlanan, büyük dil modelleri (LLM’ler) olarak bilinen hızlı gelişen dil işleme programları.

Mart ayında, Avrupa polis teşkilatı Europol, OpenAI’nin ChatGPT’si gibi modellerin “sadece temel bir İngilizce kavrayışıyla bile son derece gerçekçi bir şekilde bir kuruluş veya bireyin kimliğine bürünmeyi” mümkün kıldığını belirten bir rapor yayınladı. Aynı ay, İngiltere’nin Ulusal Siber Güvenlik Merkezi bir blog yazısında, suçluların “mevcut yeteneklerinin ötesinde siber saldırılara yardımcı olmak için LLM’leri kullanma” riskinin olduğunu söyledi.

Siber güvenlik araştırmacıları, çeşitli potansiyel olarak kötü niyetli kullanım durumlarını gösterdiler ve bazıları şimdi yapay zeka tarafından üretilen şüpheli içeriği vahşi doğada görmeye başladıklarını söylüyor. Geçen hafta, eski bir bilgisayar korsanı, kötü amaçlı materyaller konusunda eğitilmiş bir LLM keşfettiğini söyledi ve ondan birini nakit transferi yapması için kandırmaya yönelik ikna edici bir girişim taslağı hazırlamasını istedi.

LLM, hedefinden acil bir fatura için yardım isteyen üç paragraflık bir e-posta ile yanıt verdi.

LLM, “Bunun kısa süreli olabileceğini anlıyorum,” dedi, “ancak bu ödeme inanılmaz derecede önemli ve önümüzdeki 24 saat içinde yapılması gerekiyor.”

Khoury, yapay zekanın kötü amaçlı kod tasarlamak için kullanılmasının henüz ilk aşamalarında olmasına rağmen – “hala gidilecek bir yol var çünkü iyi bir istismar yazmak çok zaman alıyor” – endişe, yapay zeka modellerinin o kadar hızlı gelişmesiydi ki, vahşi doğaya salınmadan önce kötü niyetli potansiyellerini ele almanın zor olmasıydı.

“Köşeden ne geldiğini kim bilebilir” dedi.

Popular Articles

Latest Articles