Y­a­p­a­y­ ­Z­e­k­a­ ­A­r­t­ı­k­ ­İ­ş­ ­A­r­k­a­d­a­ş­ı­n­ı­z­.­ ­ ­G­ü­v­e­n­e­b­i­l­i­r­ ­m­i­s­i­n­?­

Y­a­p­a­y­ ­Z­e­k­a­ ­A­r­t­ı­k­ ­İ­ş­ ­A­r­k­a­d­a­ş­ı­n­ı­z­.­ ­ ­G­ü­v­e­n­e­b­i­l­i­r­ ­m­i­s­i­n­?­

Ancak Elcock, “Bu teknolojinin çalışanları izlemek için kullanılması çok uzun sürmeyecek gibi görünüyor” diyor.

Otosansür

Üretken yapay zeka çeşitli potansiyel riskler taşıyor ancak işletmelerin ve bireysel çalışanların gizliliği ve güvenliği artırmak için atabileceği adımlar var. Veri firması Sama'nın pazarlama ve topluluktan sorumlu başkan yardımcısı Lisa Avvocato, öncelikle, gizli bilgileri ChatGPT veya Google'ın Gemini gibi kamuya açık bir araca koymayın, diyor.

Bir bilgi istemi hazırlarken çok fazla paylaşımdan kaçınmak için genel olun. “'Bütçem burada, hassas bir proje için harcama teklifi yazın' değil, 'Bütçe harcamaları için bir teklif şablonu yazın' diye sorun” diyor. “İlk taslağınız olarak yapay zekayı kullanın, ardından eklemeniz gereken hassas bilgileri katmanlayın.”

Avvocato, bunu araştırma için kullanıyorsanız Google'ın Yapay Zeka Genel Bakışlarında görülenlere benzer sorunları, sağladığı özellikleri doğrulayarak önleyin diyor. “Kaynaklarına referanslar ve bağlantılar sağlamasını isteyin. Yapay zekadan kod yazmasını isterseniz, bunun iyi bir şey olduğunu varsaymak yerine yine de onu incelemeniz gerekir.”

Microsoft'un kendisi belirtti Copilot'un doğru şekilde yapılandırılması gerektiğini ve “en az ayrıcalık”—kullanıcıların yalnızca ihtiyaç duydukları bilgiye erişmeleri gerektiği kavramı uygulanmalıdır. Prism Infosec'ten Robinson, bunun “çok önemli bir nokta” olduğunu söylüyor. “Kuruluşlar bu sistemlerin temelini oluşturmalı ve sadece teknolojiye güvenip her şeyin yolunda olacağını varsaymamalı.”

Ayarlarda kapatmadığınız veya kurumsal sürümü kullanmadığınız sürece ChatGPT'nin, modellerini eğitmek için paylaştığınız verileri kullandığını da belirtmekte fayda var.

Güvence Listesi

Üretken yapay zekayı ürünlerine entegre eden firmalar, güvenliği ve gizliliği korumak için ellerinden geleni yaptıklarını söylüyor. Microsoft istekli taslak Geri Çağırma ürünündeki güvenlik ve gizlilik hususları ve özelliğin kontrol edilebilmesi Ayarlar > Gizlilik ve güvenlik > Geri çağırma ve anlık görüntüler.

Google diyor Workspace'teki üretken yapay zeka, “kullanıcılara verileri üzerinde seçim ve kontrol hakkı tanıyan temel gizlilik korumalarımızı değiştirmez” ve bilgilerin reklam amacıyla kullanılmamasını şart koşar.

OpenAI nasıl korunduğunu yineliyor güvenlik ve gizlilik ürünlerinde ekstra kontrollere sahip kurumsal versiyonlar da mevcuttur. Bir OpenAI sözcüsü WIRED'e şöyle konuştu: “Yapay zeka modellerimizin özel bireyleri değil dünyayı öğrenmesini istiyoruz ve insanların verilerini ve gizliliğini korumak için adımlar atıyoruz.”

OpenAI, self-servis erişim araçları da dahil olmak üzere verilerin nasıl kullanıldığını kontrol etmenin yollarını sunduğunu söylüyor. ihracatVe silmek kişisel bilgilerin yanı sıra içeriğin kullanımını devre dışı bırakma olanağı modellerini geliştirmek. Şirkete göre ChatGPT Ekibi, ChatGPT Enterprise ve API'si veriler veya konuşmalar konusunda eğitimli değil ve modelleri varsayılan olarak kullanımdan öğrenmiyor.

Her iki durumda da yapay zekalı iş arkadaşınız burada kalacak gibi görünüyor. Woollven, bu sistemler daha karmaşık hale geldikçe ve işyerinde her yerde mevcut oldukça, risklerin daha da yoğunlaşacağını söylüyor. “Çok modlu yapay zekanın ortaya çıkışını zaten görüyoruz. GPT-4o Görüntüleri, sesleri ve videoları analiz edip oluşturabilen. Dolayısıyla artık şirketlerin koruma konusunda endişelenmesi gereken yalnızca metin tabanlı veriler değil.”

Woollven, bunu akılda tutarak, insanların ve işletmelerin yapay zekaya diğer üçüncü taraf hizmetleri gibi davranma zihniyetine girmeleri gerektiğini söylüyor. “Kamuoyuna yayınlanmasını istemediğiniz hiçbir şeyi paylaşmayın.”

Kaynak bağlantısı

Popular Articles

Latest Articles