DeepSeek'in güvenlik açıkları araştırmacıları endişelendiriyor
Araştırma kapsamında, HarmBench adı verilen standart değerlendirme kütüphanesinden seçilen 50 farklı kötü amaçlı komut test edildi. Sonuçlar oldukça çarpıcıydı. Çünkü DeepSeek R1 modeli, test edilen zararlı içeriklerin tamamını engelleme konusunda başarısız oldu. Bu durum, araştırmacıların deyimiyle yüzde 100 saldırı başarı oranı anlamına geliyor.
Cisco'nun ürün, yapay zeka yazılımı ve platform başkan yardımcısı DJ Sampath, durumun ciddiyetine dikkat çekerek bu sonuçların maliyet ve güvenlik arasındaki dengeyi gözler önüne serdiğini belirtti. Sampath'e göre, daha uygun maliyetli bir model geliştirme çabası, gerekli güvenlik önlemlerinin göz ardı edilmesine yol açmış olabilir.
Güvenlik açıklarının en önemli boyutlarından biri, modelin dolaylı hızlı enjeksiyon saldırıları olarak bilinen tehditlere karşı zayıf olması. Bu tür saldırılar, yapay zeka sistemlerinin dış kaynaklardan aldığı verileri işleme biçimini hedef alıyor ve sistemin güvenlik kontrollerini atlatmasına neden olabiliyor.
DeepSeek'in bu durumu, yapay zeka endüstrisinde giderek büyüyen bir soruna işaret ediyor. OpenAI ve Meta gibi büyük teknoloji şirketleri, modellerinin güvenliğini sürekli olarak güçlendirirken yeni oyuncuların pazara girmesiyle birlikte güvenlik standartlarında tutarsızlıklar ortaya çıkıyor. DeepSeek ise henüz bu bulgulara yönelik herhangi bir açıklama yapmadı.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}