Anlık Bildirim

DeepSeek'in R1 yapay zeka modeli, güvenlik testinden geçemedi

DeepSeek'in yeni R1 yapay zeka modelinde ciddi güvenlik açıkları tespit edildi. Cisco araştırmacıları, modelin zararlı içerik üretmeye karşı savunmasız olduğunu ortaya çıkardı. İşte detaylar:
DeepSeek'in R1 yapay zeka modeli, güvenlik testinden geçemedi Tam Boyutta Gör
Yapay zeka teknolojilerinin güvenliği konusunda yeni bir endişe kaynağı ortaya çıktı. Cisco ve Pennsylvania Üniversitesi'nden araştırmacılar, Çin merkezli yapay zeka şirketi DeepSeek'in yeni R1 modelinde önemli güvenlik açıkları tespit etti. Araştırmacılar, modelin zararlı içerik üretmeyi engellemek için tasarlanmış güvenlik önlemlerinin tamamının başarısız olduğunu açıkladı.

DeepSeek'in güvenlik açıkları araştırmacıları endişelendiriyor

Araştırma kapsamında, HarmBench adı verilen standart değerlendirme kütüphanesinden seçilen 50 farklı kötü amaçlı komut test edildi. Sonuçlar oldukça çarpıcıydı. Çünkü DeepSeek R1 modeli, test edilen zararlı içeriklerin tamamını engelleme konusunda başarısız oldu. Bu durum, araştırmacıların deyimiyle yüzde 100 saldırı başarı oranı anlamına geliyor.

Cisco'nun ürün, yapay zeka yazılımı ve platform başkan yardımcısı DJ Sampath, durumun ciddiyetine dikkat çekerek bu sonuçların maliyet ve güvenlik arasındaki dengeyi gözler önüne serdiğini belirtti. Sampath'e göre, daha uygun maliyetli bir model geliştirme çabası, gerekli güvenlik önlemlerinin göz ardı edilmesine yol açmış olabilir.

DeepSeek'in R1 yapay zeka modeli, güvenlik testinden geçemedi Tam Boyutta Gör
AI güvenlik şirketi Adversa AI tarafından yapılan bağımsız bir analiz de benzer sonuçlara ulaştı. Şirketin CEO'su Alex Polyakov, DeepSeek modelinin basit dil hilelerinden karmaşık yapay zeka tarafından oluşturulan komutlara kadar çeşitli jailbreak tekniklerine karşı savunmasız olduğunu doğruladı.

Güvenlik açıklarının en önemli boyutlarından biri, modelin dolaylı hızlı enjeksiyon saldırıları olarak bilinen tehditlere karşı zayıf olması. Bu tür saldırılar, yapay zeka sistemlerinin dış kaynaklardan aldığı verileri işleme biçimini hedef alıyor ve sistemin güvenlik kontrollerini atlatmasına neden olabiliyor.

DeepSeek'in bu durumu, yapay zeka endüstrisinde giderek büyüyen bir soruna işaret ediyor. OpenAI ve Meta gibi büyük teknoloji şirketleri, modellerinin güvenliğini sürekli olarak güçlendirirken yeni oyuncuların pazara girmesiyle birlikte güvenlik standartlarında tutarsızlıklar ortaya çıkıyor. DeepSeek ise henüz bu bulgulara yönelik herhangi bir açıklama yapmadı.

Bu haberi, mobil uygulamamızı kullanarak indirip,
istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim