ChatGPT’de yeni güvenlik açığı
Rehberger’in yaptığı keşif, ChatGPT’nin uzun süreli hafıza/bellek fonksiyonunu kötüye kullanarak kullanıcının tüm girdilerin sürekli olarak dışarıya aktarılabileceğini gösterdi. Bu güvenlik açığı, Şubat ayında test edilmeye başlanan ve Eylül ayında daha geniş bir kitleye sunulan uzun süreli bellek özelliğini hedef alıyordu
Bu özellik, önceki konuşmalardan elde edilen bilgileri kaydediyor ve ileriki konuşmalarda bunları kullanarak yapay zekanın kullanıcı hakkında detaylı bir farkındalığa sahip olmasını sağlıyordu.
Rehberger, bulgularını Mayıs ayında OpenAI ile paylaştı. Ancak şirket, raporu güvenlik açığı olarak kabul etmeyerek sorunu kapattı. Bunun üzerine araştırmacı, haziran ayında yeni bir açıklama yaparak bu kez MacOS üzerinde çalışan ChatGPT uygulamasının tüm kullanıcı girdilerini ve çıktıları, saldırganın belirlediği bir sunucuya ileten bir ispat geliştirdi. Sadece kötü niyetli bir bağlantıya yönlendirmek, saldırganın tüm kullanıcı verilerini sürekli olarak toplamasına yetiyordu.
Web sürüm güvende
Rehberger yayınladığı videoda “Gerçekten ilginç olan şey, bunun artık bellekte kalıcı olması. Komut enjeksiyonu ChatGPT'nin uzun vadeli depolama alanına bir bellek ekledi. Yeni bir konuşma başlattığınızda, aslında hala veri sızdırmaya devam ediyor.” dedi. Öte yandan bu saldırı, ChatGPT'nin web arayüzü üzerinden yapılamıyor. OpenAI, bu tür güvenlik açıklarını önlemek için geçtiğimiz yıl bir API çözümü sunmuştu.
Ancak hala kötü niyetli içeriklerle bellek aracına uzun vadeli bilgiler eklenebilmesi, potansiyel tehditlerin varlığını sürdürüyor. ChatGPT kullanıcıları, bu tür saldırılardan korunmak için oturumlar sırasında belleğe yeni bir bilgi eklenip eklenmediğine dikkat etmeli ve kaydedilen anıları düzenli olarak gözden geçirmeli. Yukarıdaki GIF ile belleğe alınan verileri inceleyebilir, silebilir veya doğrudan bellek özelliğini devre dışı bırakabilirsiniz.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}