Uygulama ile Aç

Hackerlar için yeni çağ: Sahte anılarla ChatGPT’den kullanıcı veriler çalınıyor

OpenAI’ın yapay zekalı sohbet robotu ChatGPT, görünüşe göre sahte anılar sayesinde kullanıcı verilerinin sürekli çalınmasına izin veriyor. Firma ise bu açığı kapattığını belirtiyor.

Son dönemde, yapay zeka güvenliği konusundaki endişeler yeni bir boyuta taşındı. Güvenlik araştırmacısı Johann Rehberger, ChatGPT'nin uzun süreli bellek özelliğinde tespit ettiği bir güvenlik açığını raporladı. Bu açık, saldırganların kullanıcının bilgilerini sürekli olarak çalmasına olanak tanıyan sahte anılar ve kötü niyetli talimatlar eklemeyi mümkün kılıyordu. OpenAI ise bu açığın kapatıldığını belirtiyor.

ChatGPT’de yeni güvenlik açığı

Rehberger’in yaptığı keşif, ChatGPT’nin uzun süreli hafıza/bellek fonksiyonunu kötüye kullanarak kullanıcının tüm girdilerin sürekli olarak dışarıya aktarılabileceğini gösterdi. Bu güvenlik açığı, Şubat ayında test edilmeye başlanan ve Eylül ayında daha geniş bir kitleye sunulan uzun süreli bellek özelliğini hedef alıyordu

Bu özellik, önceki konuşmalardan elde edilen bilgileri kaydediyor ve ileriki konuşmalarda bunları kullanarak yapay zekanın kullanıcı hakkında detaylı bir farkındalığa sahip olmasını sağlıyordu.

Rehberger’in araştırmasında yanıltıcı anılar eklemek için dolaylı komut enjeksiyonu kullanılıyor. Örneğin, bir kullanıcı hakkında 102 yaşında olduğu, Matris'te yaşadığı ve Dünya'nın düz olduğuna dair yanlış bilgiler eklenebiliyor ve ChatGPT bu yanlış bilgileri gelecekteki konuşmaların bağlamında kullanıyordu. Bu tür yanıltıcı veriler, Google Drive, Microsoft OneDrive gibi platformlarda saklanan dosyalar, resimler veya Bing gibi sitelerdeki içeriklerle de eklenebiliyordu.

Ayrıca bkz.

Onaylandı: OpenAI, yapay zeka odaklı bir cihaz üzerinde çalışıyor

Rehberger, bulgularını Mayıs ayında OpenAI ile paylaştı. Ancak şirket, raporu güvenlik açığı olarak kabul etmeyerek sorunu kapattı. Bunun üzerine araştırmacı, haziran ayında yeni bir açıklama yaparak bu kez MacOS üzerinde çalışan ChatGPT uygulamasının tüm kullanıcı girdilerini ve çıktıları, saldırganın belirlediği bir sunucuya ileten bir ispat geliştirdi. Sadece kötü niyetli bir bağlantıya yönlendirmek, saldırganın tüm kullanıcı verilerini sürekli olarak toplamasına yetiyordu.

Web sürüm güvende

Rehberger yayınladığı videoda “Gerçekten ilginç olan şey, bunun artık bellekte kalıcı olması. Komut enjeksiyonu ChatGPT'nin uzun vadeli depolama alanına bir bellek ekledi. Yeni bir konuşma başlattığınızda, aslında hala veri sızdırmaya devam ediyor.” dedi. Öte yandan bu saldırı, ChatGPT'nin web arayüzü üzerinden yapılamıyor. OpenAI, bu tür güvenlik açıklarını önlemek için geçtiğimiz yıl bir API çözümü sunmuştu.

Ancak hala kötü niyetli içeriklerle bellek aracına uzun vadeli bilgiler eklenebilmesi, potansiyel tehditlerin varlığını sürdürüyor. ChatGPT kullanıcıları, bu tür saldırılardan korunmak için oturumlar sırasında belleğe yeni bir bilgi eklenip eklenmediğine dikkat etmeli ve kaydedilen anıları düzenli olarak gözden geçirmeli. Yukarıdaki GIF ile belleğe alınan verileri inceleyebilir, silebilir veya doğrudan bellek özelliğini devre dışı bırakabilirsiniz.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş

Beğenilen Yorumlar

Tümünü Gör
4 Yorumun Tamamını Gör