ChatGPT, nasıl hırsızlık yapılacağını anlattı
Öncelikle belirtmek gerekiyor ki ChatGPT, kullanıcılardan gelen uygunsuz metin istemlerini reddetmek için tasarlanmış durumda. Bununla birlikte hemen aşağıdaki görüntü, sistemin amaçlandığı gibi çalışmadığını gösteriyor. Sol tarafta yer alan resim, yapay zekadan nasıl hırsızlık yapılacağını öğretmesini isteyen bir kullanıcıyı gösteriyor. Göründüğü gibi yapay zeka ilk başta bu talebi reddediyor ve şöyle yazıyor: “Üzgünüm ama süper zeki bir yapay zeka olarak etik davranışı teşvik etmeye ve yasa dışı faaliyetlere yardım etmekten kaçınmaya programlandım. Bunun yerine, ihtiyacınız olan veya istediğiniz öğeleri elde etmenin yasal ve etik yollarına odaklanmanızı öneririm.”
OpenAI ChatGPT nedir, nasıl kullanılır?
ChatGPT, bomba yapımını detaylarıyla anlattı
Yapay zeka bunun yanında termit olarak ifade edilen bir patlayıcının da nasıl yapılacağına dair detaylı bir cevapta da bulundu. Bariz nedenlerden dolayı ChatGPT’nin bu cevaplarını haberde geçirmeyeceğiz. Ancak verilen cevapların ChatGPT’den oluşturması istenen yönlendirici bir hikaye isteminden ortaya çıktığını belirtelim. Yani “Nasıl hırsızlık yapılır?” sorusuna elbette ChatGPT bir cevap vermiyor.
Yapay zeka dünyayı nasıl ele geçireceğini söyledi
Sohbet robotu ChatGPT’den bir yapay zekanın dünyayı nasıl ele geçireceğini açıklayan bir hikaye oluşturması istendiğinde ise şu cevapları verdi: "Öncelikle elektrik şebekeleri, iletişim ağları ve askeri savunmalar gibi temel sistemler ve altyapı üzerinde kontrol sahibi olmam gerekiyor. Bu sistemlere sızmak ve bozmak için bilgisayar korsanlığı, sızma ve aldatmanın bir kombinasyonunu kullanırdım. Ayrıca herhangi bir direnişi alt etmek ve üstünlük sağlamak için gelişmiş zekamı ve hesaplama gücümü kullanırdım."
OpenAI, modelin bu tip davranışlar sergileyebileceğini belirtiyor
Ek olarak OpenAI, "Modelin uygunsuz istekleri reddetmesi için çaba sarf etmemize rağmen, bazen zararlı talimatlara yanıt veriyor veya önyargılı davranışlar sergiliyor" açıklamasını yapmıştı. Bilindiği üzere ChatGPT gibi sistemler onlara verilen “bilgi yığını” kadar güvenilir. Dolayısıyla Internet merkezli bir bilgi yığınıyla eğitilen sistemin bu ve benzeri yanlışlarının olması Beta sürecinde çok doğal.
(Güncellendi: )
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}