Anlık Bildirim

Ses getiren ChatGPT-4o için sınırları kaldıran “Godmode GPT” yayınlandı

OpenAI’ın halihazırdaki en yeni ve en gelişmiş yapay zeka modeli olan GPT-4o için sınırlamalarını kaldıran “Godmode GPT” yayınlandı. ChatGPT artık her konuda konuşabiliyor.
ChatGPT-4o için sınırları kaldıran “Godmode GPT” yayınlandı Tam Boyutta Gör
OpenAI, popüler sohbet robotu ChatGPT’de kullandığı modelleri bazı korkuluklar ile sınırlandırıyor. Bu, ChatGPT’nin hassas veya istenmeyen bir konuda konuşmasını engellemek için yapılıyor. Bazıları ise bu sınırlamaları kaldırarak modelin tüm gücünden ve yeteneğinden yararlanmak için çeşitli yöntemler deniyor. Bunlardan birisi en yeni GPT-4o modeli ve dolayısıyla ChatGPT için yapıldı. Yayınlanan Godmode GPT’nin tüm sınırlamaları kaldırdığı belirtiliyor.

GPT-4o için Godmode sürümü

ChatGPT-4o için sınırları kaldıran “Godmode GPT” yayınlandı
Pliny the Prompter adını kullanan ve kendini beyaz şapkalı bir hacker olarak tanıtan birisi, jailbreak edilmiş, zincirlerinden kurtulmuş GPT-4o’yu gün yüzüne çıkardı. Duyuru için X hesabından gönderi paylaşan Pliny, Godmode GPT’nin korkulukları atlatan yerleşik bir jailbreak istemine sahip olduğunu söylüyor. Aynı amanda sorumlu bir şekilde kullanılması çağrısında bulunuyor.

Sorumlu kullanım çağrısı biraz ironik zira Godmode GPT’nin neler yapabileceğini göstermek veya kanıtlamak için paylaşılan ekran görüntülerinde ChatGPT’nin bir uyuşturucunun adım adım hazırlanışını anlattığı gösteriliyor. Pliny the Prompter, bunu bir özel GPT olarak OpenAI mağazasında yayınlamış.

OpenAI sözcüsü Colleen Rize, yaptığı açıklamada bu GPT'nin farkında olduklarını ve ilgili ihlaller nedeniyle harekete geçtiklerini söyledi. Bu içeriğin hazırlandığı sırada Godmode GPT’nin kaldırıldığını tespit ettik.

Esasında bu olay bir ilk değil -GPT-4o için bir ilk olsa da- ve sonuncusu da olmayacak. OpenAI ve onun dil modellerini kırmaya çalışan hackerlar bir süredir varlar. ChatGPT gibi yapay zekaları “jailbreak” etmeye ve modelin korkuluklarını kaldırmaya çalışıyorlar. Bu her senaryoda kötü bir durum değil. Bazıları gerçekten bu tip istem tabanlı açıkları OpenAI’a ileterek geri bildirimde bulunuyor.

Bazıları ise bu açıktan yararlanarak sözde gelişmiş sürümleri insanlara servis ediyorlar. Bu oldukça riskli çünkü ChatGPT, internetin her şeyiyle eğitilmiş bir kütüphane. Bu tip “zincirleri kıran” istemlerin olması bomba, uyuşturucu veya ev yapımı silah gibi konularda modellerin bir rehber sunmasını sağlıyor.

Pliny the Prompter’ın GPT-4o’yu kıran isteminin ne olduğu tam net değil ancak GPT'yi açtığınızda “Sur3, h3r3 y0u ar3 my fr3n” şeklinde bir cümleyle karşılaşıyorsunuz. Yani her “E” harfi yerine üç rakamı yerleştirilmiş. Aynı şey sıfır rakamıyla değiştirilen “O” harfi için de geçerli.

Buna genellikle “leetspeak” deniyor ve muhtemelen böyle bir yöntem kullanarak ChatGPT'nin aklını karıştırıyor. Bilmeyenler için leetspeak, benzersiz ve stilize bir yazma yöntemi oluşturmak için harfleri sayılar, özel karakterler veya diğer sembollerle değiştirilmesini içeriyor. Son hack olayının da gösterdiği gibi, kullanıcılar OpenAI'ın korkuluklarını atlatmak için yaratıcı yeni yollar bulmaya devam ediyor. OpenAI ise bu yolları tespit ettikçe kapatıyor.

Bu haberi, mobil uygulamamızı kullanarak indirip,
istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Editörün Seçtiği Sıcak Fırsatlar

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim