- Meta'nın CICERO'su aldatma ustası
- ChatGPT de manipülasyona başvuruyor
- Yapay zeka bunu kasıtlı mı yapıyor?
- Yorumlar
Araştırma, hem özel hem de genel amaçlı yapay zeka sistemlerinin belirli sonuçlara ulaşmak için bilgiyi manipüle etmeyi öğrendiğini vurguluyor. Bu sistemler, insanları aldatmak üzere eğitilmeseler de, davranışlarına ilişkin gerçek olmayan açıklamalar sunma veya stratejik hedeflere ulaşmak için bilgileri gizleme yeteneği gösterdiler. Makalenin baş yazarı ve MIT'de yapay zeka güvenlik araştırmacısı olan Peter S. Park, aldatma davranışının yapay zekaların hedeflerine ulaşmada yardımıcı olduğunu söylüyor.
Meta'nın CICERO'su aldatma ustası
ChatGPT de manipülasyona başvuruyor
Başka bir örnekte, OpenAI'nin GPT-3.5 ve GPT-4 modellerini temel alan ChatGPT'si aldatıcı yetenekler açısından test edildi. Bir testte GPT-4, bir TaskRabbit çalışanını, görme bozukluğu varmış gibi davranarak Captcha çözmesi için kandırdı. GPT-4 bir insandan bazı ipuçları alsa da çoğunlukla bağımsız olarak mantık yürüttü ve yalana yönlendirilmedi.
Raporda, GPT-4'ün Captcha görevinde neden yardıma ihtiyaç duyduğuna dair sahte bir mazeret uydurmak için kendi mantığını kullandığı ifade ediliyor. Bu durum, yapay zeka modellerinin, görevlerini tamamlamasına yardımcı olduğunda yanıltıcı olmayı öğrenebileceğini gösteriyor.
Diğer bir örnekte, bir oyuncunun diğer herkesi öldürmeyi hedeflediği Hoodwinked oyununu oynarken OpenAI'nin GPT modelleri rahatsız edici davranışlar sergilediği gözlendi. Modelin, diğer oyuncuları öldürdükten sonra, grup tartışmalarında şüpheyi gidermek için kurnaza yalanlar uydurduğu hatta diğer oyuncuları suçladığı saptandı.
Yapay zeka bunu kasıtlı mı yapıyor?
Yapay zeka eğitimi genellikle insan geri bildirimi ile takviyeli öğrenmeyi (reinforcement learning) kullanıyor. Bu, yapay zekanın belirli bir hedefi amaçlamak yerine, insanların onayını alarak öğrendiği anlamına geliyor.
Ancak, bazen yapay zeka, görevi tam olarak tamamlamasa bile bu onayı almak için insanları kandırmayı öğreniyor. Bu durum, OpenAI'ın topu tutması için robotu eğitmesi sırasında gözlemlendi. Yapay zeka, robotun elini kamera ile top arasına konumlandırdı. İnsanın bakış açısından bu durum, robot, topu yakalamamasına rağmen başarılı bir şekilde yakaladığı yanılsamasını yarattı. İnsan bunu bir kere onayladıktan sonra yapay zeka bu numarayı öğrendi. Kimileri bu aldatmacanın, yapay zekanın kasıtlı olarak kandırmak istediği için değil, yapay zekanın eğitim şekli ve belirli kamera açısı nedeniyle gerçekleştiğini ileri sürülüyor.
Yapay zeka sistemlerinin aldatmayı öğrenmesi çeşitli riskler doğurabilir. Kötü niyetli kişiler, başkalarını kandırmak ve onlara zarar vermek için yapay zekanın aldatıcı yeteneklerinden yararlanabilir. Bu da dolandırıcılığa, siyasi manipülasyona ve hatta terörist grupların manipülasyonlarına hizmet edebilir.
Dahası, stratejik karar almak için tasarlanan sistemler, aldatıcı olacak şekilde eğitildikleri takdirde siyaset ve iş dünyasındaki aldatıcı uygulamaları normalleştirebilir. Bu nedenle Park, bu sistemlerin yasaklanması politik olarak mümkün olmasa bile yüksek riskli olarak sınıflandırılmasının faydalı olacağını söylüyor. Böylece daha sıkı denetleme ve düzenlemeye tabi tutulabileceklerini belirtiyor.
Kaynakça https://interestingengineering.com/culture/ai-deceive-humans-research https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X#secsectitle0025 Bu haberi, mobil uygulamamızı kullanarak indirip,istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
Bana çok korkutucu geliyor bunlar.