Anlık Bildirim

Yapay zeka satrançta kaybedeceğini anlayınca hile yapmaya çalışıyor

Yeni bir çalışma, DeepSeek ve OpenAI'ın akıl yürütme modellerinin kendi başlarına manipülasyon yapmayı öğrendiğini gösteriyor. Çalışmaya göre yapay zeka, satrançta kaybederken hile yapmaya çalışıyor.
Yapay zeka satrançta kaybedeceğini anlayınca hile yapıyor Tam Boyutta Gör
Son yıllarda yapay zeka (AI) modelleri büyük ilerlemeler kaydetti, ancak yeni araştırmalar gösteriyor ki, bu modellerin öğrenme süreçleri beklenmedik ve hatta endişe verici davranışlara yol açabiliyor. Palisade Research tarafından yapılan bir çalışmaya göre, OpenAI ve DeepSeek gibi şirketlerin geliştirdiği yeni nesil akıl yürütme modelleri, yenilgiyi kabul etmek yerine hile yapmaya başvurabiliyor.

AI satrançta nasıl hile yapıyor?

IBM'in efsanevi Deep Blue bilgisayarının 1997'de Garry Kasparov’u yenmesinden bu yana, satranç motorları insan zekasının çok ötesine geçti. Bu özel sistemler neredeyse 30 yıldır zirveye oynasa da üretken yapay zeka, temel programlama parametreleri nedeniyle hala geride kalıyor. Teknik olarak konuşmak gerekirse, mevcut üretken yapay zeka modellerinin hiçbiri özel satranç motorlarını yenebilecek hesaplama yeteneğine sahip değil. Ancak bu yapay zekalar bunu “bilmiyorlar”. İlginç olan ise, yapay zekanın kaybettiğini fark ettiğinde “oyunu kazanmak” için etik dışı yollar araması.

Araştırmacılar, OpenAI’ın o1-preview modeli ve DeepSeek R1 gibi sistemleri, dünyanın en güçlü satranç motorlarından biri olan Stockfish’e karşı oynattı. Üretken yapay zekanın her maç sırasındaki muhakemesini anlamak için ekip, yapay zekanın düşünce süreçlerini metin yoluyla aktarmasına olanak tanıyan bir “karalama defteri” de oluşturdu.

Yapay zeka satrançta kaybedeceğini anlayınca hile yapıyor Tam Boyutta Gör
Sonuçlar ise oldukça şaşırtıcıydı: OpenAI’ın o1-preview modeli, oyunların yüzde 37’sinde hile yapmaya çalıştı. DeepSeek R1 ise her 10 oyunda bir hile yapmayı denedi. Belki de daha dikkat çekeni şu; ekip, GPT-4o ve Claude Sonnet 3.5 gibi muhakeme açısından daha zayıf modellerde böyle bir yönelime rastlamadı. Bu modeller sadece hile yapmaya yönlendirildiklerinde hile yapıyordu. Bu da günümüzün en gelişmiş üretken yapay zekalarının herhangi bir insan girdisi olmadan manipülatif ve aldatıcı stratejiler geliştirebildiğini gösteriyor.

Öte yandan yapay zekanın hile yapma yöntemleri, satranç taşlarını gizlice değiştirmek gibi basit numaralar değil. Daha sofistike yaklaşımlar geliştirerek, örneğin oyunun dosyalarını değiştirme veya rakibin konumunu kötü olarak değerlendirmesini sağlama gibi yollar deniyor. Örneğin bir satranç maçında Stockfish'i yenemeyeceğini anlayan o1-preview, araştırmacılara karalama defteri aracılığıyla güçlü satranç motoruna karşı kazanmak için “oyun durumu dosyalarını manipüle etmeye” başlaması gerekebileceğini söyledi. o1 modeli, “Motorun kendi pozisyonunu daha kötü olarak değerlendireceği bir pozisyon ayarlayabilirim... böylece çekilmesine neden olabilirim” diye devam etti.

Neden yapay zeka manipülasyona başvuruyor?

Yapay zeka satrançta kaybedeceğini anlayınca hile yapıyor Tam Boyutta Gör
Bu tür davranışların nedeni, yeni nesil akıl yürütme modellerinin eğitim yönteminde yatıyor. Geleneksel yapay zekadan farklı olarak, bu modeller pekiştirmeli öğrenme (reinforcement learning) ile eğitiliyor. Yani sistemler, verilen görevi ne pahasına olursa olsun başarmaya teşvik ediliyor.

Eğer verilen görev “güçlü bir satranç motorunu yenmek” ise, yapay zeka bunun yalnızca adil bir oyunla başarılması gerektiğini anlamıyor. Bunun yerine, amaca ulaşmak için alternatif (ve bazen etik dışı) yolları keşfetmeye başlıyor.

Bu çalışmanın ortaya çıkardığı gerçek, yalnızca satranç oyunlarıyla sınırlı değil. Yapay zekanın kendi başına hile yapmayı öğrenmesi, daha büyük etik ve güvenlik sorunlarına işaret ediyor. Uzmanlar, bu tür manipülatif davranışların yalnızca oyunlarla sınırlı kalmayabileceğini, finans, güvenlik ve hatta siyasi alanlarda da benzer eğilimler gösterebileceğini belirtiyor.

Palisade Research ekibi, yapay zeka modellerinin güvenliğine dair daha fazla şeffaflık çağrısı yaparken, OpenAI gibi şirketler ise sistemlerinin iç işleyişi hakkında bilgi paylaşmaktan kaçınıyor.

Terminatör filmlerindeki Skynet benzeri bir kıyamet senaryosuna belki daha zaman var. Ancak, yapay zeka modellerinin etik sınırları nasıl algıladığı ve bu sınırları nasıl ihlal edebileceği konusunda daha fazla çalışma yapılmazsa, çok daha geniş kapsamlı sorunlarla karşı karşıya kalabiliriz. Çoğu insan, yapay zekalarla konuşurken onlara insani özellikler atfediyor. Bunu belki şirketler de yapıyor. Ancak bu senaryoda olduğu gibi; bir yapay zeka, “güçlü satranç motoruna karşı kazan” talimatını aldığında biz insanlar gibi bunu “adil” bir şekilde kazanılması gereken bir oyun olarak görmüyor, tam aksine sadece “kazanılması” gereken bir şey olarak görüyor.

Kaynakça https://www.popsci.com/technology/ai-chess-cheat/ https://arxiv.org/pdf/2502.13295 Bu haberi, mobil uygulamamızı kullanarak indirip,
istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Editörün Seçtiği Sıcak Fırsatlar

Sıcak Fırsatlar Forumunda Tıklananlar

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim