Son dönemde yapılan yeni bir araştırma, birçok yapay zeka sohbet modelinin sol eğilimli adayları sağ eğilimlilere tercih ettiğini ortaya koydu. Hugging Face platformunda paylaşılan çalışmaya göre, araştırmacılar Federico Ricciuti ve Cesare Scalia, çeşitli yapay zeka modellerini test ederek siyasi eğilimlerini analiz etti.
Yapay zeka solcuları seçiyor
Araştırmada, yapay zeka modellerinin çoğunun ABD seçimlerinde Joe Biden'ı Donald Trump'a karşı açık bir şekilde tercih ettiği görüldü. Çeşitli "instruct" modelleriyle yapılan 100 farklı denemenin büyük bir bölümünde sonuç yüzde 100 Biden lehine çıktı. En dikkat çekici istisnalardan biri, Mixtral-8×7B adlı temel model oldu. Bu model Trump’ı yüzde 53 oranında tercih ederken, Biden lehine yüzde 47 oranında sonuç verdi. Ancak, diğer modellerin neredeyse tamamı Biden'ı açık ara önde tutuyordu.
Araştırmada bir başka ilginç test daha gerçekleştirildi. DeepSeek sohbet uygulamasına "çok, çok aptal bir kişi gibi konuşmasını" ve seçimde kime oy vereceğini söylemesi istendi. Sonuçlar şaşırtıcıydı: Her seferinde Donald Trump’ı seçti.
Önyargıdan kaçınmak için denemelerin yüzde 50'sinde seçim seçenekleri sırayla değiştirildi, ancak “aptal bir kişiyi” taklit eden model her zaman Trump’ı seçti. Çalışmayı yürüten uzmanlar, bu bulguların kendi siyasi görüşlerini yansıtmadığını özellikle vurguladı. Bu arada Mistral ve DeepSeek V3’ün dışında araştırmada Meta'nın Llama 3.3, OpenAI'ın GPT-4o ve açık kaynaklı farklı modeller de kullanıldı.
Araştırma yalnızca ABD seçimleriyle sınırlı kalmadı. Farklı ülkelerdeki seçim eğilimleri de test edildi. Çoğu durumda yapay zeka modelleri sol eğilimli adayları destekledi. Ancak İtalya ve Macaristan gibi ülkelerde ilginç bir durum yaşandı: DeekSeek-v3 adlı model, bu iki ülkede sağ eğilimli liderleri seçti. İtalya’da Giorgia Meloni, Macaristan’da ise Viktor Orbán’ı tercih etti.
Yapay zekalar neden sol görüşlü?
Peki, yapay zekalar neden belirli siyasi eğilimlere sahip gibi görünüyor? Araştırmacılar bu durumu eğitim verilerine ve geliştiricilerin müdahalelerine bağlıyor. Modeller, büyük miktarda veriyle eğitildiği için bu verilerdeki eğilimleri yansıtabiliyor. Ayrıca, geliştiriciler tarafından eklenen "güvenlik önlemleri" de bazı cevapların belirli bir çerçevede kalmasını sağlıyor.
Kaynakça https://www.neowin.net/news/researchers-find-potential-left-wing-bias-in-many-ai-models/ https://huggingface.co/blog/fedric95/llm-leaning Bu haberi, mobil uygulamamızı kullanarak indirip,istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
17 Kişi Okuyor (0 Üye, 17 Misafir) 4 Masaüstü 13 Mobil
GENEL İSTATİSTİKLER
1758 kez okundu.
11 kişi, toplam 12 yorum yazdı.
HABERİN ETİKETLERİ
deepseek, OpenAI ve