
Grok’un dezenformasyon potansiyeli
Hem Türkiye’de hem de dünya genelinde kullanıcılar, çeşitli gönderilerin alına “@grok, bu doğru mu?” şeklinde yorum atarak konuya dair gerçek bilgileri istiyor. Ancak bu, pek istenen bir davranış değil.
Grok’un yapay zeka tabanlı bir asistan olarak doğal ve güvenilir bir dil kullanabilmesi, yanlış bilgileri bile gerçeğe yakın ve ikna edici göstermesine neden olabiliyor. Bu durum, özellikle siyasi tartışmalarda manipülasyon riskini artırıyor. Çünkü Grok, ChatGPT ve benzeri modeller “gerçek” ile “yanlış” bilginin ne olduğunu bilmezler, aslına bakarsanız doğaları gereği herhangi bir şeyi bilmezler. Verilen yanıtlar birer olasılık hesabıdır ve modeller, halüsinasyon görmeye eğilimlidir; yani Grok gibileri bir şeyler uydurabilir.
Her ne kadar Grok ve diğerleri doğru bilgi verecek şekilde duvarlarla çevrilmiş olsa da yanıtları her zaman güvenilir değil ve ciddi bilgi kirliliği yaratma potansiyeline sahip. Bir diğer faktör de Grok ve diğerlerinin eğitim aldığı verilerle ilgili. Grok’un verdiği yanıtlar ne kadar ikna edici olursa olsun, yalnızca beslendiği veriler kadar iyidir. Grok, X'e gerçek zamanlı olarak erişebiliyor; bu, anlık güncel bilgiye erişmek için faydalı olsa da yanlış bilgiye de hızlıca erişilebileceği anlamına geliyor.
Öte yandan, yapay zeka asistanlarının sosyal medya platformlarında herkesin erişimine açık olması, yanlış bilgilerin kitlesel bir etkiye dönüşme riskini artırıyor. Kullanıcılar, Grok’un verdiği bilgilerin hatalı olabileceğinin farkında olsalar bile, yanlış bilgiyi gören diğer kişiler bunu sorgulamadan gerçek kabul edebilir. Üstelik Grok, verdiği yanıtlarda herhangi bir uyarı da yapmıyor.
Elbette Grok’un tüm yanıtlarında hata vardır demiyoruz; burada bir olasılıktan bahsediyoruz. Verilen bilgilerin çoğunluğu doğru olabilir ancak arada yanlış olanlar da bulunuyor.



istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:


yine kore'nin yaptığı birşeyi 3-5 sene sonra bizde yapmışız!