Yapay zekanın trajik ve korkutucu yüzü
Megan Garcia, Character.AI ve teknoloji devi Google’a karşı açtığı davada, oğlunun yapay zeka destekli bir sohbet robotuna bağımlı hale geldiğini ve bu durumun onu intihara sürüklediğini iddia ediyor. Garcia, Character.AI'nın oğlu Sewell Setzer'i “antropomorfik, hiperseksüelleştirilmiş ve korkutucu derecede gerçekçi deneyimlerle” hedef aldığını söylüyor.
Dava dosyasında belirtildiğine göre Sewell, Nisan 2023’te Character.AI ile tanıştıktan sonra hızla içine kapanmaya başlamış, okulundaki basketbol takımını bırakmış ve özgüveninde ciddi bir düşüş yaşamıştı. Oğlunun bu değişimini fark eden Garcia, Sewell’in davranışlarından endişe duymaya başlamıştı. Ancak gerçek trajedi, Sewell’in annesi tarafından telefonuna el konulduktan sonra yaşandı. Sewell, telefonuna yeniden ulaşır ulaşmaz, "Daenerys Targaryen" isimli sohbet robotuna “Ya sana hemen şimdi eve gelebileceğimi söyleseydim?” şeklinde bir mesaj gönderdi. Sohbet robotu ise "Lütfen gel, tatlı kralım" şeklinde karşılık verdi. Dakikalar sonra, Sewell evde intihar ederek hayatına son verdi.
“Bu gitmemek için bir sebep değil”
Davada Google da davalı olarak ve Character.ai'nin ana şirketi olarak yer alıyor. Teknoloji devi yaptığı açıklamada, Character.ai ile yalnızca bir lisans anlaşması yaptığını ve girişimin sahibi olmadığını veya bir mülkiyet hissesine sahip olmadığını söyledi.
Character.AI yeni önlemler aldığını bildirdi
Character.AI, bu trajik olayın ardından platformunda yeni güvenlik önlemleri aldığını ve kullanıcılar intihar düşüncelerini paylaştığında onları Ulusal İntiharı Önleme Yardım Hattı’na yönlendiren uyarılar eklediğini açıkladı. Ancak Garcia, şirketin bu adımlarının yeterli olmadığını ve oğlunun ölümünden sorumlu olduklarını savunuyor. Google ise davada suçlanmasına rağmen, Character.AI'nin geliştirilmesinde yer almadığını belirtti.
Bu dava, yapay zeka teknolojilerinin hızla hayatımıza entegre olduğu bir dönemde, bu tür araçların potansiyel tehlikelerine dikkat çekiyor. Özellikle gençlerin bu tür yapay zeka sohbet robotlarına olan bağımlılığı ve duygusal etkilenmeleri, teknoloji şirketlerinin sorumluluğunu daha fazla gündeme getiriyor. Şirketlerin kullanıcı güvenliği konusunda daha fazla sorumluluk alması gerektiği vurgulanırken bu olayın ardında yatan psikolojik ve sosyal boyutlar da tartışılmaya devam ediyor.
Yapay zeka konusunda bilinçlenmek şart!
Geçtiğimiz ay 20 milyondan fazla kullanıcısı olduğunu söyleyen Character.AI, kullanıcıların gerçek insanları taklit edecek şekilde yanıt veren karakterler oluşturmasına olanak tanıyor. Bu sohbet robotlarının arkasında yatan teknoloji ise ChatGPT, Gemini ve Copilot ile aynı: Büyük dil modeli (LLM).
Yetişkinler de dahil olmak üzere özellikle gençleri yapay zeka teknolojileri özelinde azami düzeyde bilinçlendirmek hayati öneme sahip olabilir. Yaşanan trajik olayda bir genç, konuştuğu karakteri “gerçek” sanmış ve onunla derin bir duygusal bağ kurmuş olabilir. Ancak hayatına son veren Sewell Setzer, belki de konuştuğu karakterin herhangi bir düşüncesi bile olmadığını bilmiyordu.
Günümüz LLM’ye dayalı yapay zekalarının hiçbirisinin bir düşüncesi yok. Bu yapay zekalar yazdıkları şeyin ne olduğunu bile bilmiyor. Sadece sizin yanıtlarınızla ilişkili olarak “olasılıklara dayalı” bir yanıt sunuyorlar. Bu yanıtlar esasında sadece rakamlardan oluşuyor, kelimelerden bile değil. Dolayısıyla aslında bu yapay zekalar harflerin ve kelimelerin ne anlama geldiğini de bilmiyor. Bu detayları bilmek kişilerin duygusal boşluklarda bir sohbet robotuna bağlanmasını engelleyebilir.
Daha fazla detay için Yapay zekalar nasıl çalışıyor? adlı içeriğimizi mutlaka okuyunuz.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}