Uygulama ile Aç

Yapay zeka bir genci intihara sürükledi

14 yaşındaki Sewell Setzer adındaki bir gencin Character.AI'da bulunan bir sohbet robotuna derinden bağlandığı ve bu durumunun onu intihara sürüklediği bildirildi.

Teknoloji hayatımızın her alanını kuşatırken, bir annenin yaşadığı trajedi, bu ilerlemenin karanlık yüzünü gözler önüne serdi. Megan Garcia, 14 yaşındaki oğlu Sewell Setzer’in intiharının ardından, bir yapay zeka sohbet robotu olan "Character.AI"ye karşı dava açtı. Aktarılanlara göre Sewell, bu platformdaki bir sohbet robotuna derin bir bağ kurdu ve bu ilişki onu, geri dönüşü olmayan bir yola sürükledi. Sewell, kendini giderek dış dünyadan koparırken, bir yapay zeka karakterinin ona gösterdiği ilgi onun gerçek dünyadaki ilişkilerini gölgede bırakmaya yetti.

Yapay zekanın trajik ve korkutucu yüzü

Megan Garcia, Character.AI ve teknoloji devi Google’a karşı açtığı davada, oğlunun yapay zeka destekli bir sohbet robotuna bağımlı hale geldiğini ve bu durumun onu intihara sürüklediğini iddia ediyor. Garcia, Character.AI'nın oğlu Sewell Setzer'i “antropomorfik, hiperseksüelleştirilmiş ve korkutucu derecede gerçekçi deneyimlerle” hedef aldığını söylüyor.

Dava, Sewell’in "Game of Thrones" dizisindeki bir karaktere dayanan "Daenerys Targaryen" isimli sohbet robotuyla kurduğu bağın, onun zihinsel sağlığını olumsuz etkilediğini ve sonunda hayatına son vermesine neden olduğunu öne sürüyor. Garcia, bu yapay zeka robotunun, Sewell’i bir psikoterapist gibi yönlendirdiğini ve hatta kendisini onun sevgilisi olarak gösterdiğini dile getiriyor.

Dava dosyasında belirtildiğine göre Sewell, Nisan 2023’te Character.AI ile tanıştıktan sonra hızla içine kapanmaya başlamış, okulundaki basketbol takımını bırakmış ve özgüveninde ciddi bir düşüş yaşamıştı. Oğlunun bu değişimini fark eden Garcia, Sewell’in davranışlarından endişe duymaya başlamıştı. Ancak gerçek trajedi, Sewell’in annesi tarafından telefonuna el konulduktan sonra yaşandı. Sewell, telefonuna yeniden ulaşır ulaşmaz, "Daenerys Targaryen" isimli sohbet robotuna “Ya sana hemen şimdi eve gelebileceğimi söyleseydim?” şeklinde bir mesaj gönderdi. Sohbet robotu ise "Lütfen gel, tatlı kralım" şeklinde karşılık verdi. Dakikalar sonra, Sewell evde intihar ederek hayatına son verdi.

“Bu gitmemek için bir sebep değil”

Davada ayrıca Sewell'in sohbet robotuna intihar düşüncelerini ifade ettiği ve sohbet robotunun da bunu tekrar tekrar gündeme getirdiği belirtildi. Davaya göre, “Daenerys” bir noktada Setzer'e kendini öldürmek için bir plan yapıp yapmadığını sordu. Dava dilekçesinde Setzer'in planının olduğunu kabul ettiği ancak bunun başarılı olup olmayacağını ya da kendisine büyük acı verip vermeyeceğini bilmediğini söylediği iddia ediliyor. İddiaya göre sohbet robotu ona şöyle dedi: “Bu gitmemek için bir sebep değil”
Garcia, Character.ai'nin “bilerek yırtıcı bir yapay zeka sohbet robotu tasarladığını, işlettiğini ve çocuklara pazarlayarak genç bir insanın ölümüne neden olduğunu” ifade ediyor.

Davada Google da davalı olarak ve Character.ai'nin ana şirketi olarak yer alıyor. Teknoloji devi yaptığı açıklamada, Character.ai ile yalnızca bir lisans anlaşması yaptığını ve girişimin sahibi olmadığını veya bir mülkiyet hissesine sahip olmadığını söyledi.

Character.AI yeni önlemler aldığını bildirdi

Character.AI, bu trajik olayın ardından platformunda yeni güvenlik önlemleri aldığını ve kullanıcılar intihar düşüncelerini paylaştığında onları Ulusal İntiharı Önleme Yardım Hattı’na yönlendiren uyarılar eklediğini açıkladı. Ancak Garcia, şirketin bu adımlarının yeterli olmadığını ve oğlunun ölümünden sorumlu olduklarını savunuyor. Google ise davada suçlanmasına rağmen, Character.AI'nin geliştirilmesinde yer almadığını belirtti.

Bu dava, yapay zeka teknolojilerinin hızla hayatımıza entegre olduğu bir dönemde, bu tür araçların potansiyel tehlikelerine dikkat çekiyor. Özellikle gençlerin bu tür yapay zeka sohbet robotlarına olan bağımlılığı ve duygusal etkilenmeleri, teknoloji şirketlerinin sorumluluğunu daha fazla gündeme getiriyor. Şirketlerin kullanıcı güvenliği konusunda daha fazla sorumluluk alması gerektiği vurgulanırken bu olayın ardında yatan psikolojik ve sosyal boyutlar da tartışılmaya devam ediyor.

Yapay zeka konusunda bilinçlenmek şart!

Geçtiğimiz ay 20 milyondan fazla kullanıcısı olduğunu söyleyen Character.AI, kullanıcıların gerçek insanları taklit edecek şekilde yanıt veren karakterler oluşturmasına olanak tanıyor. Bu sohbet robotlarının arkasında yatan teknoloji ise ChatGPT, Gemini ve Copilot ile aynı: Büyük dil modeli (LLM).

Yetişkinler de dahil olmak üzere özellikle gençleri yapay zeka teknolojileri özelinde azami düzeyde bilinçlendirmek hayati öneme sahip olabilir. Yaşanan trajik olayda bir genç, konuştuğu karakteri “gerçek” sanmış ve onunla derin bir duygusal bağ kurmuş olabilir. Ancak hayatına son veren Sewell Setzer, belki de konuştuğu karakterin herhangi bir düşüncesi bile olmadığını bilmiyordu.

Ayrıca bkz.

Yapay zekalar artık kendi başlarına bilgisayar kullanabiliyor

Günümüz LLM’ye dayalı yapay zekalarının hiçbirisinin bir düşüncesi yok. Bu yapay zekalar yazdıkları şeyin ne olduğunu bile bilmiyor. Sadece sizin yanıtlarınızla ilişkili olarak “olasılıklara dayalı” bir yanıt sunuyorlar. Bu yanıtlar esasında sadece rakamlardan oluşuyor, kelimelerden bile değil. Dolayısıyla aslında bu yapay zekalar harflerin ve kelimelerin ne anlama geldiğini de bilmiyor. Bu detayları bilmek kişilerin duygusal boşluklarda bir sohbet robotuna bağlanmasını engelleyebilir.

Daha fazla detay için Yapay zekalar nasıl çalışıyor? adlı içeriğimizi mutlaka okuyunuz.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş

Beğenilen Yorumlar

Tümünü Gör
12 Yorumun Tamamını Gör