Washington Post’un aktardığına göre birkaç çift, kendilerini çeşitli nedenlerle yardım dolayısıyla arayan çocuklarına para gönderdi, her duyarlı ailenin yapacağı gibi. Ancak farkında olmadıkları bir sorun vardı; Konuştukları kişi çocukları değil, bir yapay zekaydı.
Yapay zeka tarafından oluşturulmuş ses ile dolandırıcılık
Örneğin Microsoft'un Vall-E aracı sadece 3 saniyelik ses klipleri ile oldukça gerçekçi ve tutarlı ses taklitlerini mümkün kılıyor. Üstelik bu küçük ses klipinden farklı tonları (sinirli, heyecanlı vb.) bile üretebiliyor. Benzer bir araç olan ElevenLabs ise çok daha gerçekçi sesler üretebiliyor. Hemen üstteki Twitter videosundan aracın başarısını görebilirsiniz.
Gelinen noktada bu tip dolandırıcılar veya kötü kullanım için kapsamlı önlemlerin alınması şart gibi duruyor. Sadece dolandırıcılık olarak da görmemek gerek. Bu tip üretilmiş seslerle birleştirilmiş deepfake videolar özellikle karmaşanın olduğu anlarda ciddi sonuçlara neden olabilir. Bankaların ses tabanlı güvenlik özellikleri aşılabilir. Dolayısıyla sosyal medya platformları kendilerine yüklenen videolarda veya görsellerde yapay zekayı tespit eden araçlara yer verebilir. Halihazırda ChatGPT gibi metin üreten yapay zekâları tespit eden DetectGPT gibi modeller geliştiriliyor.
(Güncellendi: )
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}