AI şirketlerinden güvenlik önlemi
Şirketler, CSAM olarak da bilinen çocuklara yönelik cinsel istismar içeriklerinin eğitim veri setlerinden çıkarılmasını, bu veri setlerinin CSAM içermediğinden emin olmayı, CSAM içerme riski yüksek veri setlerinden kaçınmayı ve bu tür görüntüler ile bağlantıları veri kaynaklarından kaldırmayı taahhüt ediyorlar. Bununla birlikte önde gelen yapay zeka şirketleri, araçlarının bu tip içerikler oluşturmadıklarından emin olmak için modellerini “stres testine” tabi tutacaklarını da belirtiyorlar.
Google, Meta, OpenAI, Microsoft, Amazon, Anthropic, Civitai, Metaphysic, Mistral AI ve Stability AI’ın imzaladığı bu ortak kararın sektör için çığır açan bir emsal niteliğinde olduğu belirtildi. All Tech Is Human ile birlikte ilkelerin oluşturulmasına yardımcı olan çocuk istismarı karşıtı kâr amacı gütmeyen Thorn, sadece 2023 yılında ABD'de 104 milyondan fazla şüpheli çocuk cinsel istismarı dosyasının rapor edildiğini söylüyor. Yapay zeka ise ürettiği sahte görseller ve deepfake’ler ile işleri daha da zorlaştırıyor.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}