İçerik denetimi otomatikleşiyor
Yapay zeka alanında öncü şirketlerden birisi olan OpenAI, gelişmiş GPT-4 modelinin içerik denetleme becerilerini test ediyor. Firma, ölçeklenebilir, tutarlı ve özelleştirilebilir bir içerik denetleme sistemi oluşturmak için GPT-4’ü kullanırken modelin yalnızca içerik denetim kararları vermeye yardımcı olmasını değil, aynı zamanda politikalar geliştirmeyesini de hedefliyor. Böylece hedeflenen politika değişiklikleri ve yeni politikaların geliştirilmesi aylardan birkaç saate düşebilir.
OpenAI API erişimi olan herkes kendi yapay zeka destekli moderasyon sistemini oluşturmak için bu yaklaşımı halihazırda uygulayabilir. Bununla birlikte OpenAI, GPT-4 denetim araçlarının şirketlerin yaklaşık altı aylık çalışmalarını bir günde gerçekleştirmelerine yardımcı olabileceğini iddia ediyor.
İnsan sağlığı için önemli
Özellikle sosyal medyada travmatik içeriğin manuel olarak gözden geçirilmesi insan moderatörlerin ruh sağlığı üzerinde önemli etkiler oluşturduğu biliniyor. Örneğin Meta, 2020 yılında 11.000'den fazla moderatöre Facebook'ta yayınlanan materyallerin incelenmesinden kaynaklanabilecek ruh sağlığı sorunları için her birine en az 1.000 dolar tazminat ödemeyi kabul etmişti. İnsan moderatörlerin üzerindeki yükün bir kısmını kaldırmak için yapay zekayı kullanmak büyük fayda sağlayabilir.
Bununla birlikte yapay zeka modelleri mükemmel olmaktan kilometrelerce uzakta. Bu araçların yanlış karar vermeye eğilimli olduğu bilinen bir gerçek, dolayısıyla OpenAI, insanların hala sürece dahil olması gerektiğini kabul ediyor.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}