Uygulama ile Aç

İçerik denetiminde GPT-4 ile birlikte yapay zeka dönemi başlıyor

OpenAI tarafından geliştirilen GPT-4 tabanlı bir yapay zeka aracı artık içerik moderasyon sistemi oluşturmada kullanılıyor. Ancak şirket, yine de sürece insanların dahil olmasını söylüyor.

İçerik denetimi onlarca yıldır internetin en çetrefilli konularından biri olarak görülüyor. Belirli bir platformda hangi içeriğe izin verilmesi gerektiğine karar vermenin öznelliği göz önüne alındığında bu sürecin etkin bir şekilde yürütülmesi profesyoneller için bile hayli zor. Ancak görünüşe göre ChatGPT üreticisi OpenAI, bu konuda yardımcı olabileceğini düşünüyor.

İçerik denetimi otomatikleşiyor

Yapay zeka alanında öncü şirketlerden birisi olan OpenAI, gelişmiş GPT-4 modelinin içerik denetleme becerilerini test ediyor. Firma, ölçeklenebilir, tutarlı ve özelleştirilebilir bir içerik denetleme sistemi oluşturmak için GPT-4’ü kullanırken modelin yalnızca içerik denetim kararları vermeye yardımcı olmasını değil, aynı zamanda politikalar geliştirmeyesini de hedefliyor. Böylece hedeflenen politika değişiklikleri ve yeni politikaların geliştirilmesi aylardan birkaç saate düşebilir.

Modelin içerik politikalarındaki çeşitli düzenlemeleri ve nüansları ayrıştırabileceğini ve herhangi bir güncellemeye anında uyum sağlayabileceğini iddia ediliyor. OpenAI'nin iddiasına göre bu, içeriğin daha tutarlı bir şekilde etiketlenmesini sağlıyor. Önümüzdeki dönemlerde X, Facebook veya Instagram gibi sosyal medya platformlarının içerik denetim ve yönetimi süreçlerini tamamen otomatikleştirmesi mümkün.

Ayrıca bkz.

Amazon, ürün incelemelerine yapay zekayı dahil etti

OpenAI API erişimi olan herkes kendi yapay zeka destekli moderasyon sistemini oluşturmak için bu yaklaşımı halihazırda uygulayabilir. Bununla birlikte OpenAI, GPT-4 denetim araçlarının şirketlerin yaklaşık altı aylık çalışmalarını bir günde gerçekleştirmelerine yardımcı olabileceğini iddia ediyor.

İnsan sağlığı için önemli

Özellikle sosyal medyada travmatik içeriğin manuel olarak gözden geçirilmesi insan moderatörlerin ruh sağlığı üzerinde önemli etkiler oluşturduğu biliniyor. Örneğin Meta, 2020 yılında 11.000'den fazla moderatöre Facebook'ta yayınlanan materyallerin incelenmesinden kaynaklanabilecek ruh sağlığı sorunları için her birine en az 1.000 dolar tazminat ödemeyi kabul etmişti. İnsan moderatörlerin üzerindeki yükün bir kısmını kaldırmak için yapay zekayı kullanmak büyük fayda sağlayabilir.

Bununla birlikte yapay zeka modelleri mükemmel olmaktan kilometrelerce uzakta. Bu araçların yanlış karar vermeye eğilimli olduğu bilinen bir gerçek, dolayısıyla OpenAI, insanların hala sürece dahil olması gerektiğini kabul ediyor.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş

Beğenilen Yorumlar

Tümünü Gör
1 Yorumun Tamamını Gör