Yapay zekaların hataları için yenilikçi çözüm
LASER ile araştırmacılar "müdahale edebilir" ve bir ağırlık matrisini yaklaşık olarak daha küçük bir matrisle değiştirebiliyor. Geleneksel olarak, daha ağır algoritmalar, kapsamlı bağlamsal bağlantıları nedeniyle daha güvenilir olarak görülüyor. Ancak Microsoft'un kıdemli araştırmacısı Dipendra Misra, LLM'lerdeki ağırlık matrislerinin stratejik olarak azaltılmasının model kaybında beklenen artışa yol açmadığını gösteriyor.
Mantıken LLM veya büyük dil modelleri üzerinde LASER kullanarak müdahale yapıldığında model kaybının artması beklenir zira çok büyük miktarda veri üzerinde eğitilmiş bir LLM’den esasında bilgi atıyorsunuz. Ancak sürpriz bir şekilde, doğru türde LASER müdahalesi yapıldığında model kaybının artmadığı, aksine azaldığı görüldü.
Bu buluş, akademik merakın ötesine geçerek, gerçek bilgilerin doğruluğuyla ilgili yapay zeka gelişimindeki kritik bir endişeyi ele alıyor. Hatalı verilerin veya halüsinasyon olarak bilinen yaratıcı bir şekilde üretilmiş çıktıların hem eğlenceli hem de zararlı olabildiği bir sektörde LASER, daha güvenilir ve sorumlu yapay zeka uygulamalarına giden bir yol inşa edebilir.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}