Daha gelişmişi yok! Meta’nın ImageBind yapay zekası insan algısını taklit ediyor
Meta, geliştirdiği yeni ImageBind yapay zekası ile devrim yapmaya hazırlanıyor. ImageBind modeli metin, ses, görsel, hareket, termal ve derinlik verileri birleştirerek yapay zekada çığır açıyor.
Fotoğrafı çekmiyor, doğruda o anı oluşturmayı hedefliyor
Hedef VR ve meteverse mi?
Meta, bu yeni oyuncakla nelerin yapılacağına örnekler vermekten kaçınmıyor. Doğrusu Meta açıkça temel hedefini belli etmekten de çekinmiyor: VR, karma gerçeklik ve metaverse. Örneğin, gelecekte tamamen gerçek 3D sahneleri (ses, hareket vb. ile) anında oluşturabilen bir başlık hayal edin. Ya da sanal oyun geliştiricileri, tasarım süreçlerindeki ayak işlerinin çoğunu ortadan kaldırmak için bunu kullanabilirler.
Meta blog yazısında, "Tipik yapay zeka sistemlerinde, her bir modalite için belirli bir gömme (yani, verileri ve makine öğrenimindeki ilişkilerini temsil edebilen sayı vektörleri) vardır. ImageBind, her farklı modalite kombinasyonuna sahip veriler üzerinde eğitim yapmaya gerek kalmadan birden fazla modalite genelinde ortak bir gömme alanı oluşturmanın mümkün olduğunu gösteriyor.” diyor.
Meta, ImageBind’ı bu noktada durdurmak da istemiyor. Evet, model 6 farklı duyuyu veya modu birleştiriyor ancak Meta ilerleyen dönemlerde altı modalitenin yanında dokunma, konuşma, koku ve beyin fMRI sinyalleri gibi mümkün olduğunca çok sayıda duyuyu birbirine bağlayan yeni modaliteler sunmayı da hedefliyor.
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}