Son yıllarda, ses tabanlı insan animasyonu teknolojileri süratle gelişse de mevcut sistemler, büyük ölçekli video üretim modelleri kadar verimli çalışamıyor. Bu da gerçeğe yakın animasyonlar oluşturmayı zorlaştırıyor. İnsan hareketlerini daha doğal ve akıcı bir biçimde yansıtan yeni kuşak animasyon teknolojilerine duyulan muhtaçlık her geçen gün artıyor.
OmniHuman, insan animasyonundaki bu sınırlamaları aşmak için geliştirilen yeni bir yapay zekâ modeli. Hareket bilgilerini daha verimli kullanarak animasyonları gerçeğe daha yakın hale getirmeyi hedefliyor. Pekala, OmniHuman neler sunuyor? İşte detaylar!
OmniHuman ile orijinal bir periyot başlıyor
Diffusion Transformer tabanlı bu sistem, hareket bilgilerini eğitim sürecine dahil ederek daha gerçekçi animasyonlar üretiyor. Yeni model yüz yakın planından tam beden görünümlerine kadar farklı açılardaki insan animasyonlarını destekleyebiliyor. Tıpkı vakitte sadece konuşma hareketlerini değil, müzik söyleme ve insan-nesne etkileşimleri üzere ayrıntıları da işleyebiliyor.
OmniHuman, diğer ses tabanlı görüntü üretim sistemlerinden ayrılan bir yapıya sahip. Sistem, sırf sesle değil, görüntü tabanlı datalarla de çalışabiliyor. Tıpkı vakitte kullanıcıların ses ve görüntü datalarını bir ortaya getirerek daha ayrıntılı ve esnek animasyonlar oluşturmasına imkan tanıyor.
OmniHuman, animasyon teknolojilerinde daha geniş bir kullanım alanı yaratmayı amaçlıyor. Farklı usullere ahenk sağlayabilen yapısı ve ölçeklenebilir modeliyle, görüntü üretim süreçlerinde yeni bir alternatif olarak öne çıkabilir. Önümüzdeki periyotta animasyon teknolojilerinde yaşanacak gelişmelerin neler getireceği ise şimdiden büyük bir merak konusu.
İşte yapılan örneklerden kimileri:
China is on 🔥 ByteDance drops another banger AI paper!
OmniHuman-1 can generate realistic human videos at any aspect ratio and body proportion using just a single image and audio. This is the best i have seen so far.10 incredible examples and the research paper Link👇 pic.twitter.com/5OjNj0797t
— AshutoshShrivastava (@ai_for_success) February 4, 2025
— AshutoshShrivastava (@ai_for_success) February 4, 2025
— AshutoshShrivastava (@ai_for_success) February 4, 2025
— AshutoshShrivastava (@ai_for_success) February 4, 2025
— AshutoshShrivastava (@ai_for_success) February 4, 2025
— AshutoshShrivastava (@ai_for_success) February 4, 2025
— AshutoshShrivastava (@ai_for_success) February 4, 2025
— AshutoshShrivastava (@ai_for_success) February 4, 2025