Replica Studios ha revelado hoy sus planes de integración con MetaHuman Creator de Unreal Engine, lo que permite a los desarrolladores dar a sus MetaHumans voces de IA de sonido único con sincronización de labios y animación de caras.
La plataforma de Replica permite a los desarrolladores de juegos, animadores y cineastas utilizar voces de IA para los personajes digitales. Además, están creando una biblioteca de cientos de personajes de voz de IA con voces de sonido único para que los desarrolladores puedan aprovecharlas para las narrativas de los juegos y las animaciones.
La integración de Replica Studios con MetaHuman Creator de Unreal Engine proporciona a los desarrolladores, desde los estudios AAA hasta los independientes, personajes con voz de IA, además de una sincronización labial y una animación facial precisas, lo que acelera el proceso de animación y libera más tiempo para una experimentación más creativa con la narrativa del juego. Los desarrolladores pueden animar personajes digitales en cuestión de minutos capturando su propia voz mediante una aplicación de grabación, y luego utilizando el audio para dirigir la actuación de la voz de la IA, de modo que coincida con el mocap de la cara y los movimientos de los labios del MetaHuman Creator.
Replica Studios mostrará su tecnología de voz de IA en la GDC la próxima semana. Los desarrolladores pueden asistir a la sesión de la GDC para saber más sobre sus actores de voz de IA para MetaHuman Creator el lunes 19 de julio a las 4:00 pm CDMX.
Los desarrolladores pueden inscribirse para obtener acceso anticipado a la integración de Replica Studios y MetaHuman Creator en el sitio oficial.
Deja un comentario