Fortnite introduce herramientas para creación y mejores pagos a creadores

Durante la presentación de State of Unreal en la GDC 2023, Epic Games ha revelado cómo está sentando las bases de un ecosistema y una economía abiertos para todos los creadores.

Unreal Editor para Fortnite, ahora en versión beta pública

Desde 2018, gracias al conjunto de herramientas del Modo Creativo de Fortnite, puedes crear tu propia isla de Fortnite. Hoy en día, existen más de un millón de estas islas y más del 40 % del tiempo de juego en Fortnite ocurre en ellas.

¿Y si los creadores y desarrolladores tuvieran a su alcance herramientas más potentes y una mayor flexibilidad creativa para llegar a las más de 500 millones de cuentas de Fortnite? Esto será posible con Unreal Editor para Fortnite (UEFN), que lanzaron hoy en su versión beta pública en State of Unreal.

De hecho, UEFN ofrece la oportunidad de utilizar Verse por primera vez, el nuevo lenguaje de programación. Verse se está diseñando como un nuevo lenguaje de programación para el metaverso, con futuras características que permitirán escalar el contenido a mundos abiertos gigantescos desarrollados por millones de creadores para miles de millones de jugadores.

Economía de los creadores 2.0 

UEFN se lanza junto a Economía de los Creadores  y, específicamente, a los pagos por interacción, una nueva manera de que los creadores de islas de Fortnite reciban dinero según el nivel de interacción de los jugadores con el contenido que publiquen.

Los pagos por interacción distribuyen de manera proporcional el 40 % de los ingresos netos de la tienda de objetos de Fortnite y de la mayor parte de las compras con dinero real de Fortnite entre los creadores de islas y experiencias elegibles, ya sean islas creadas por artistas independientes o las propias islas de Epic, como Battle Royale.

Marketplace unificado de contenido 3D: Fab

Permite que equipos pequeños produzcan videojuegos de forma más rápida y con un presupuesto más reducido, financiando a la vez el crecimiento de los creadores de contenido independientes que distribuyen su trabajo a través de estos mercados virtuales.

Creen que esta tendencia seguirá creciendo de manera significativa a medida que los creadores de experiencias para Fortnite, Roblox, Minecraft y otros mundos 3D empiecen a ver estos mercados como fuentes de contenido para el metaverso, y a medida que los jugadores desarrollen y personalicen cada vez más sus propios espacios 3D en línea.

Fortnite

A lo largo de este año, unirán los mercados (el Marketplace de Unreal Engine, Sketchfab, Quixel Bridge y el Marketplace de ArtStation) para lanzar Fab: un mercado unificado en el que los creadores podrán encontrar, publicar y compartir recursos digitales y utilizarlos para diseñar experiencias digitales. ¿Quieres acceder a una versión preliminar? Puedes probar la versión alfa de Fab como complemento para UEFN hoy mismo.

Un vistazo a las novedades de Unreal Engine 5.2

Unreal Engine es la columna vertebral del ecosistema de Epic. El lanzamiento de UE5 la pasada primavera puso en manos de los desarrolladores aún más poder creativo. Desde dicho lanzamiento, el 77% de los usuarios se ha pasado a Unreal Engine 5. Unreal Engine 5.2 ofrece más mejoras y optimizaciones, además de nuevas características.

En la demostración en directo de State of Unreal, una camioneta eléctrica fotorrealista Rivian R1T avanza por un entorno plagado de árboles y vegetación exuberante creado con Quixel Megascans, así como imponentes y escarpadas estructuras rocosas diseñadas con Quixel MegaAssemblies.

MetaHuman Animator: captura de movimiento de alta fidelidad 

Los humanos digitales fotorrealistas exigen una animación de gran calidad para poder ofrecer actuaciones que sean creíbles, pero los conocimientos y el tiempo necesarios para crearlos han hecho que hasta ahora fuera una tarea muy difícil, incluso para los creadores más preparados.

Todo esto cambiará este verano con el lanzamiento de MetaHuman Animator, un nuevo paquete de características para el entorno MetaHuman. MetaHuman Animator te permitirá reproducir cualquier movimiento facial como animación de alta fidelidad en personajes humanos digitales.

Fuente: Comunicado

Deja un comentario