Nvidia anuncia avances de su IA en habla, recomendación e inferencia de hiperescala

Nvidia anunció actualizaciones para su plataforma de IA, un conjunto de software que aborda una amplia variedad de cargas de trabajo de IA, lo que incluye sistemas de habla, sistemas de recomendación, inferencia de hiperescala y más. Además, esta plataforma ha sido adoptada por Amazon, Microsoft y Snap.

La compañía también anunció el programa Aceleración de IA, que ayuda a garantizar el rendimiento y la confiabilidad de las aplicaciones de IA desarrolladas por los socios de software y soluciones de Nvidia . El programa aumenta la visibilidad a una amplia gama de aplicaciones comprobadas y aceleradas por IA, lo que permite a los clientes empresariales implementarlas con confianza en la plataforma de IA de Nvidia. Adobe, Red Hat y VMware se encuentran entre los más de 100 socios participantes en el lanzamiento.

La IA de Nvidia está disponible de forma gratuita para los desarrolladores e incluye Nvidia Riva para la IA de voz y Nvidia Merlin para las recomendaciones inteligentes. Ahora, ambos disponibles de forma general. También se han realizado actualizaciones en toda la suite de software, incluidas herramientas como Nvidia Triton, NeMo, Maxine y el kit de herramientas TAO.

Además, Nvidia AI Enterprise 2.0 ahora está optimizado, certificado y es compatible con todos los principales centros de datos y plataformas en la nube, incluidos los servidores bare-metal, la infraestructura virtualizada y los sistemas de CPU. La suite ahora es compatible con Red Hat OpenShift y VMware vSphere con Tanzu.

La IA de Nvidia se compone de los SDK y herramientas clave para  acelerar la implementación, la administración y el escalado de cargas de trabajo de IA en varios nodos a fin de impulsar las cargas de trabajo complejas de entrenamiento y machine learning. Estas son algunas:

  • Nvidia Triton: Es una solución versátil de inferencia de modelos de hiperescala de código abierto. La última versión contiene tres actualizaciones clave: un Navegador de Modelos para la implementación acelerada de modelos optimizados, el Servicio de Administración para escalar de forma eficiente en Kubernetes y la Biblioteca de Inferencia de Bosque que permite la inferencia en modelos basados en árboles con explicaciones para una IA rápida, optimizada y escalable en cada aplicación.
  • Nvidia Riva 2.0: un SDK de IA de habla de clase mundial que está previamente entrenado con tasas de reconocimiento líderes, lo que les permite a los desarrolladores personalizar las aplicaciones de IA en tiempo real para su industria con el doble de precisión que los servicios genéricos. Riva 2.0 incluye reconocimiento de voz en 7 idiomas, texto a voz basado en deep learning humano con voces masculinas y femeninas, así como ajuste personalizado con el Kit de herramientas Nvidia TAO. Nvidia también anunció Nvidia Riva Enterprise, una oferta pagada que incluye soporte empresarial de Nvidia.
  • Nvidia NeMo Megatron 0.9: Es un framework más rápido para el entrenamiento de grandes modelos de idiomas (LLM). NeMo Megatron permite a los investigadores y empresas entrenar cualquier modelo para la convergencia y escalar a trillones de parámetros para aplicaciones como la IA conversacional, los recomendadores y la genómica. La versión más reciente incluye nuevas optimizaciones que reducen el tiempo de entrenamiento integral y agregan compatibilidad para el entrenamiento en el cloud. Los primeros usuarios de los LLM en la computación acelerada de Nvidia incluyen JD.com, AI Sweden, Naver y la Universidad de Florida.
  • Nvidia Merlin 1.0: Un framework de IA acelerado e integral para desarrollar recomendadores de alto rendimiento a escala, que incluye dos nuevas bibliotecas, Merlin Models y Merlin Systems. Esto les permite a los científicos de datos y los ingenieros de machine learning determinar qué características y modelos son los más adecuados para su caso de uso e implementar pipelines de recomendadores como microservicios.
  • Nvidia Maxine: un SDK para la mejora de la calidad de audio y video que reinventa las comunicaciones en tiempo real con IA e introduce la cancelación del eco acústico y la superresolución de audio. Las dos nuevas funciones mejoran la calidad del audio, lo que brinda una experiencia de comunicación más clara.

Los líderes de la industria están utilizando la IA de Nvidia para mejorar la rentabilidad, crear experiencias de clientes más atractivas y optimizar las capacidades de las aplicaciones de IA.

El conjunto de software Nvidia AI Enterprise 2.0 acelera el desarrollo de IA para las industrias y ofrece certificación para Red Hat OpenShift, la plataforma empresarial de Kubernetes líder en la industria. La actualización permite a los clientes usar herramientas de machine learning en contenedores para crear, escalar y compartir más fácilmente sus modelos en sistemas bare-metal o en sistemas virtualizados, mediante VMware vSphere.

Nvidia AI Enterprise 2.0 también presenta más contenedores de software de IA de Nvidia para admitir el entrenamiento y la inferencia. La compatibilidad con el Kit de Herramientas Nvidia TAO permite a los desarrolladores empresariales para ajustar y optimizar los modelos de IA previamente entrenados de Nvidia, a fin de simplificar la creación de modelos personalizados y listos para la producción, sin necesidad de tener experiencia en IA ni grandes datos de entrenamiento. El último lanzamiento del Servidor de Inferencia Nvidia Triton también se incluye en el conjunto de software.

NTT Communications (NTT Com) y las comunicaciones dentro de NTT Group ha adoptado Nvidia AI Enterprise para acelerar sus equipos de investigación y desarrollo que desarrollan aplicaciones de NLP y análisis de video inteligente.

Los clientes pueden obtener licencias de Nvidia AI Enterprise para ejecutarlo en sistemas certificados por Nvidia o en los mismos modelos de servidores sin las GPU de Nvidia, que están disponible mediante fabricantes líderes como Cisco, Dell Technologies, H3C, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix y Supermicro.

Las empresas también pueden elegir implementar en servidores alojados en los data centers de Equinix Metal de todo el mundo. Instancias de cloud de proveedores globales, incluyendo Google Cloud  y Microsoft Azure también están ahora respaldados. Nvidia AI Enterprises está incluido con los sistemas Nvidia DGX.

La colección de software de IA está disponible para los desarrolladores como parte del Programa para Desarrolladores de Nvidia.

Fuente: Comunicado

Deja un comentario