NVIDIA lanza nueva generación de chips para supercomputadoras de IA
Revela GPU HGX H200 para IA y LLM, duplicando velocidad en inferencia. Disponible en 2024. Presenta superchip GH200 Grace Hopper para supercomputadoras. Avance en soluciones de IA.
NVIDIA presentó su nueva generación de chips de supercomputadora IA, los GPU HGX H200, que ofrecen un rendimiento sin precedentes para aplicaciones de aprendizaje profundo y grandes modelos de lenguaje (LLM).
Estos chips están pensados para centros de datos y supercomputadoras, trabajando en tareas como la predicción del tiempo y el clima, el descubrimiento de fármacos, la computación cuántica y más.
La GPU HGX H200 es un reemplazo de la popular GPU H100. Es el primer chip de la compañía que utiliza memoria HBM3e que es más rápida y tiene más capacidad, lo que lo hace más adecuado para LLM, que requieren una gran cantidad de memoria para almacenar sus datos.
En términos de rendimiento, NVIDIA afirma que el HGX H200 duplica la velocidad de inferencia en Llama 2, un LLM de 70 mil millones de parámetros, en comparación con el H100. Estará disponible en configuraciones de 4 y 8 vías que son compatibles tanto con el software como con el hardware de los sistemas H100. Funcionará en todo tipo de centros de datos (on-premise, nube, nube híbrida y edge), y será desplegado por Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, entre otros. Está previsto que llegue en el segundo trimestre de 2024.
El otro producto clave de NVIDIA es el «superchip» GH200 Grace Hopper que combina la GPU HGX H200 y la CPU NVIDIA Grace basada en Arm utilizando la interconexión NVLink-C2C de la compañía. Está diseñado para supercomputadoras para permitir que los científicos e investigadores aborden los problemas más desafiantes del mundo acelerando las complejas aplicaciones de IA y HPC que ejecutan terabytes de datos.
La GH200 se utilizará en 40+ supercomputadoras de IA en centros de investigación globales, fabricantes de sistemas y proveedores de nube, dijo la compañía, incluidos Dell, Eviden, Hewlett Packard Enterprise (HPE), Lenovo, QCT y Supermicro. Entre ellos destacan los superordenadores Cray EX2500 de HPE, que utilizarán cuatro GH200, escalando hasta decenas de miles de nodos Grace Hopper Superchip.
Los partners y canales de IT pueden aprovechar la introducción de los GPU HGX H200 para ofrecer a sus clientes soluciones de IA más avanzadas y potentes. NVIDIA ofrece una amplia gama de soluciones de IA que se pueden implementar en centros de datos, la nube y el edge. Los partners y canales de IT pueden ponerse en contacto con NVIDIA para obtener más información sobre cómo ofrecer estas soluciones a sus clientes.
Avances en aprendizaje profundo y LLM
Los nuevos chips de supercomputadora IA de NVIDIA, HGX H200, representan un avance importante en el aprendizaje profundo y los LLM. Estos chips ofrecen un rendimiento sin precedentes que permitirá a los partners y canales de IT ofrecer a sus clientes soluciones de IA más avanzadas y potentes.
En particular, los GPU HGX H200 permitirán a los partners y canales de IT:
- Acelerar el desarrollo y la implementación de aplicaciones de aprendizaje profundo
- Mejorar el rendimiento de los LLM, lo que permitirá a los clientes aprovechar estas tecnologías para tareas más complejas
- Ofrecer a los clientes soluciones de IA más asequibles.
Los GPU HGX H200 son una herramienta poderosa que los partners y canales de IT pueden utilizar para ayudar a sus clientes a aprovechar el potencial del aprendizaje profundo y los LLM.