Red Hat ofrece inferencia de IA mejorada en AWS
Red Hat amplía su colaboración con AWS para ofrecer capacidades avanzadas de IA generativa, aprovechando los chips Trainium e Inferentia para optimizar rendimiento, costos y escalabilidad en entornos empresariales.
Red Hat anunció una ampliación estratégica de su colaboración con Amazon Web Services (AWS) para llevar capacidades avanzadas de IA generativa a las empresas, combinando la plataforma Red Hat AI con los chips AWS Trainium y AWS Inferentia. Esta alianza apunta a brindar mayor flexibilidad y eficiencia a los líderes de TI, permitiéndoles ejecutar inferencia de IA de alto rendimiento sin depender de una arquitectura de hardware específica.
El contexto actual muestra un crecimiento acelerado de la IA gen, impulsando a las organizaciones a repensar su infraestructura tecnológica. Según IDC, para 2027 el 40% de las organizaciones utilizará silicio personalizado, desde procesadores ARM hasta chips especializados en AI/ML, con el objetivo de optimizar rendimiento y costos. Esta tendencia refuerza la necesidad de soluciones diseñadas para responder a cargas de trabajo cada vez más exigentes y ciclos de innovación más veloces.
Como parte de esta expansión, Red Hat y AWS integran el Red Hat AI Inference Server, basado en vLLM, con los chips Inferentia2 y Trainium3, habilitando una capa de inferencia común para cualquier modelo de IA generativa. La compañía afirma que esta combinación ofrecerá más rendimiento, menor latencia y una eficiencia hasta 30-40% superior frente a instancias EC2 basadas en GPU. Además, se suma el nuevo operador de AWS Neuron para Red Hat OpenShift, simplificando el despliegue de cargas de IA con aceleradores de AWS y mejorando el acceso a recursos de alta demanda para entornos productivos.
Red Hat también destacó sus aportes a la comunidad open source mediante la optimización del plugin de chips de IA de AWS para vLLM, reforzando su liderazgo como principal colaboradora comercial del proyecto. Con la arquitectura llm-d incorporada a Red Hat OpenShift AI 3, la empresa fortalece su propuesta de inferencia a escala, alineada con las necesidades de la nube híbrida moderna.
Finalmente, el operador comunitario AWS Neuron ya se encuentra disponible en OperatorHub para clientes de OpenShift, mientras que el soporte del Red Hat AI Inference Server para chips de AWS llegará en versión preliminar para desarrolladores en enero de 2026.
Leer más
LOL Fest Uruguay: una gala para celebrar logros y anticipar el crecimiento del canal en 2026
Fintech Americas anunció los ganadores de los Premios Fintech 2026






