Software

Red Hat ofrece inferencia de IA mejorada en AWS

Red Hat amplía su colaboración con AWS para ofrecer capacidades avanzadas de IA generativa, aprovechando los chips Trainium e Inferentia para optimizar rendimiento, costos y escalabilidad en entornos empresariales.

Red Hat anunció una ampliación estratégica de su colaboración con Amazon Web Services (AWS) para llevar capacidades avanzadas de IA generativa a las empresas, combinando la plataforma Red Hat AI con los chips AWS Trainium y AWS Inferentia. Esta alianza apunta a brindar mayor flexibilidad y eficiencia a los líderes de TI, permitiéndoles ejecutar inferencia de IA de alto rendimiento sin depender de una arquitectura de hardware específica.

El contexto actual muestra un crecimiento acelerado de la IA gen, impulsando a las organizaciones a repensar su infraestructura tecnológica. Según IDC, para 2027 el 40% de las organizaciones utilizará silicio personalizado, desde procesadores ARM hasta chips especializados en AI/ML, con el objetivo de optimizar rendimiento y costos. Esta tendencia refuerza la necesidad de soluciones diseñadas para responder a cargas de trabajo cada vez más exigentes y ciclos de innovación más veloces.

Como parte de esta expansión, Red Hat y AWS integran el Red Hat AI Inference Server, basado en vLLM, con los chips Inferentia2 y Trainium3, habilitando una capa de inferencia común para cualquier modelo de IA generativa. La compañía afirma que esta combinación ofrecerá más rendimiento, menor latencia y una eficiencia hasta 30-40% superior frente a instancias EC2 basadas en GPU. Además, se suma el nuevo operador de AWS Neuron para Red Hat OpenShift, simplificando el despliegue de cargas de IA con aceleradores de AWS y mejorando el acceso a recursos de alta demanda para entornos productivos.

Red Hat también destacó sus aportes a la comunidad open source mediante la optimización del plugin de chips de IA de AWS para vLLM, reforzando su liderazgo como principal colaboradora comercial del proyecto. Con la arquitectura llm-d incorporada a Red Hat OpenShift AI 3, la empresa fortalece su propuesta de inferencia a escala, alineada con las necesidades de la nube híbrida moderna.

Finalmente, el operador comunitario AWS Neuron ya se encuentra disponible en OperatorHub para clientes de OpenShift, mientras que el soporte del Red Hat AI Inference Server para chips de AWS llegará en versión preliminar para desarrolladores en enero de 2026.

Leer más

LOL Fest Uruguay: una gala para celebrar logros y anticipar el crecimiento del canal en 2026

En ciberseguridad la evidencia técnica es el parámetro clave para la toma de decisiones en compra de soluciones

Fintech Americas anunció los ganadores de los Premios Fintech 2026

Autor

  • Maxi Fanelli

    Periodista especializado en tecnologías y responsable de contenidos comerciales en ITSitio y en la Comunidad de Gaming. Editor de Overcluster. Anteriormente, trabajé en medios de IT; y como colaborador en Clarín, TN Tecno, Crónica TV y PC Users. Lic. Comunicación Social y Periodismo en la UNLP.

    Ver todas las entradas

[mdx-adserve-bstreet region="MED"]

Maxi Fanelli

Periodista especializado en tecnologías y responsable de contenidos comerciales en ITSitio y en la Comunidad de Gaming. Editor de Overcluster. Anteriormente, trabajé en medios de IT; y como colaborador en Clarín, TN Tecno, Crónica TV y PC Users. Lic. Comunicación Social y Periodismo en la UNLP.

Publicaciones relacionadas

Botón volver arriba