
Red Hat, Meta y Google colaboran para impulsar la IA open source para el sector corporativo
Red Hat trabajará junto a Google y Meta para entregar plataformas de inteligencia artificial en el sector corporativo, integrando nuevas funcionalidades en Llama Stack y Google Cloud.
Red Hat, el proveedor líder mundial de soluciones open source, ha anunciado en su Summit de Boston dos importantes colaboraciones estratégicas con Meta y Google para impulsar el desarrollo y la adopción de la inteligencia artificial generativa en el ámbito empresarial. Estas alianzas buscan fortalecer los ecosistemas abiertos de IA, optimizar la inferencia de modelos y ofrecer soluciones escalables para las empresas.
Red Hat y Google Cloud: Impulsando la IA empresarial con innovación abierta
Red Hat y Google Cloud han ampliado su colaboración para acelerar la adopción de IA generativa mediante la combinación de las tecnologías open source de Red Hat y la infraestructura especializada de Google Cloud, incluyendo sus modelos abiertos Gemma.
Entre las iniciativas clave se encuentra el lanzamiento del proyecto llm-d, con Google como colaborador fundador, para mejorar la escalabilidad y eficiencia en entornos heterogéneos. También se ha habilitado soporte para vLLM en las TPU de Google Cloud y máquinas virtuales con GPU, optimizando la inferencia de IA. Además, se ofrece disponibilidad desde el Día 0 para los modelos Gemma 3 en vLLM.
La integración del Red Hat AI Inference Server en Google Cloud y la participación de Red Hat en el protocolo Agent2Agent (A2A) de Google, que facilita la comunicación entre agentes de IA en diferentes plataformas, completan esta colaboración.

“A través de esta mayor colaboración, Red Hat y Google Cloud se comprometen a promover innovaciones revolucionarias en IA mediante la combinación de sus conocimientos y plataformas. Incorporar el poder de vLLM y las tecnologías open source de Red Hat a Google Cloud y Gemma de Google brinda a los desarrolladores los recursos necesarios para crear soluciones de IA más precisas y de alto rendimiento, impulsadas por capacidades de inferencia optimizadas” dijo Brian Stevens, vicepresidente sénior y director de tecnología, IA, Red Hat.
vLLM, un servidor de inferencia open source, juega un papel central en esta alianza, permitiendo una generación de resultados más rápida y económica en aplicaciones de IA generativa. La integración con las TPU de Google Cloud maximiza el rendimiento y la eficiencia, mientras que el proyecto llm-d busca simplificar la implementación de IA en entornos distribuidos.
Además, Red Hat AI Inference Server, disponible en Google Cloud, ayuda a las empresas a optimizar la inferencia de modelos en entornos híbridos, combinando la innovación comunitaria con la infraestructura confiable de Google.
Red Hat y Meta: Avanzando en IA generativa con Llama y vLLM
En paralelo, Red Hat y Meta han anunciado una colaboración para potenciar la IA generativa empresarial, comenzando con el soporte desde el Día 0 para los modelos Llama 4 en Red Hat AI y el servidor de inferencia vLLM. Ambas compañías también trabajarán en alinear los proyectos comunitarios Llama Stack y vLLM, creando marcos unificados para democratizar el desarrollo de IA.
“Tanto Red Hat como Meta reconocen que el futuro éxito de la IA exige no sólo avances en los modelos, sino también funciones de inferencia que permitan a los usuarios maximizar las capacidades innovadoras de los modelos de próxima generación. Nuestro compromiso conjunto con Llama Stack y vLLM busca hacer realidad la visión de aplicaciones de IA generativa más rápidas, uniformes y de bajo costo, que se ejecuten donde sea necesario en la nube híbrida, independientemente del acelerador o el entorno. Este es el futuro abierto de la IA, que tanto Red Hat como Meta están preparados para afrontar”, dijo Mike Ferris, vicepresidente sénior y director de estrategias, Red Hat.

Según Gartner, para 2026 más del 80% de los proveedores de software incorporarán IA generativa en sus aplicaciones, lo que subraya la necesidad de bases abiertas e interoperables. La alianza entre Red Hat y Meta aborda este desafío mediante Llama Stack, un conjunto de componentes y API estandarizados desarrollados por Meta para simplificar el ciclo de vida de las aplicaciones de IA generativa.
vLLM, con soporte desde el Día 0 para Llama 4, mejora la inferencia eficiente de modelos de lenguaje grandes. Red Hat contribuirá activamente a Llama Stack, reforzando su compromiso con la elección del cliente y la flexibilidad en herramientas de IA. Además, la integración de vLLM con PyTorch, respaldado por Meta, consolida su posición como una solución líder para IA generativa empresarial.
Un futuro abierto para la IA empresarial
Estas alianzas reflejan el compromiso de Red Hat, Google y Meta con la innovación abierta y la interoperabilidad en IA. Al combinar tecnologías como vLLM, Gemma, Llama y A2A, las empresas podrán implementar soluciones de IA más eficientes, escalables y listas para producción en entornos híbridos y multicloud.
Con estas colaboraciones, Red Hat consolida su liderazgo en el ecosistema de IA open source, ofreciendo a las organizaciones las herramientas necesarias para innovar en la era de la inteligencia artificial generativa.
Leer mas
- Red Hat reconoce a BCI como proyecto open source destacado en Latinoamérica
- Red Hat asegura que el código abierto será la próxima revolución en inteligencia artificial
- Red Hat presenta Red Hat OpenShift Virtualization Engine