{"id":177369,"date":"2025-05-23T14:41:42","date_gmt":"2025-05-23T17:41:42","guid":{"rendered":"https:\/\/nuevoitsitio1.wpenginepowered.com\/ch\/sin-categoria\/red-hat-meta-y-google-colaboran-para-impulsar-la-ia-open-source-para-el-sector-corporativo\/"},"modified":"2025-11-21T22:07:37","modified_gmt":"2025-11-22T01:07:37","slug":"red-hat-meta-y-google-colaboran-para-impulsar-la-ia-open-source-para-el-sector-corporativo","status":"publish","type":"post","link":"https:\/\/www.itsitio.com\/ch\/inteligencia-artificial\/red-hat-meta-y-google-colaboran-para-impulsar-la-ia-open-source-para-el-sector-corporativo\/","title":{"rendered":"Red Hat, Meta y Google colaboran para impulsar la IA open source para el sector corporativo"},"content":{"rendered":"<p>Red Hat, el proveedor l\u00edder mundial de soluciones open source, ha anunciado en su Summit de Boston dos importantes colaboraciones estrat\u00e9gicas con Meta y Google para impulsar el desarrollo y la adopci\u00f3n de la inteligencia artificial generativa en el \u00e1mbito empresarial. Estas alianzas buscan fortalecer los ecosistemas abiertos de IA, optimizar la inferencia de modelos y ofrecer soluciones escalables para las empresas.<\/p>\n<h2><span style=\"color: #333399;\"><strong>Red Hat y Google Cloud: Impulsando la IA empresarial con innovaci\u00f3n abierta <\/strong><\/span><\/h2>\n<p>Red Hat y Google Cloud han ampliado su colaboraci\u00f3n para acelerar la adopci\u00f3n de <a href=\"https:\/\/www.itsitio.com\/ch\/inteligencia-artificial\/directores-ejecutivos-ia-mientras-superan-los-obstaculos-empresariales\/\">IA<\/a> generativa mediante la combinaci\u00f3n de las tecnolog\u00edas open source de Red Hat y la infraestructura especializada de Google Cloud, incluyendo sus modelos abiertos Gemma.<\/p>\n<p>Entre las iniciativas clave se encuentra el lanzamiento del proyecto llm-d, con Google como colaborador fundador, para mejorar la escalabilidad y eficiencia en entornos heterog\u00e9neos. Tambi\u00e9n se ha habilitado soporte para vLLM en las TPU de Google Cloud y m\u00e1quinas virtuales con GPU, optimizando la inferencia de IA. Adem\u00e1s, se ofrece disponibilidad desde el D\u00eda 0 para los modelos Gemma 3 en vLLM.<\/p>\n<p>La integraci\u00f3n del Red Hat AI Inference Server en Google Cloud y la participaci\u00f3n de Red Hat en el protocolo Agent2Agent (A2A) de Google, que facilita la comunicaci\u00f3n entre agentes de IA en diferentes plataformas, completan esta colaboraci\u00f3n.<\/p>\n<figure id=\"attachment_177371\" aria-describedby=\"caption-attachment-177371\" style=\"width: 1200px\" class=\"wp-caption alignnone\"><img fetchpriority=\"high\" decoding=\"async\" class=\"wp-image-177371 size-full\" src=\"https:\/\/nuevoitsitio1.wpenginepowered.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/Fotos-generales-jpg-e1748021762687.webp\" alt=\"Red Hat integrar\u00e1 sus servidores de inferencia con los modelos Gemma de Google y Llama 4 de Meta, fortaleciendo el acceso a la IA generativa.\" width=\"1200\" height=\"628\" srcset=\"https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/Fotos-generales-jpg-e1748021762687.webp 1200w, https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/Fotos-generales-jpg-e1748021762687-300x157.webp 300w, https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/Fotos-generales-jpg-e1748021762687-1024x536.webp 1024w, https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/Fotos-generales-jpg-e1748021762687-768x402.webp 768w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" \/><figcaption id=\"caption-attachment-177371\" class=\"wp-caption-text\">Red Hat integrar\u00e1 sus servidores de inferencia con los modelos Gemma de Google y Llama 4 de Meta, fortaleciendo el acceso a la IA generativa.<\/figcaption><\/figure>\n<p><em>\u201cA trav\u00e9s de esta mayor colaboraci\u00f3n, Red Hat y Google Cloud se comprometen a promover innovaciones revolucionarias en IA mediante la combinaci\u00f3n de sus conocimientos y plataformas. Incorporar el poder de vLLM y las tecnolog\u00edas open source de Red Hat a Google Cloud y Gemma de Google brinda a los desarrolladores los recursos necesarios para crear soluciones de IA m\u00e1s precisas y de alto rendimiento, impulsadas por capacidades de inferencia optimizadas\u201d<\/em> dijo <strong>Brian Stevens, vicepresidente s\u00e9nior y director de tecnolog\u00eda, IA, Red Hat.<\/strong><\/p>\n<p>vLLM, un servidor de inferencia open source, juega un papel central en esta alianza, permitiendo una generaci\u00f3n de resultados m\u00e1s r\u00e1pida y econ\u00f3mica en aplicaciones de IA generativa. La integraci\u00f3n con las TPU de Google Cloud maximiza el rendimiento y la eficiencia, mientras que el proyecto llm-d busca simplificar la implementaci\u00f3n de IA en entornos distribuidos.<\/p>\n<p>Adem\u00e1s, Red Hat AI Inference Server, disponible en Google Cloud, ayuda a las empresas a optimizar la inferencia de modelos en entornos h\u00edbridos, combinando la innovaci\u00f3n comunitaria con la infraestructura confiable de Google.<\/p>\n<h2><span style=\"color: #333399;\"><strong>Red Hat y Meta: Avanzando en IA generativa con Llama y vLLM <\/strong><\/span><\/h2>\n<p>En paralelo, Red Hat y Meta han anunciado una colaboraci\u00f3n para potenciar la IA generativa empresarial, comenzando con el soporte desde el D\u00eda 0 para los modelos Llama 4 en Red Hat AI y el servidor de inferencia vLLM. Ambas compa\u00f1\u00edas tambi\u00e9n trabajar\u00e1n en alinear los proyectos comunitarios Llama Stack y vLLM, creando marcos unificados para democratizar el desarrollo de IA.<\/p>\n<p><em>\u201cTanto Red Hat como Meta reconocen que el futuro \u00e9xito de la IA exige no s\u00f3lo avances en los modelos, sino tambi\u00e9n funciones de inferencia que permitan a los usuarios maximizar las capacidades innovadoras de los modelos de pr\u00f3xima generaci\u00f3n. Nuestro compromiso conjunto con Llama Stack y vLLM busca hacer realidad la visi\u00f3n de aplicaciones de IA generativa m\u00e1s r\u00e1pidas, uniformes y de bajo costo, que se ejecuten donde sea necesario en la nube h\u00edbrida, independientemente del acelerador o el entorno. Este es el futuro abierto de la IA, que tanto Red Hat como Meta est\u00e1n preparados para afrontar\u201d<\/em>, dijo <strong>Mike Ferris, vicepresidente s\u00e9nior y director de estrategias, Red Hat.<\/strong><\/p>\n<figure id=\"attachment_177372\" aria-describedby=\"caption-attachment-177372\" style=\"width: 1200px\" class=\"wp-caption alignnone\"><img decoding=\"async\" class=\"wp-image-177372 size-full\" src=\"https:\/\/nuevoitsitio1.wpenginepowered.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/MATT-HICKS-Presidente-y-CEO-de-Red-Hat-3-e1748021827335.webp\" alt=\"Matt Hicks, Presidente y CEO de Red Hat.\" width=\"1200\" height=\"686\" srcset=\"https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/MATT-HICKS-Presidente-y-CEO-de-Red-Hat-3-e1748021827335.webp 1200w, https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/MATT-HICKS-Presidente-y-CEO-de-Red-Hat-3-e1748021827335-300x172.webp 300w, https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/MATT-HICKS-Presidente-y-CEO-de-Red-Hat-3-e1748021827335-1024x585.webp 1024w, https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/05\/MATT-HICKS-Presidente-y-CEO-de-Red-Hat-3-e1748021827335-768x439.webp 768w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" \/><figcaption id=\"caption-attachment-177372\" class=\"wp-caption-text\">Matt Hicks, Presidente y CEO de Red Hat.<\/figcaption><\/figure>\n<p>Seg\u00fan Gartner, para 2026 m\u00e1s del 80% de los proveedores de software incorporar\u00e1n IA generativa en sus aplicaciones, lo que subraya la necesidad de bases abiertas e interoperables. La alianza entre Red Hat y Meta aborda este desaf\u00edo mediante Llama Stack, un conjunto de componentes y API estandarizados desarrollados por Meta para simplificar el ciclo de vida de las aplicaciones de IA generativa.<\/p>\n<p>vLLM, con soporte desde el D\u00eda 0 para Llama 4, mejora la inferencia eficiente de modelos de lenguaje grandes. Red Hat contribuir\u00e1 activamente a Llama Stack, reforzando su compromiso con la elecci\u00f3n del cliente y la flexibilidad en herramientas de IA. Adem\u00e1s, la integraci\u00f3n de vLLM con PyTorch, respaldado por Meta, consolida su posici\u00f3n como una soluci\u00f3n l\u00edder para IA generativa empresarial.<\/p>\n<h2><span style=\"color: #333399;\"><strong>Un futuro abierto para la IA empresarial <\/strong><\/span><\/h2>\n<p>Estas alianzas reflejan el compromiso de Red Hat, Google y Meta con la innovaci\u00f3n abierta y la interoperabilidad en IA. Al combinar tecnolog\u00edas como vLLM, Gemma, Llama y A2A, las empresas podr\u00e1n implementar soluciones de IA m\u00e1s eficientes, escalables y listas para producci\u00f3n en entornos h\u00edbridos y multicloud.<\/p>\n<p>Con estas colaboraciones, Red Hat consolida su liderazgo en el ecosistema de IA open source, ofreciendo a las organizaciones las herramientas necesarias para innovar en la era de la inteligencia artificial generativa.<\/p>\n<h3><span style=\"color: #333399;\">Leer mas<\/span><\/h3>\n<ul>\n<li class=\"post-title entry-title\"><a href=\"https:\/\/www.itsitio.com\/ch\/eventos\/red-hat-reconoce-bci-open-source\/\">Red Hat reconoce a BCI como proyecto open source destacado en Latinoam\u00e9rica<\/a><\/li>\n<li class=\"post-title entry-title\"><a href=\"https:\/\/www.itsitio.com\/ch\/inteligencia-artificial\/red-hat-asegura-que-el-codigo-abierto-sera-la-proxima-revolucion-en-inteligencia-artificial\/\">Red Hat asegura que el c\u00f3digo abierto ser\u00e1 la pr\u00f3xima revoluci\u00f3n en inteligencia artificial<\/a><\/li>\n<li class=\"post-title entry-title\"><a href=\"https:\/\/www.itsitio.com\/ch\/soluciones\/red-hat-openshift-virtualization-engine\/\">Red Hat presenta Red Hat OpenShift Virtualization Engine<\/a><\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Red Hat, el proveedor l&iacute;der mundial de soluciones open source, ha anunciado en su Summit de Boston dos importantes colaboraciones estrat&eacute;gicas con Meta y Google para impulsar el desarrollo y la adopci&oacute;n de la inteligencia artificial generativa en el &aacute;mbito empresarial. Estas alianzas buscan fortalecer los ecosistemas abiertos de IA, optimizar la inferencia de modelos y ofrecer soluciones escalables para las empresas. Red Hat y Google Cloud: Impulsando la IA empresarial con innovaci&oacute;n abierta Red Hat y Google Cloud han ampliado su colaboraci&oacute;n para acelerar la adopci&oacute;n de IA generativa mediante la combinaci&oacute;n de las tecnolog&iacute;as open source de Red Hat y la infraestructura especializada de Google Cloud, incluyendo sus modelos abiertos Gemma. Entre las iniciativas clave se encuentra el lanzamiento del proyecto llm-d, con Google como colaborador fundador, para mejorar la escalabilidad y eficiencia en entornos heterog&eacute;neos. Tambi&eacute;n se ha habilitado soporte para vLLM en las TPU de Google Cloud y m&aacute;quinas virtuales con GPU, optimizando la inferencia de IA. Adem&aacute;s, se ofrece disponibilidad desde el D&iacute;a 0 para los modelos Gemma 3 en vLLM. La integraci&oacute;n del Red Hat AI Inference Server en Google Cloud y la participaci&oacute;n de Red Hat en el protocolo Agent2Agent (A2A) de Google, que facilita la comunicaci&oacute;n entre agentes de IA en diferentes plataformas, completan esta colaboraci&oacute;n. &ldquo;A trav&eacute;s de esta mayor colaboraci&oacute;n, Red Hat y Google Cloud se comprometen a promover innovaciones revolucionarias en IA mediante la combinaci&oacute;n de sus conocimientos y plataformas. Incorporar el poder de vLLM y las tecnolog&iacute;as open source de Red Hat a Google Cloud y Gemma de Google brinda a los desarrolladores los recursos necesarios para crear soluciones de IA m&aacute;s precisas y de alto rendimiento, impulsadas por capacidades de inferencia optimizadas&rdquo; dijo Brian Stevens, vicepresidente s&eacute;nior y director de tecnolog&iacute;a, IA, Red Hat. vLLM, un servidor de inferencia open source, juega un papel central en esta alianza, permitiendo una generaci&oacute;n de resultados m&aacute;s r&aacute;pida y econ&oacute;mica en aplicaciones de IA generativa. La integraci&oacute;n con las TPU de Google Cloud maximiza el rendimiento y la eficiencia, mientras que el proyecto llm-d busca simplificar la implementaci&oacute;n de IA en entornos distribuidos. Adem&aacute;s, Red Hat AI Inference Server, disponible en Google Cloud, ayuda a las empresas a optimizar la inferencia de modelos en entornos h&iacute;bridos, combinando la innovaci&oacute;n comunitaria con la infraestructura confiable de Google. Red Hat y Meta: Avanzando en IA generativa con Llama y vLLM En paralelo, Red Hat y Meta han anunciado una colaboraci&oacute;n para potenciar la IA generativa empresarial, comenzando con el soporte desde el D&iacute;a 0 para los modelos Llama 4 en Red Hat AI y el servidor de inferencia vLLM. Ambas compa&ntilde;&iacute;as tambi&eacute;n trabajar&aacute;n en alinear los proyectos comunitarios Llama Stack y vLLM, creando marcos unificados para democratizar el desarrollo de IA. &ldquo;Tanto Red Hat como Meta reconocen que el futuro &eacute;xito de la IA exige no s&oacute;lo avances en los modelos, sino tambi&eacute;n funciones de inferencia que permitan a los usuarios maximizar las capacidades innovadoras de los modelos de pr&oacute;xima generaci&oacute;n. Nuestro compromiso conjunto con Llama Stack y vLLM busca hacer realidad la visi&oacute;n de aplicaciones de IA generativa m&aacute;s r&aacute;pidas, uniformes y de bajo costo, que se ejecuten donde sea necesario en la nube h&iacute;brida, independientemente del acelerador o el entorno. Este es el futuro abierto de la IA, que tanto Red Hat como Meta est&aacute;n preparados para afrontar&rdquo;, dijo Mike Ferris, vicepresidente s&eacute;nior y director de estrategias, Red Hat. Seg&uacute;n Gartner, para 2026 m&aacute;s del 80% de los proveedores de software incorporar&aacute;n IA generativa en sus aplicaciones, lo que subraya la necesidad de bases abiertas e interoperables. La alianza entre Red Hat y Meta aborda este desaf&iacute;o mediante Llama Stack, un conjunto de componentes y API estandarizados desarrollados por Meta para simplificar el ciclo de vida de las aplicaciones de IA generativa. vLLM, con soporte desde el D&iacute;a 0 para Llama 4, mejora la inferencia eficiente de modelos de lenguaje grandes. Red Hat contribuir&aacute; activamente a Llama Stack, reforzando su compromiso con la elecci&oacute;n del cliente y la flexibilidad en herramientas de IA. Adem&aacute;s, la integraci&oacute;n de vLLM con PyTorch, respaldado por Meta, consolida su posici&oacute;n como una soluci&oacute;n l&iacute;der para IA generativa empresarial. Un futuro abierto para la IA empresarial Estas alianzas reflejan el compromiso de Red Hat, Google y Meta con la innovaci&oacute;n abierta y la interoperabilidad en IA. Al combinar tecnolog&iacute;as como vLLM, Gemma, Llama y A2A, las empresas podr&aacute;n implementar soluciones de IA m&aacute;s eficientes, escalables y listas para producci&oacute;n en entornos h&iacute;bridos y multicloud. Con estas colaboraciones, Red Hat consolida su liderazgo en el ecosistema de IA open source, ofreciendo a las organizaciones las herramientas necesarias para innovar en la era de la inteligencia artificial generativa. Leer mas Red Hat reconoce a BCI como proyecto open source destacado en Latinoam&eacute;rica Red Hat asegura que el c&oacute;digo abierto ser&aacute; la pr&oacute;xima revoluci&oacute;n en inteligencia artificial Red Hat presenta Red Hat OpenShift Virtualization Engine<\/p>\n","protected":false},"author":229,"featured_media":177370,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[29],"tags":[199,281,32],"class_list":["post-177369","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","tag-google","tag-meta","tag-red-hat"],"_links":{"self":[{"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/posts\/177369","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/users\/229"}],"replies":[{"embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/comments?post=177369"}],"version-history":[{"count":0,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/posts\/177369\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/media\/177370"}],"wp:attachment":[{"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/media?parent=177369"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/categories?post=177369"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/tags?post=177369"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}