OpenAI anunció un movimiento estratégico que marca un antes y un después en la forma en que opera su modelo más popular, ChatGPT. La compañía confirmó que incorporará a Google Cloud como uno de sus principales proveedores de infraestructura, sumándose a la lista donde ya figuran Microsoft, Oracle y CoreWeave. La decisión responde al crecimiento explosivo de la demanda de inteligencia artificial y a la necesidad de contar con más capacidad de cómputo para mantener sus servicios a escala global.
El trasfondo: un cambio en la relación con Microsoft
Desde 2019, Microsoft se había posicionado como el socio más cercano de OpenAI, no solo como inversor mayoritario, sino también como su proveedor exclusivo de infraestructura cloud. Sin embargo, esa exclusividad comenzó a diluirse en los últimos meses. En enero pasado, Microsoft comunicó que adoptaría un modelo diferente: ya no sería el único proveedor, pero mantendría un “derecho de preferencia” cada vez que OpenAI necesitara recursos adicionales.
La relación entre ambas empresas ha tomado un giro interesante. Aunque Microsoft sigue siendo clave —particularmente por mantener la exclusividad de las API de OpenAI integradas en Azure—, la compañía de Redmond reconoció en 2024 a OpenAI como competidor directo en el mercado de servicios de inteligencia artificial. Ambas ofrecen suscripciones empresariales y herramientas para desarrolladores, lo que ha generado una dinámica de cooperación y competencia al mismo tiempo.

La entrada de Google Cloud: una victoria estratégica
Para Google, esta incorporación es mucho más que un contrato: representa una victoria significativa para su división de nube, que aún se encuentra por detrás de Amazon Web Services (AWS) y Microsoft Azure en participación de mercado. Alphabet refuerza así su posición en la carrera por conquistar a los gigantes de la IA, un terreno donde la disponibilidad de infraestructura y GPU resulta crítica.
La infraestructura de Google Cloud Platform (GCP) brindará soporte en Estados Unidos, Japón, Países Bajos, Noruega y Reino Unido, de acuerdo con la lista actualizada de subprocesadores publicada por OpenAI. Esto significa que ChatGPT —en sus versiones Enterprise, Edu y Team—, además de su API, comenzará a procesar datos también a través de los centros de datos de Google.
En paralelo, Google mantiene un acuerdo de nube con Anthropic, competidor de OpenAI fundado por exempleados de la misma startup. Que ambas compañías compartan proveedor habla de la estrategia multi-cliente de Google, que busca consolidarse como una alternativa viable en un ecosistema donde la demanda de cómputo crece más rápido de lo que la oferta puede escalar.
Una arquitectura multi-cloud como respuesta al apetito de la IA
La decisión de OpenAI no es aislada, sino que forma parte de un patrón más amplio dentro de la industria tecnológica: la adopción de arquitecturas multi-cloud. Las compañías líderes en inteligencia artificial están distribuyendo sus cargas de trabajo entre múltiples proveedores debido a dos factores principales:
-
Limitaciones de hardware: la escasez global de GPUs de Nvidia —clave para el entrenamiento y operación de modelos de lenguaje grandes (LLM)— ha empujado a las empresas a buscar disponibilidad donde sea posible.
-
Cobertura geográfica: depender de un solo proveedor limita la capacidad de expansión y disponibilidad en distintos mercados internacionales.
Sam Altman, CEO de OpenAI, ya había dejado entrever en abril la magnitud del desafío. En una publicación en X, escribió con ironía: “Si alguien tiene capacidad de GPU en bloques de 100,000 que podamos conseguir lo antes posible, ¡llámenos!”. Ese comentario reflejaba la presión creciente por ampliar recursos en medio de una adopción global de ChatGPT que no se detiene.
Oracle y CoreWeave, otros jugadores clave
Además de Microsoft y ahora Google, OpenAI se ha asegurado otros dos socios importantes. En marzo pasado firmó un acuerdo con CoreWeave por cinco años, valorado en unos 12.000 millones de dólares. CoreWeave, especializado en ofrecer infraestructura optimizada para cargas de trabajo de IA, se convirtió así en un pilar de respaldo.
Por su parte, Oracle mantiene una alianza tripartita con Microsoft y OpenAI. Su infraestructura OCI (Oracle Cloud Infrastructure) se conecta con Azure para brindar capacidad adicional en escenarios de alta demanda, extendiendo el alcance del ecosistema de OpenAI.
Esta diversificación ilustra una estrategia clara: ningún proveedor individual es capaz de cubrir, por sí solo, el gigantesco apetito computacional de la compañía que creó ChatGPT.

Implicancias para el mercado
El desembarco de Google Cloud en la lista de proveedores de OpenAI consolida la idea de que los acuerdos exclusivos ya no son prácticos en la era de la inteligencia artificial generativa. Para las empresas tecnológicas, este tipo de asociaciones cruzadas no solo refuerza la resiliencia operativa, sino que también representa un cambio en el equilibrio de poder dentro del mercado cloud.
La apuesta de OpenAI también podría abrir la puerta a nuevas negociaciones con otros actores, incluidos Amazon Web Services, el líder indiscutido en infraestructura cloud, que por ahora se mantiene al margen de la lista.
En definitiva, la estrategia multi-cloud de OpenAI responde a un objetivo claro: garantizar la escala global de ChatGPT y sus APIs en un momento donde la demanda de inteligencia artificial crece exponencialmente y redefine la competencia entre los gigantes tecnológicos.
Leer mas
- OpenAI sorprende con GPT-OSS 120B y 20B: modelos de IA gratis, abiertos y para usar en tu computadora
- OpenAI da marcha atrás: vuelve GPT-4o tras la polémica por GPT-5
- NVIDIA y OpenAI llevan modelos de IA avanzados a PCs con GeForce RTX








