
Google Kubernetes Engine se renueva para acelerar el despliegue de inteligencia artificial en la nube
Durante Google Cloud Next ‘25, la compañía anunció importantes mejoras en GKE que buscan simplificar, escalar y optimizar el uso de modelos de IA. Desde herramientas para gestionar clústeres complejos hasta soluciones para inferencia más eficiente, la nueva propuesta apunta a convertir a Kubernetes en la base para las cargas de trabajo de IA de próxima generación.
A medida que la inteligencia artificial se convierte en una prioridad estratégica para empresas de todos los tamaños, la elección de la infraestructura adecuada se vuelve un factor crítico. En este contexto, Google Cloud anunció una serie de innovaciones en Google Kubernetes Engine (GKE), orientadas a facilitar el desarrollo, la implementación y la operación de modelos de IA de forma escalable y eficiente.
Cluster Director: orquestación a gran escala, con menos complejidad
Una de las principales novedades es la disponibilidad general de Cluster Director, una herramienta diseñada para simplificar la gestión de clústeres complejos en GKE. Esta funcionalidad permite desplegar y manejar grandes grupos de máquinas virtuales aceleradas —con recursos de cómputo, almacenamiento y red— como si fueran una unidad lógica única.
Esto es especialmente útil para empresas que trabajan con modelos fundacionales o redes neuronales profundas que requieren grandes volúmenes de procesamiento paralelo.
GKE Inference Quickstart y Gateway: despliegue más rápido y eficiente de modelos
Otra de las funciones destacadas es GKE Inference Quickstart, actualmente en vista previa pública. Esta solución permite a los equipos de datos seleccionar la infraestructura óptima para desplegar modelos de IA, utilizando métricas previamente testeadas y comparadas. Así, las empresas pueden anticipar el rendimiento y costo de un modelo antes de ponerlo en producción.
Complementando esta función, GKE Inference Gateway, también en vista previa pública, actúa como una puerta de entrada inteligente para la inferencia de IA. Proporciona balanceo de carga y enrutamiento optimizado para cargas de inferencia, asegurando que los modelos se ejecuten de forma eficiente sin necesidad de configuración manual compleja.

Una plataforma de cómputo contenedorizada y optimizada
Google también anunció una nueva plataforma de cómputo optimizada para contenedores en GKE Autopilot, diseñada para maximizar el rendimiento de cargas de trabajo de IA sin requerir ajustes manuales por parte de los equipos de infraestructura. Esta plataforma ya está en proceso de despliegue y se espera que esté disponible para clústeres estándar durante el tercer trimestre de 2025.
Gemini Cloud Assist: IA para diagnosticar problemas en tiempo real
Como parte del uso interno de sus propios productos —“we drink our own champagne”, como suelen decir en Google— la compañía anunció también Gemini Cloud Assist Investigations, actualmente en vista previa privada. Esta herramienta utiliza IA para ayudar a los equipos de plataforma a identificar y resolver problemas en GKE de forma más rápida, con análisis de causa raíz automatizados y recomendaciones para mitigación.
RayTurbo en GKE: alto rendimiento para cargas distribuidas
Una de las integraciones más esperadas es la de RayTurbo en GKE, que llegará a lo largo de este año en alianza con Anyscale. Esta tecnología mejora el rendimiento de cargas distribuidas sobre GPU/TPU, permite el arranque rápido de clústeres y ofrece escalado automático robusto.
RayTurbo resulta especialmente útil para empresas que necesitan entrenar modelos personalizados o realizar inferencia de forma intensiva, ya que permite aprovechar al máximo los recursos de aceleración disponibles en la nube.

IA + Kubernetes: un matrimonio estratégico
Más allá de las herramientas, el mensaje de Google Cloud es claro: Kubernetes no solo sigue siendo la mejor opción para aplicaciones modernas, sino también para cargas de trabajo de inteligencia artificial.
La integración nativa con otras herramientas como Vertex AI, BigQuery y el ecosistema de modelos fundacionales disponibles en Model Garden permite que los desarrolladores, ingenieros de datos y científicos trabajen en un entorno unificado y altamente interoperable.
Además, con las mejoras en GKE, se reduce el tiempo de puesta en marcha, se mejora la observabilidad de los sistemas y se facilita el autoscaling dinámico, lo que permite a las empresas adaptarse más rápidamente a la demanda y a los desafíos de la IA moderna.
¿Por qué es relevante para el negocio?
Para las organizaciones que buscan implementar soluciones de IA sin reinventar su stack tecnológico, las mejoras de GKE representan una oportunidad concreta de acelerar la innovación:
-
Optimización de costos y recursos al evitar sobredimensionamiento de clústeres.
-
Reducción del tiempo de implementación, gracias a herramientas como Quickstart y Gateway.
-
Mayor confiabilidad operativa con diagnósticos automáticos y soporte de IA.
-
Mejor rendimiento para cargas exigentes, especialmente en GPU/TPU.
Leer mas
- Transformación Digital con IA: Iplan y Google Cloud muestran cómo impulsar la innovación empresarial
- Vertex AI y un ecosistema de agentes inteligentes interconectados
- aeros fue elegido como Partner del Año de ventas en Argentina por parte de Google Cloud