Cloud

Google Kubernetes Engine se renueva para acelerar el despliegue de inteligencia artificial en la nube

Durante Google Cloud Next ‘25, la compañía anunció importantes mejoras en GKE que buscan simplificar, escalar y optimizar el uso de modelos de IA. Desde herramientas para gestionar clústeres complejos hasta soluciones para inferencia más eficiente, la nueva propuesta apunta a convertir a Kubernetes en la base para las cargas de trabajo de IA de próxima generación.

A medida que la inteligencia artificial se convierte en una prioridad estratégica para empresas de todos los tamaños, la elección de la infraestructura adecuada se vuelve un factor crítico. En este contexto, Google Cloud anunció una serie de innovaciones en Google Kubernetes Engine (GKE), orientadas a facilitar el desarrollo, la implementación y la operación de modelos de IA de forma escalable y eficiente.

Cluster Director: orquestación a gran escala, con menos complejidad

Una de las principales novedades es la disponibilidad general de Cluster Director, una herramienta diseñada para simplificar la gestión de clústeres complejos en GKE. Esta funcionalidad permite desplegar y manejar grandes grupos de máquinas virtuales aceleradas —con recursos de cómputo, almacenamiento y red— como si fueran una unidad lógica única.

Esto es especialmente útil para empresas que trabajan con modelos fundacionales o redes neuronales profundas que requieren grandes volúmenes de procesamiento paralelo.

GKE Inference Quickstart y Gateway: despliegue más rápido y eficiente de modelos

Otra de las funciones destacadas es GKE Inference Quickstart, actualmente en vista previa pública. Esta solución permite a los equipos de datos seleccionar la infraestructura óptima para desplegar modelos de IA, utilizando métricas previamente testeadas y comparadas. Así, las empresas pueden anticipar el rendimiento y costo de un modelo antes de ponerlo en producción.

Complementando esta función, GKE Inference Gateway, también en vista previa pública, actúa como una puerta de entrada inteligente para la inferencia de IA. Proporciona balanceo de carga y enrutamiento optimizado para cargas de inferencia, asegurando que los modelos se ejecuten de forma eficiente sin necesidad de configuración manual compleja.

GKE suma funciones como Cluster Director, Inference Gateway y RayTurbo para facilitar el desarrollo y operación de modelos avanzados.
GKE suma funciones como Cluster Director, Inference Gateway y RayTurbo para facilitar el desarrollo y operación de modelos avanzados.

Una plataforma de cómputo contenedorizada y optimizada

Google también anunció una nueva plataforma de cómputo optimizada para contenedores en GKE Autopilot, diseñada para maximizar el rendimiento de cargas de trabajo de IA sin requerir ajustes manuales por parte de los equipos de infraestructura. Esta plataforma ya está en proceso de despliegue y se espera que esté disponible para clústeres estándar durante el tercer trimestre de 2025.

Gemini Cloud Assist: IA para diagnosticar problemas en tiempo real

Como parte del uso interno de sus propios productos —“we drink our own champagne”, como suelen decir en Google— la compañía anunció también Gemini Cloud Assist Investigations, actualmente en vista previa privada. Esta herramienta utiliza IA para ayudar a los equipos de plataforma a identificar y resolver problemas en GKE de forma más rápida, con análisis de causa raíz automatizados y recomendaciones para mitigación.

RayTurbo en GKE: alto rendimiento para cargas distribuidas

Una de las integraciones más esperadas es la de RayTurbo en GKE, que llegará a lo largo de este año en alianza con Anyscale. Esta tecnología mejora el rendimiento de cargas distribuidas sobre GPU/TPU, permite el arranque rápido de clústeres y ofrece escalado automático robusto.

RayTurbo resulta especialmente útil para empresas que necesitan entrenar modelos personalizados o realizar inferencia de forma intensiva, ya que permite aprovechar al máximo los recursos de aceleración disponibles en la nube.

Bobby Allen, terapeuta de la nube en Google Cloud.
Bobby Allen, terapeuta de la nube en Google Cloud.

IA + Kubernetes: un matrimonio estratégico

Más allá de las herramientas, el mensaje de Google Cloud es claro: Kubernetes no solo sigue siendo la mejor opción para aplicaciones modernas, sino también para cargas de trabajo de inteligencia artificial.

La integración nativa con otras herramientas como Vertex AI, BigQuery y el ecosistema de modelos fundacionales disponibles en Model Garden permite que los desarrolladores, ingenieros de datos y científicos trabajen en un entorno unificado y altamente interoperable.

Además, con las mejoras en GKE, se reduce el tiempo de puesta en marcha, se mejora la observabilidad de los sistemas y se facilita el autoscaling dinámico, lo que permite a las empresas adaptarse más rápidamente a la demanda y a los desafíos de la IA moderna.

¿Por qué es relevante para el negocio?

Para las organizaciones que buscan implementar soluciones de IA sin reinventar su stack tecnológico, las mejoras de GKE representan una oportunidad concreta de acelerar la innovación:

  • Optimización de costos y recursos al evitar sobredimensionamiento de clústeres.

  • Reducción del tiempo de implementación, gracias a herramientas como Quickstart y Gateway.

  • Mayor confiabilidad operativa con diagnósticos automáticos y soporte de IA.

  • Mejor rendimiento para cargas exigentes, especialmente en GPU/TPU.

Leer mas

Autor

  • Desirée Jaimovich

    Es directora periodística de ITSitio, y tiene una columna de tecnología en el programa La Inmensa Minoría, por Radio Con Vos y colabora con La Nación. Anteriormente trabajó para Infobae, Clarín y CNN Radio. Es traductora pública de inglés y periodista especializada en tecnología e innovación. Obtuvo el Premio ESET al Periodismo en Seguridad Informática y el Premio UBA al Periodismo educativo y cultural. Fue becaria del programa International Visitor Leadership de la Embajada de EE.UU.

    Ver todas las entradas

[mdx-adserve-bstreet region="MED"]

Desirée Jaimovich

Es directora periodística de ITSitio, y tiene una columna de tecnología en el programa La Inmensa Minoría, por Radio Con Vos y colabora con La Nación. Anteriormente trabajó para Infobae, Clarín y CNN Radio. Es traductora pública de inglés y periodista especializada en tecnología e innovación. Obtuvo el Premio ESET al Periodismo en Seguridad Informática y el Premio UBA al Periodismo educativo y cultural. Fue becaria del programa International Visitor Leadership de la Embajada de EE.UU.

Publicaciones relacionadas

Botón volver arriba