La inteligencia artificial (IA) se consolidó como una de las transformaciones tecnológicas más significativas de nuestra era. Desde diagnósticos médicos más precisos hasta sistemas de transporte autónomo, pasando por predicciones de incendios forestales y ciberseguridad avanzada, su impacto atraviesa múltiples industrias. Sin embargo, a medida que crece su adopción, también lo hace la inquietud sobre su huella energética y ambiental.
Los cálculos hasta ahora eran fragmentados y, en muchos casos, exagerados. Las estimaciones públicas solían enfocarse solo en el consumo de chips activos (TPUs y GPUs), dejando fuera aspectos críticos como la energía usada por CPUs, la memoria RAM, el enfriamiento en data centers o las máquinas en reposo.
Para dar respuesta a estas dudas, Google presentó hoy un estudio en el que detalla la metodología integral con la que mide el consumo energético, el uso de agua y las emisiones de carbono de sus modelos de IA. “Para mejorar la eficiencia energética de la IA es fundamental contar con una comprensión clara y completa de su huella ambiental”, señaló Ben Gomes, Chief Technologist, Learning and Sustainability.
Cuánto consume realmente un prompt de Gemini
El estudio puso cifras concretas sobre la mesa. Según los datos, un prompt de texto en Gemini Apps consume en promedio 0,24 Wh de energía, emite 0,03 gramos de dióxido de carbono equivalente (gCO₂e) y utiliza apenas 0,26 mililitros de agua —el equivalente a unas cinco gotas.
Traducido al día a día, cada interacción equivale a mirar televisión durante menos de nueve segundos. Esto coloca a los modelos Gemini muy por debajo de lo que sugerían estimaciones públicas, y representa un salto significativo hacia una IA más eficiente.
Además, Google informó que en los últimos 12 meses logró reducciones históricas: el consumo energético por prompt cayó 33 veces y la huella de carbono se redujo 44 veces, al mismo tiempo que los modelos mejoraron en calidad de respuesta.
Innovación en múltiples capas
¿Cómo logró Google semejantes mejoras? La compañía destacó que el secreto está en una estrategia de innovación en múltiples frentes:
-
Modelos más eficientes: Gemini se basa en arquitecturas avanzadas como Mixture-of-Experts (MoE), que activan solo las partes del modelo necesarias para cada consulta, reduciendo cálculos y transferencias de datos hasta cien veces.
-
Algoritmos optimizados: técnicas como la quantización precisa permiten bajar consumo energético sin comprometer la calidad de las respuestas.
-
Inference más ágil: tecnologías como el speculative decoding y la distilación de modelos permiten servir respuestas rápidas con menos recursos.
-
Hardware a medida: las TPUs Ironwood, diseñadas por Google, son 30 veces más eficientes que la primera generación lanzada al mercado.
-
Data centers ultraeficientes: la infraestructura de Google opera con un PUE promedio de 1,09, uno de los más bajos del sector.
Compromiso con la sostenibilidad
El informe no solo detalla mejoras técnicas, sino también el marco de responsabilidad ambiental que guía a la empresa. En 2024, Google logró reducir en 12% las emisiones de sus data centers, incluso cuando el consumo eléctrico creció un 27% por la expansión de servicios.
La compañía mantiene además su ambiciosa meta de operar con energía libre de carbono 24/7 y de reponer el 120% del agua que utilizan sus instalaciones globales.
Para Ben Gomes, la transparencia es un valor clave en este proceso: “A medida que seguimos invirtiendo en la tecnología y la innovación necesarias para satisfacer la creciente demanda de energía, la transparencia es fundamental para avanzar”.
La importancia de medir con precisión
Uno de los aportes más relevantes del estudio es su metodología integral. A diferencia de otros cálculos que solo consideran el consumo de chips activos, Google incorporó factores como:
-
Energía usada por CPUs y RAM.
-
Máquinas en reposo, que se mantienen disponibles para atender picos de tráfico.
-
Sistemas de enfriamiento y distribución de energía en data centers.
-
Consumo de agua en procesos de refrigeración.
Este enfoque permite estimar de manera más realista el impacto ambiental de la IA en operación a gran escala, en lugar de cálculos optimistas que se quedan en lo teórico.
Un estándar para toda la industria
La publicación de esta metodología tiene un objetivo más amplio: sentar las bases de un estándar común que permita comparar el impacto ambiental entre distintos modelos de IA. Google busca que estas métricas transparentes impulsen avances colectivos hacia una IA más sostenible.
La empresa reconoce que la demanda de IA seguirá creciendo, y que la eficiencia deberá ser un eje central. El desafío no es menor: equilibrar los beneficios sociales de la IA con la necesidad de mantener una huella ambiental cada vez más baja.
La publicación de Google marca un hito en la discusión sobre el costo ambiental de la IA. Al ofrecer cifras concretas y una metodología abierta, la compañía busca disipar dudas y mostrar que es posible crecer en escala sin desbordar la capacidad energética del planeta.
LEER MÁS:
Gemini ya puede leer en voz alta tus Google Docs: cómo funciona y quiénes pueden usarlo
Google Translate suma funciones de aprendizaje de idiomas con inteligencia artificial