La inteligencia artificial ya no solo es utilizada por empresas y desarrolladores para automatizar tareas o crear asistentes virtuales. Según un nuevo informe de Google, los ciberdelincuentes comenzaron a incorporar modelos de IA en campañas ofensivas capaces de vulnerar sistemas de seguridad, ocultar malware e incluso operar de forma autónoma en dispositivos comprometidos.
El reporte publicado por el equipo de inteligencia de amenazas de la compañía, conocido como Google Threat Intelligence Group, advierte que actores maliciosos ya están utilizando inteligencia artificial para desarrollar exploits capaces de evadir mecanismos de autenticación de dos factores (2FA), una de las principales barreras de seguridad utilizadas actualmente por usuarios y empresas.
La compañía explicó que detectó por primera vez un exploit creado para atacar una herramienta open source de administración de sistemas. El código malicioso aprovechaba un fallo de lógica semántica que pasaba desapercibido para herramientas tradicionales de análisis de seguridad.
Según Google, el ataque requería inicialmente credenciales válidas de usuario, pero una vez obtenidas, permitía saltear la autenticación de dos factores y acceder al sistema comprometido. La empresa aseguró que logró identificar la amenaza antes de que fuera utilizada en una campaña masiva.
La IA ya puede detectar fallas lógicas en el código
Uno de los aspectos más preocupantes del informe es que la vulnerabilidad explotada no respondía a errores clásicos de programación, sino a una “confianza implícita” dentro del flujo lógico del software.
De acuerdo con Google, los modelos de lenguaje avanzados o LLMs comenzaron a mostrar capacidades para “interpretar la intención del desarrollador” y detectar contradicciones lógicas que herramientas tradicionales no consiguen identificar.
La empresa encontró además varios indicios que apuntan al uso de inteligencia artificial en el desarrollo del exploit. Entre ellos, comentarios excesivamente explicativos dentro del código, estructuras similares a las generadas por asistentes como ChatGPT o Gemini, además de errores típicos producidos por modelos generativos.
Para especialistas en ciberseguridad, este escenario marca un cambio importante: la IA ya no se limita a automatizar ataques básicos, sino que comienza a participar en la identificación y explotación de vulnerabilidades complejas.
Malware autónomo impulsado con IA
El informe también documenta una evolución en el uso operativo de la inteligencia artificial dentro del malware moderno. Uno de los casos más relevantes señalados por Google es PROMPTSPY, un malware para Android que utiliza la API de Gemini para interactuar de forma autónoma con dispositivos infectados.
Según la investigación, PROMPTSPY puede analizar el estado de la interfaz del usuario y ejecutar acciones dinámicas sin intervención humana. El malware utiliza la Accessibility API de Android para interpretar lo que ocurre en pantalla y luego envía esa información al modelo “gemini-2.5-flash-lite”, que devuelve instrucciones específicas para realizar acciones dentro del dispositivo.
Entre las capacidades detectadas se incluyen clics automáticos, desplazamientos dentro de aplicaciones y manipulación de interfaces en tiempo real.
Google advirtió además que el malware incorpora mecanismos avanzados de persistencia. Si el usuario intenta eliminar la aplicación maliciosa, PROMPTSPY despliega una capa invisible sobre el botón de desinstalación para impedir la interacción.
El software también puede capturar patrones de desbloqueo, PINs y otros elementos biométricos con el objetivo de recuperar el acceso posteriormente.
Para la compañía, este caso representa un punto de inflexión en la evolución de las amenazas digitales: la transición de la IA como simple herramienta de asistencia hacia sistemas ofensivos con capacidad de actuar de manera autónoma.
IA para ocultar malware y dificultar la detección
Otro de los hallazgos del informe involucra familias de malware vinculadas a actores alineados con Rusia, entre ellas CANFAIL y LONGSTREAM.
Según Google, estos programas utilizan código señuelo generado por inteligencia artificial para ocultar sus verdaderas funciones y dificultar el trabajo de los sistemas de detección.
El reporte detalla que los atacantes incorporan grandes volúmenes de funciones aparentemente legítimas, aunque sin utilidad operativa real. En algunos casos, el malware repetía decenas de veces tareas irrelevantes —como consultas relacionadas con horarios de verano— únicamente para camuflar su comportamiento malicioso.
La investigación también encontró comentarios dentro del código donde los atacantes solicitaban explícitamente a modelos de IA la generación de fragmentos de software “aparentemente legítimos”, diseñados específicamente para evadir herramientas de análisis.
Este tipo de técnicas incrementa significativamente la dificultad para detectar amenazas mediante sistemas automáticos tradicionales, especialmente aquellos basados en firmas o patrones conocidos.
Un ecosistema para acceder masivamente a modelos de IA
El informe de Google también advierte sobre el crecimiento de un ecosistema clandestino de herramientas destinadas a obtener acceso masivo y anónimo a plataformas de inteligencia artificial generativa.
Entre las capacidades detectadas aparecen sistemas automatizados para registrar cuentas, evadir CAPTCHA y verificaciones SMS, administrar múltiples claves API y rotar cuentas de forma programática para evitar bloqueos.
Herramientas como Claude Relay Service, CLIProxyAPI y ChatGPT Account Auto-Registration Tool forman parte de este entorno que permite utilizar modelos de IA a gran escala mediante créditos de prueba y cuentas descartables.
Para Google, estas plataformas reducen considerablemente las barreras de entrada para actores maliciosos, permitiendo que grupos criminales accedan a capacidades avanzadas de IA sin necesidad de grandes recursos técnicos o económicos.
La respuesta de Google frente a las nuevas amenazas
Ante este escenario, Google aseguró que ya comenzó a implementar sistemas basados en IA para reforzar la seguridad de sus plataformas.
Entre ellos aparece Big Sleep, un agente utilizado para detectar vulnerabilidades antes de que sean explotadas, y CodeMender, una herramienta basada en Gemini diseñada para corregir automáticamente fallos críticos en el código.
La compañía afirmó además que logró bloquear todos los activos vinculados con PROMPTSPY y que ninguna aplicación infectada alcanzó a publicarse dentro de Google Play.
Sin embargo, el informe deja una advertencia clara para la industria tecnológica: la inteligencia artificial ya comenzó a ser utilizada como arma ofensiva en ciberataques reales, desde la creación de exploits hasta la operación autónoma de malware avanzado.
Leer más
- Gemini Intelligence llega a Android: qué celulares tendrán primero la nueva IA de Google
- Googlebook: el nuevo portátil de Google con Gemini que reemplaza al Chromebook
- TD SYNNEX ganó el premio Google Cloud Distribution: Market Reach Partner of the Year 2026