Durante años, la inteligencia artificial fue vista como una aliada clave en la defensa digital. Pero algo está cambiando. Desde Check Point alertaron sobre Xanthorox AI, una nueva plataforma maliciosa que combina automatización, anonimato y poder de coordinación entre agentes, encarna la evolución más peligrosa de la IA ofensiva hasta ahora vista.
Desarrollada desde cero, sin depender de modelos existentes, esta herramienta representa un punto de inflexión: ya no se trata de chatbots pirateados o modelos modificados. Es una IA diseñada específicamente para atacar.
Una IA autónoma, modular y sin conexión
A diferencia de sus predecesores como WormGPT, Xanthorox AI no es simplemente un gran modelo de lenguaje con fines oscuros. Es un sistema modular y completamente autónomo que funciona sin conexión a internet, lo que refuerza el anonimato y la resistencia a ser detectado o desactivado.
La plataforma incluye cinco módulos especializados:
-
Xanthorox Coder, encargado de escribir código malicioso.
-
V4 Model, que gestiona las operaciones de reconocimiento.
-
Xanthorox Vision, para análisis visual y recolección de datos.
-
Xanthorox Reasoner Advanced, dedicado a la lógica de ataque.
-
Quinto Módulo de Coordinación, que sincroniza las acciones de todos los anteriores sin intervención humana.
Del phishing tradicional al correo perfecto
Uno de los mayores impactos de estas herramientas está en el phishing. La IA permite generar correos electrónicos sin errores, perfectamente redactados y personalizados. Ya no hay pistas visuales que delaten la estafa. Un estudio de 2024 reveló que este tipo de correos generados íntegramente por IA alcanzaron una tasa de clics del 54 %, un 350 % más alta que los tradicionales.
En un caso reciente en Hungría, una empresa minorista perdió 15,5 millones de euros por un ataque de phishing impulsado por IA generativa, que imitaba a la perfección los correos del área financiera.

Deepfakes: la nueva identidad falsa
Más allá del correo, la IA potencia la creación de deepfakes. Ya se registraron fraudes multimillonarios en Emiratos Árabes Unidos, Hong Kong y Reino Unido mediante voz clonada y videollamadas manipuladas.
En uno de los casos más graves de 2024, los atacantes suplantaron al CFO de una multinacional en una videollamada falsa, usando IA para convencer a un empleado de realizar una transferencia millonaria. Las víctimas no solo fueron engañadas por lo que leyeron, sino también por lo que vieron y escucharon.
Reconocimiento avanzado: IA que espía y predice
La IA ofensiva no solo genera contenido, también analiza grandes volúmenes de datos públicos para anticipar el comportamiento de las víctimas. Estudia redes sociales, horarios, estilos de comunicación y patrones internos de empresas.
Esto permite ataques de phishing selectivo de precisión quirúrgica. En India, una institución financiera fue blanco de una campaña que imitó el tono exacto del CEO, extraído de publicaciones en LinkedIn y el sitio web corporativo.
Una tendencia que crece y se perfecciona
Aunque WormGPT y otras plataformas similares fueron cerradas, el daño ya está hecho. El modelo se replicó. Hoy existen variantes como BurpGPT, PentestGPT, FraudGPT y PassGPT. Y en el horizonte aparece “Evil-GPT-Web3”, con foco en atacar infraestructura blockchain.
Desde Check Point advierten que estamos ante una nueva era de ciberataques, donde los ciberdelincuentes operan con herramientas comparables —o superiores— a las de las organizaciones defensoras. La inteligencia artificial ya no es solo un escudo: también es la espada.
LEER MÁS:
Kaspersky: Uno de cada cinco sistemas industriales en América Latina fue blanco de malware en 2025
Quantum-as-a-Service: ¿Cuán cerca está la amenaza real?
Amenaza vintage asedia a América Latina: el phishing afecta a 43% de las PyMEs de la región









