Por Jonathan Zanger, director de tecnología de Check Point.
La IA está transformando la forma en que las industrias operan, compiten y crean valor a una velocidad sin precedentes. Para 2030, se proyecta que añadirá casi 20 billones de dólares al PIB mundial, consolidando su posición como una de las fuerzas económicas más poderosas de nuestro siglo.
Pero, a medida que la IA se integra más profundamente en las operaciones comerciales, emerge rápidamente una nueva frontera de riesgo, arraigada en la frágil comprensión que tienen las máquinas del significado y el contexto del lenguaje humano.
La IA generativa y los grandes modelos de lenguaje (LLM) se están convirtiendo en el núcleo de los flujos de trabajo críticos en todos los sectores. Las instituciones financieras los implementan para analizar los mercados y anticipar la volatilidad. Los fabricantes los integran para orquestar cadenas de suministro complejas. Las organizaciones sanitarias los aplican para clasificar la información y acelerar la investigación.

Pero a medida que aumenta la dependencia de los sistemas de IA generativa, también lo hace una nueva clase de amenazas que explotan la comunicación, no el código. Se centran en lo que la IA entiende, en lugar de en cómo se ejecuta. Y están surgiendo más rápido de lo que la mayoría de las organizaciones están preparadas para detectarlas y defenderse.
LLMs y el panorama emergente de amenazas
Tradicionalmente, la ciberseguridad se ha centrado en fortalecer la infraestructura: bloquear redes, corregir vulnerabilidades e implementar controles de identidad. Sin embargo, el panorama actual de amenazas está evolucionando hacia algo más sutil y aún más difícil de detectar.
Los ciberdelincuentes ya no necesitan explotar fallas de software ni vulnerar una red para causar daños. Pueden manipular la forma en que los sistemas de IA interpretan el lenguaje, convirtiendo la semántica en una superficie de ataque.
Las instrucciones maliciosas ocultas pueden ocultarse a simple vista, en datos públicos, material de capacitación, comentarios de clientes o documentación de código abierto.

Estas manipulaciones pueden redirigir el razonamiento de un modelo, distorsionar sus resultados o comprometer la información que proporciona a los responsables de la toma de decisiones. Dado que estos ataques se producen en lenguaje natural, las herramientas de seguridad tradicionales rara vez los identifican.
El modelo se ve afectado en su origen, mucho antes de que alguien se dé cuenta de que algo anda mal. Para las organizaciones que carecen de la preparación y la protección adecuadas, esto representa un riesgo grave y, a menudo, invisible.
No se trata de una amenaza hipotética. A medida que más organizaciones adoptan sistemas de IA autónomos y semiautónomos, el incentivo para que los adversarios ataquen la capa de lenguaje no hace más que crecer. El coste de entrada para los atacantes es bajo y el daño potencial es enorme.

La amenaza interna silenciosa
Cuando un modelo de IA se ve comprometido, se comporta como una amenaza interna. Puede filtrar silenciosamente propiedad intelectual, alterar recomendaciones estratégicas o generar resultados que beneficien a un tercero. El reto reside en su invisibilidad: actúa sin alertar. El sistema sigue respondiendo preguntas, resumiendo documentos, procesando datos y ayudando a los empleados. Simplemente, hace todo esto de forma sutilmente desalineada.
Lo que estamos observando ahora es un cambio en el riesgo empresarial: de la protección de datos a la protección del conocimiento. La pregunta clave para los responsables de seguridad ya no se limita a los derechos de acceso, sino a qué han absorbido sus modelos y de dónde.
La brecha de gobernanza
A pesar de la magnitud de la amenaza, muchas organizaciones siguen centrándose en quién utiliza la IA en lugar de en qué asimilan sus sistemas de IA. Esta brecha se amplía a medida que se acelera la adopción de la IA y aumenta la autonomía. La creación de ecosistemas de IA confiables y resilientes requiere que las empresas verifiquen la integridad y autenticidad de cada conjunto de datos, instrucción y fuente de contenido que alimenta sus modelos.
Esto se alinea estrechamente con un tema central que emerge para Davos 2026: la realización del enorme potencial económico de la IA depende de una implementación responsable y una confianza verificable. La IA no puede seguir siendo una caja negra, ni puede consumir pasivamente datos sin control. Los sistemas que generen el mayor valor económico y social serán aquellos diseñados con la trazabilidad, la transparencia y la rendición de cuentas como pilares.

Generar confianza en el núcleo de la IA
Abordar este nuevo panorama de amenazas comienza con un principio simple pero transformador: confianza cero. No confiar en nada. Verificar todo, continuamente.
Si bien la confianza cero no es un concepto de seguridad nuevo, su alcance debe extenderse más allá de los controles de acceso e incluir los datos e instrucciones que entrenan y guían los sistemas de IA.
Esto requiere una monitorización constante de la evolución de los modelos, el rastreo del origen de su conocimiento y la integración de la responsabilidad a lo largo de todo el ciclo de vida de la IA.
La alfabetización en IA, la procedencia de los datos y la confianza digital deben ahora integrarse, junto con los criterios ESG y la ciberseguridad, como prioridades de la junta directiva, ya que la integridad de la inteligencia empresarial depende cada vez más de ellos.

La conciencia global sobre estos riesgos está creciendo.
El Marco de Riesgos y Seguridad de la IA de la OCDE, publicado en 2025, e iniciativas internacionales similares reconocen la manipulación de datos y el uso indebido de la IA como áreas críticas que exigen estándares y supervisión compartidos.
Para las empresas, alinear la gobernanza con estos marcos fortalece la resiliencia operativa y refuerza la confianza pública.
Proteger la IA protegiendo el lenguaje que entiende
Para alcanzar todo el potencial de la IA, los líderes cibernéticos deben asumir la idea de que una inteligencia segura es una inteligencia sostenible. La próxima era de la ciberseguridad se definirá no por la defensa de los sistemas, sino por la defensa de la semántica. La integridad del razonamiento, la interpretación y la comunicación de las máquinas se está convirtiendo en un activo estratégico.
Asegurar la IA implica asegurar el lenguaje mismo del que depende. La confianza definirá la próxima frontera de la innovación. Las organizaciones y naciones que lideran este espacio considerarán la confianza como un diferenciador competitivo y una responsabilidad global compartida.
Leer más
- Ciberseguridad: el poder ya no se toma, se hackea
- Un futuro digital más seguro para Chile y América Latina
- Chile a la encrucijada de la Inteligencia Artificial: entre la regulación y la oportunidad









