La inteligencia artificial ya está en todas partes dentro de las organizaciones, pero no necesariamente donde debería. Mientras los empleados la incorporan a su rutina diaria, las áreas de gestión todavía intentan entender cómo controlarla.
Diversos estudios recientes coinciden en un punto clave: la mayoría de las organizaciones ya utiliza IA, pero pocas cuentan con marcos formales para controlarla.
Según una encuesta global “2026 AI Adoption and Risk Benchmarking Survey” de la firma Gallagher, el 63% de las empresas ya tiene inteligencia artificial operativa en alguna parte de su negocio, un salto significativo frente al 45% registrado en 2025. En paralelo, solo el 4% afirma no experimentar con estas tecnologías, cuando en 2023 esa cifra era del 18%.

El impacto es evidente:
- El 82% reporta mejoras en productividad
- El 83% espera crecimiento en ingresos
Pero este avance también expone una contradicción cada vez más visible: la adopción supera ampliamente la preparación.
Uso masivo… incluso sin autorización
Uno de los datos más preocupantes surge en Latinoamérica, donde el uso de IA no siempre está bajo control corporativo.
Se estima que el 61% de los empleados utiliza herramientas de inteligencia artificial sin autorización de la empresa, lo que abre la puerta a filtraciones de datos sensibles, uso indebido de información y pérdida de propiedad intelectual.
Este fenómeno, conocido como Shadow AI, refleja una realidad: los empleados avanzan más rápido que las políticas internas.
El problema no es solo tecnológico, sino cultural y organizacional.
Los riesgos que las empresas ya reconocen
Aunque muchas compañías aún no actúan, sí son conscientes de los peligros.
Entre los principales riesgos identificados se destacan:
- Desinformación y errores de IA (57%)
- Impactos legales y reputacionales (56%)
- Violaciones de privacidad (55%)
A esto se suma una advertencia clave de Gartner:
para 2026, más del 30% de los ciberataques involucrarán inteligencia artificial, ya sea a través de modelos manipulados o ataques a sus datos de entrenamiento.

Además, emergen otros desafíos menos visibles pero igual de críticos:
- Sesgos en decisiones automatizadas
- Vigilancia digital en entornos laborales
- Intensificación del trabajo por algoritmos
Sin controles adecuados, la IA no solo amplifica la eficiencia, sino también los riesgos.
El gran problema: falta de control estructural
A pesar de este escenario, la mayoría de las organizaciones todavía no cuenta con estructuras sólidas para gestionar la IA.
Menos del 50% dispone de:
- Marcos formales de gestión de riesgos
- Protocolos de respuesta ante incidentes
-
Políticas claras sobre uso de IA
La brecha es evidente:
- El 93% reconoce los riesgos (frente al 77% en 2024)
- Pero solo el 56% comunica su estrategia de IA a los empleados
Esto genera entornos donde la tecnología avanza sin gobernanza.
Organismos como el National Institute of Standards and Technology advierten especialmente sobre el uso de datos sensibles para entrenar modelos y el empleo de herramientas no autorizadas, dos de los principales focos de fuga de información.

Cómo empezar a gestionar los riesgos de la IA
Frente a este contexto, las recomendaciones apuntan a pasar de la experimentación al control.
Algunas de las acciones clave incluyen:
- Implementar marcos de gestión. Adoptar estándares como el AI Risk Management Framework del NIST permite evaluar modelos, datos y procesos de forma estructurada.
- Definir políticas claras. Es fundamental establecer qué herramientas están permitidas, cómo se deben usar y qué datos pueden procesarse.
- Capacitar a los empleados. Actualmente, cerca del 24% de los trabajadores no recibe formación en uso ético de IA, lo que incrementa el riesgo operativo.
- Fortalecer la ciberseguridad. La protección debe extenderse a modelos, datasets y pipelines de entrenamiento, no solo a la infraestructura tradicional.
- Evaluar coberturas específicas. El mercado de seguros ya refleja el problema: 1 de cada 5 organizaciones reporta pérdidas vinculadas a riesgos de IA.
De la adopción a la gobernanza
La inteligencia artificial está redefiniendo la forma en que trabajan las empresas, pero también está exponiendo nuevas vulnerabilidades.
El desafío ya no es implementar IA, sino controlarla de manera responsable.
En un contexto donde prácticamente todos la usan, pero pocos la gobiernan, la ventaja competitiva no estará en quién adopta primero la tecnología, sino en quién logra hacerlo de forma segura, ética y sostenible.
Leer más
- Microsoft lanza Copilot Health, una IA que explica estudios clínicos y datos de salud
- X limita “Ask Grok”: las respuestas de la IA ahora solo están disponibles para usuarios Premium
- Meta podría recortar hasta el 20% de su plantilla para financiar su apuesta por la inteligencia artificial









