Gobernanza de datos y gobernanza de IA: por qué no son lo mismo y qué riesgos enfrentan hoy las empresas

Nicolás Pantuliano, Consult Partner & CTO for Kyndryl Argentina
Nicolás Pantuliano, Consult Partner & CTO for Kyndryl Argentina.
Compartir nota:

Gobernanza de datos y gobernanza de IA son dos conceptos que suelen mencionarse como si fueran equivalentes, pero responden a problemas muy distintos. En un contexto donde el uso corporativo de IA crece de forma acelerada, entender esa diferencia pasó a ser clave para evitar riesgos operativos, reputacionales y de negocio.

Así lo explica Nicolás Pantuliano, Consult Partner & CTO for Kyndryl Argentina, quien advierte que el uso cotidiano de herramientas de IA por parte de los empleados está generando nuevos escenarios de riesgo que no siempre están bajo control.

“Cuando una persona sube a ChatGPT un archivo confidencial de la empresa sin saberlo, está produciendo un riesgo. Ese riesgo lo mide una gobernanza de IA, y no tiene nada que ver con los datos propios de la compañía”, señala.

La diferencia entre gobernar datos y gobernar inteligencia artificial se vuelve crítica a medida que las empresas adoptan nuevas herramientas digitales.
La diferencia entre gobernar datos y gobernar inteligencia artificial se vuelve crítica a medida que las empresas adoptan nuevas herramientas digitales.

La diferencia es clave:

Gobernanza de datos

  • Se enfoca en la calidad, protección y uso correcto de la información de la empresa.
  • Define quién accede a los datos, cómo se almacenan, cómo se protegen y para qué pueden usarse.
  • Apunta principalmente a cumplimiento, seguridad y consistencia de la información.

Gobernanza de inteligencia artificial

  • Se centra en cómo se usan los sistemas inteligentes dentro de la organización.
  • Evalúa qué decisiones toma la IA, qué respuestas genera y cómo interactúa con personas y procesos.
  • Analiza el impacto en el negocio, la reputación y la marca, incluso cuando no hay fuga de datos.
  • Incorpora riesgos éticos, operativos y estratégicos, no solo técnicos.

La gobernanza de IA no es un problema técnico

Uno de los errores más frecuentes, según Pantuliano, es abordar la inteligencia artificial solo desde el plano tecnológico. En la práctica, el desafío principal es organizacional: “Todas las semanas aparece una nueva herramienta de IA. Los empleados no son ajenos y las usan constantemente. Por eso necesitamos un paraguas de ética y seguridad en el uso de la inteligencia artificial”, explica el ejecutivo.

El uso espontáneo de herramientas como ChatGPT por parte de empleados genera riesgos que requieren políticas claras y supervisión institucional.
El uso espontáneo de herramientas como ChatGPT por parte de empleados genera riesgos que requieren políticas claras y supervisión institucional.

Ese paraguas no depende exclusivamente de qué plataforma se utilice, sino de políticas claras, procesos definidos y responsabilidades asignadas. Incluso cuando se utilizan soluciones empresariales, el riesgo no desaparece por completo.

“El empleado no tiene por qué saber qué se puede subir o no. Esa política tiene que bajar desde la empresa. Tiene que existir un área de gobierno que marque los lineamientos.

Pantuliano aclara que muchas herramientas de IA, como ChatGPT, ya incluyen opciones para evitar que los datos se utilicen para entrenar modelos. El problema surge cuando esas decisiones quedan libradas al criterio individual, sin un marco institucional.

Seguridad, reputación y marca: los riesgos invisibles

Contratar versiones empresariales de soluciones de IA mejora la protección de los datos y permite una mayor separación entre información corporativa y modelos públicos. “En un servicio enterprise los datos quedan dentro de tu entorno. Al terminar el contrato, esos datos se destruyen y no alimentan otros modelos.

Sin embargo, Pantuliano advierte que el riesgo no siempre es de seguridad. En muchos casos, el impacto más grave es reputacional. “Tenemos casos en los que un chatbot corporativo termina diciendo que el competidor tiene una oferta mejor. No es un problema de seguridad, es un problema de marca”, explica.

En esos escenarios, el sistema no accede a información interna de terceros, sino que utiliza datos públicos disponibles en internet. Aun así, el daño para la empresa puede ser significativo si no existen límites claros sobre qué puede responder la IA.

Las empresas necesitan normas específicas para definir qué información puede compartirse con sistemas de inteligencia artificial.
La expansión de la inteligencia artificial general plantea nuevos desafíos éticos y regulatorios para las organizaciones.

Por qué la mayoría de los proyectos de IA fracasan

Esta falta de estructura ayuda a explicar un dato llamativo que surge del Kyndryl Readiness Report, un estudio global basado en más de 1.000 encuestas a líderes tecnológicos. “Solo el 14% de los proyectos de IA fueron considerados exitosos, afirma Pantuliano.

Al analizar esos casos, aparece un patrón claro: las iniciativas que funcionaron no solo invirtieron en tecnología, sino que construyeron sistemas de gestión, pusieron a las personas en el centro y definieron reglas de uso realistas.

“Muchas empresas optan por prohibir la IA, y para mí es un error tremendo. La IA no tiene que vetarse, tiene que democratizarse”, sostiene Pantuliano.

El motivo es simple: bloquear una herramienta no evita su uso. La aparición constante de nuevas plataformas vuelve impracticable cualquier intento de control basado únicamente en restricciones técnicas.

Gobernanza de IA. Los errores de un chatbot corporativo pueden afectar la reputación de una marca incluso sin que exista una fuga de datos.
Los errores de un chatbot corporativo pueden afectar la reputación de una marca incluso sin que exista una fuga de datos.

Normas internacionales y el vacío regulatorio en Argentina

Para ordenar este escenario, Pantuliano destaca la importancia de apoyarse en estándares internacionales. Así como la seguridad de la información se rige por la ISO 27001, hoy existe una norma específica para inteligencia artificial: ISO 42001. “Es un estándar mundial que define cómo crear un management system de IA, alineado al negocio, seguro y responsable”, explica.

Aunque no es obligatoria, el CTO de Kyndryl anticipa que su adopción crecerá con el tiempo, como ocurrió con otras certificaciones.

A esto se suma el marco de gestión de riesgos del NIST de Estados Unidos, que complementa la ISO al ayudar a identificar, evaluar y mitigar amenazas asociadas a soluciones de IA.

En Argentina, el panorama es más complejo. “No tenemos algo parecido al NIST ni una regulación específica para el management system de IA. Hay iniciativas aisladas, pero nada integral”.

Frente a ese vacío, muchas empresas optan por alinearse a normas internacionales como referencia, aun sabiendo que no todo será aplicable al contexto local.

Los comités de IA integran áreas de tecnología, legales, RR.HH. y negocio para evaluar riesgos y definir responsabilidades.
Los comités de IA integran áreas de tecnología, legales, RR.HH. y negocio para evaluar riesgos y definir responsabilidades.

Comités de IA y responsabilidad compartida

Un sistema de gobernanza de IA efectivo no se limita al área de sistemas. Involucra a toda la organización. “En un comité de IA tenés gente de IT, legales, recursos humanos y negocio. Todos evalúan el riesgo de una solución”.

En ese espacio se analizan no solo aspectos técnicos, sino también costos, impacto legal, viabilidad financiera y consecuencias reputacionales. El objetivo final es ordenar la toma de decisiones y asignar responsabilidades.

“La misión principal del management system es evaluar el riesgo. Después aparecen los efectos colaterales, pero sin ese orden, la IA se vuelve inmanejable”.

La naturalidad de los sistemas conversacionales puede generar confusión si no se informa al usuario que interactúa con una IA.
La naturalidad de los sistemas conversacionales puede generar confusión si no se informa al usuario que interactúa con una IA.

Un futuro cada vez más humano (y más regulado)

De cara a lo que viene, Pantuliano se muestra optimista. La próxima gran tendencia es la inteligencia artificial general, aunque reconoce que su forma final todavía es incierta. “No sé cómo va a ser, pero no me preocupa. Me encanta. No hay que tenerle miedo.

Sí considera indispensable acompañar ese avance con regulación seria, como ya ocurre en Europa con el AI Act, que obliga, entre otras cosas, a informar al usuario cuando interactúa con un sistema de IA.

Para ilustrarlo, comparte un caso real: “En un testing interno, una persona interactuó con un chatbot sin saber que era una IA. La experiencia fue tan natural que pidió volver a hablar con ella”.

La conclusión es clara: la inteligencia artificial ya es parte del día a día empresarial. La diferencia entre riesgo y oportunidad está en cómo se la gobierna.

Leer más

Compartir nota:

Publicaciones Relacionadas

Scroll to Top