{"id":184159,"date":"2025-12-15T10:00:46","date_gmt":"2025-12-15T13:00:46","guid":{"rendered":"https:\/\/nuevoitsitio1.wpenginepowered.com\/ar\/sin-categoria\/gobernanza-de-datos-y-gobernanza-de-ia-por-que-no-son-lo-mismo-y-que-riesgos-enfrentan-hoy-las-empresas\/"},"modified":"2025-12-27T07:56:45","modified_gmt":"2025-12-27T10:56:45","slug":"gobernanza-de-datos-y-gobernanza-de-ia-por-que-no-son-lo-mismo-y-que-riesgos-enfrentan-hoy-las-empresas","status":"publish","type":"post","link":"https:\/\/www.itsitio.com\/ar\/inteligencia-artificial\/gobernanza-de-datos-y-gobernanza-de-ia-por-que-no-son-lo-mismo-y-que-riesgos-enfrentan-hoy-las-empresas\/","title":{"rendered":"Gobernanza de datos y gobernanza de IA: por qu\u00e9 no son lo mismo y qu\u00e9 riesgos enfrentan hoy las empresas"},"content":{"rendered":"<p><strong>Gobernanza de datos y gobernanza de IA<\/strong> son dos conceptos que suelen mencionarse como si fueran equivalentes, pero responden a problemas muy distintos. En un contexto donde el uso corporativo de IA crece de forma acelerada, entender esa diferencia pas\u00f3 a ser clave para <strong>evitar riesgos operativos, reputacionales y de negocio<\/strong>.<\/p>\n<p><iframe title=\"YouTube video player\" src=\"https:\/\/www.youtube.com\/embed\/dmP5VQ4izRs?si=CfAvlUcyXtn5Cjd8\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/p>\n<p>As\u00ed lo explica <strong>Nicol\u00e1s Pantuliano, Consult Partner &amp; CTO for <a href=\"https:\/\/www.kyndryl.com\/ar\/es\" target=\"_blank\" rel=\"noopener\">Kyndryl Argentina<\/a><\/strong>, quien advierte que el <strong>uso cotidiano de herramientas de IA por parte de los empleados est\u00e1 generando nuevos escenarios de riesgo que no siempre est\u00e1n bajo control<\/strong>.<\/p>\n<p><em>\u201cCuando una persona sube a ChatGPT un archivo confidencial de la empresa sin saberlo, est\u00e1 produciendo un riesgo. Ese riesgo lo mide una gobernanza de IA, y no tiene nada que ver con los datos propios de la compa\u00f1\u00eda\u201d<\/em>, se\u00f1ala.<\/p>\n<figure id=\"attachment_183813\" aria-describedby=\"caption-attachment-183813\" style=\"width: 1200px\" class=\"wp-caption alignnone\"><img fetchpriority=\"high\" decoding=\"async\" class=\"size-full wp-image-183813\" src=\"https:\/\/nuevoitsitio1.wpenginepowered.com\/ar\/wp-content\/uploads\/sites\/2\/2025\/12\/La-diferencia-entre-gobernar-datos-y-gobernar-inteligencia-artificial-se-vuelve-critica-a-medida-que-las-empresas-adoptan-nuevas-herramientas-digitales.webp\" alt=\"La diferencia entre gobernar datos y gobernar inteligencia artificial se vuelve cr\u00edtica a medida que las empresas adoptan nuevas herramientas digitales.\" width=\"1200\" height=\"653\" \/><figcaption id=\"caption-attachment-183813\" class=\"wp-caption-text\">La diferencia entre gobernar datos y gobernar inteligencia artificial se vuelve cr\u00edtica a medida que las empresas adoptan nuevas herramientas digitales.<\/figcaption><\/figure>\n<p>La diferencia es clave:<\/p>\n<h3><span style=\"color: #333399;\"><strong>Gobernanza de datos<\/strong><\/span><\/h3>\n<ul>\n<li>Se enfoca en la calidad, protecci\u00f3n y uso correcto de la informaci\u00f3n de la empresa.<\/li>\n<li>Define qui\u00e9n accede a los datos, c\u00f3mo se almacenan, c\u00f3mo se protegen y para qu\u00e9 pueden usarse.<\/li>\n<li>Apunta principalmente a cumplimiento, seguridad y consistencia de la informaci\u00f3n.<\/li>\n<\/ul>\n<h3><span style=\"color: #333399;\"><strong>Gobernanza de inteligencia artificial<\/strong><\/span><\/h3>\n<ul>\n<li>Se centra en c\u00f3mo se usan los sistemas inteligentes dentro de la organizaci\u00f3n.<\/li>\n<li>Eval\u00faa qu\u00e9 decisiones toma la IA, qu\u00e9 respuestas genera y c\u00f3mo interact\u00faa con personas y procesos.<\/li>\n<li>Analiza el impacto en el negocio, la reputaci\u00f3n y la marca, incluso cuando no hay fuga de datos.<\/li>\n<li>Incorpora riesgos \u00e9ticos, operativos y estrat\u00e9gicos, no solo t\u00e9cnicos.<\/li>\n<\/ul>\n<h2><span style=\"color: #333399;\">La gobernanza de IA no es un problema t\u00e9cnico<\/span><\/h2>\n<p>Uno de los errores m\u00e1s frecuentes, seg\u00fan Pantuliano, es <strong>abordar la inteligencia artificial solo desde el plano tecnol\u00f3gico<\/strong>. En la pr\u00e1ctica, el desaf\u00edo principal es organizacional: <em>\u201cTodas las semanas aparece una nueva herramienta de IA. Los empleados no son ajenos y las usan constantemente. Por eso necesitamos un paraguas de \u00e9tica y seguridad en el uso de la inteligencia artificial\u201d<\/em>, explica el ejecutivo.<\/p>\n<figure id=\"attachment_175263\" aria-describedby=\"caption-attachment-175263\" style=\"width: 1200px\" class=\"wp-caption alignnone\"><img decoding=\"async\" class=\"size-full wp-image-175263\" src=\"https:\/\/www.itsitio.com\/ar\/wp-content\/uploads\/sites\/4\/2024\/02\/chat-ia-abierto-computadora-portatil.webp\" alt=\"El uso espont\u00e1neo de herramientas como ChatGPT por parte de empleados genera riesgos que requieren pol\u00edticas claras y supervisi\u00f3n institucional.\" width=\"1200\" height=\"801\" srcset=\"https:\/\/www.itsitio.com\/ar\/wp-content\/uploads\/sites\/2\/2024\/02\/chat-ia-abierto-computadora-portatil.webp 1200w, https:\/\/www.itsitio.com\/ar\/wp-content\/uploads\/sites\/2\/2024\/02\/chat-ia-abierto-computadora-portatil-300x200.webp 300w, https:\/\/www.itsitio.com\/ar\/wp-content\/uploads\/sites\/2\/2024\/02\/chat-ia-abierto-computadora-portatil-1024x684.webp 1024w, https:\/\/www.itsitio.com\/ar\/wp-content\/uploads\/sites\/2\/2024\/02\/chat-ia-abierto-computadora-portatil-768x513.webp 768w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" \/><figcaption id=\"caption-attachment-175263\" class=\"wp-caption-text\">El uso espont\u00e1neo de herramientas como ChatGPT por parte de empleados genera riesgos que requieren pol\u00edticas claras y supervisi\u00f3n institucional.<\/figcaption><\/figure>\n<p>Ese paraguas no depende exclusivamente de qu\u00e9 plataforma se utilice, sino de <strong>pol\u00edticas claras<\/strong>, <strong>procesos definidos y responsabilidades asignadas<\/strong>. Incluso cuando se utilizan soluciones empresariales, el riesgo no desaparece por completo.<\/p>\n<p><em>\u201cEl empleado no tiene por qu\u00e9 saber qu\u00e9 se puede subir o no. Esa pol\u00edtica tiene que bajar desde la empresa. Tiene que <strong>existir un \u00e1rea de gobierno que marque los lineamientos<\/strong>\u201d<\/em>.<\/p>\n<p>Pantuliano aclara que muchas herramientas de IA, como <strong>ChatGPT<\/strong>, ya <strong>incluyen opciones para evitar que los datos se utilicen para entrenar modelos<\/strong>. El problema surge cuando esas <strong>decisiones quedan libradas al criterio individual, sin un marco institucional<\/strong>.<\/p>\n<h2><span style=\"color: #333399;\">Seguridad, reputaci\u00f3n y marca: los riesgos invisibles<\/span><\/h2>\n<p>Contratar <strong>versiones empresariales<\/strong> de soluciones de IA <strong>mejora la protecci\u00f3n de los datos<\/strong> y permite una <strong>mayor separaci\u00f3n entre informaci\u00f3n corporativa y modelos p\u00fablicos<\/strong>. <em>\u201cEn un servicio enterprise los datos quedan dentro de tu entorno. Al terminar el contrato, esos <strong>datos se destruyen y no alimentan otros modelos<\/strong>\u201d<\/em>.<\/p>\n<p>Sin embargo, Pantuliano advierte que el riesgo no siempre es de seguridad. En muchos casos, el <strong>impacto m\u00e1s grave es reputacional<\/strong>. <em>\u201cTenemos casos en los que un chatbot corporativo termina diciendo que el competidor tiene una oferta mejor. No es un problema de seguridad, es un problema de marca\u201d<\/em>, explica.<\/p>\n<p>En esos escenarios, el sistema <strong>no accede a informaci\u00f3n interna de terceros<\/strong>, sino que utiliza datos p\u00fablicos disponibles en internet. Aun as\u00ed, el <strong>da\u00f1o para la empresa puede ser significativo si no existen l\u00edmites claros sobre qu\u00e9 puede responder la IA<\/strong>.<\/p>\n<figure id=\"attachment_183815\" aria-describedby=\"caption-attachment-183815\" style=\"width: 1200px\" class=\"wp-caption alignnone\"><img decoding=\"async\" class=\"size-full wp-image-183815\" src=\"https:\/\/nuevoitsitio1.wpenginepowered.com\/ar\/wp-content\/uploads\/sites\/2\/2025\/12\/Las-empresas-necesitan-normas-especificas-para-definir-que-informacion-puede-compartirse-con-sistemas-de-inteligencia-artificial.webp\" alt=\"Las empresas necesitan normas espec\u00edficas para definir qu\u00e9 informaci\u00f3n puede compartirse con sistemas de inteligencia artificial.\" width=\"1200\" height=\"654\" \/><figcaption id=\"caption-attachment-183815\" class=\"wp-caption-text\">La expansi\u00f3n de la inteligencia artificial general plantea nuevos desaf\u00edos \u00e9ticos y regulatorios para las organizaciones.<\/figcaption><\/figure>\n<h2><span style=\"color: #333399;\">Por qu\u00e9 la mayor\u00eda de los proyectos de IA fracasan<\/span><\/h2>\n<p>Esta falta de estructura ayuda a explicar un dato llamativo que surge del <strong>Kyndryl Readiness Report<\/strong>, un estudio global basado en m\u00e1s de 1.000 encuestas a l\u00edderes tecnol\u00f3gicos. <em>\u201cSolo el <strong>14% de los proyectos de IA fueron considerados exitosos<\/strong>\u201d<\/em>, afirma Pantuliano.<\/p>\n<p>Al analizar esos casos, aparece un patr\u00f3n claro: las iniciativas que funcionaron no solo <strong>invirtieron en tecnolog\u00eda<\/strong>, sino que <strong>construyeron sistemas de gesti\u00f3n, pusieron a las personas en el centro y definieron reglas de uso realistas<\/strong>.<\/p>\n<p><em>\u201cMuchas empresas optan por prohibir la IA, y para m\u00ed es un error tremendo. La IA no tiene que vetarse, tiene que democratizarse\u201d<\/em>, sostiene Pantuliano.<\/p>\n<p>El motivo es simple: <strong>bloquear una herramienta no evita su uso<\/strong>. La aparici\u00f3n constante de nuevas plataformas vuelve <strong>impracticable cualquier intento de control basado \u00fanicamente en restricciones t\u00e9cnicas<\/strong>.<\/p>\n<figure id=\"attachment_183510\" aria-describedby=\"caption-attachment-183510\" style=\"width: 1200px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-183510 size-full\" src=\"https:\/\/nuevoitsitio1.wpenginepowered.com\/ar\/wp-content\/uploads\/sites\/2\/2025\/11\/Zarate-incorpora-a-ZARA-como-la-primera-funcionaria-municipal-de-inteligencia-artificial-del-pais-1.webp\" alt=\"Gobernanza de IA. Los errores de un chatbot corporativo pueden afectar la reputaci\u00f3n de una marca incluso sin que exista una fuga de datos.\" width=\"1200\" height=\"582\" \/><figcaption id=\"caption-attachment-183510\" class=\"wp-caption-text\">Los errores de un chatbot corporativo pueden afectar la reputaci\u00f3n de una marca incluso sin que exista una fuga de datos.<\/figcaption><\/figure>\n<h2><span style=\"color: #333399;\">Normas internacionales y el vac\u00edo regulatorio en Argentina<\/span><\/h2>\n<p>Para ordenar este escenario, Pantuliano destaca la importancia de <strong>apoyarse en est\u00e1ndares internacionales<\/strong>. As\u00ed como la seguridad de la informaci\u00f3n se rige por la <strong>ISO 27001<\/strong>, hoy existe una norma espec\u00edfica para inteligencia artificial: <strong>ISO 42001<\/strong>. <em>\u201cEs un est\u00e1ndar mundial que define c\u00f3mo crear un management system de IA, alineado al negocio, seguro y responsable\u201d<\/em>, explica.<\/p>\n<p>Aunque no es obligatoria, el CTO de Kyndryl anticipa que <strong>su adopci\u00f3n crecer\u00e1 con el tiempo<\/strong>, como ocurri\u00f3 con otras certificaciones.<\/p>\n<p>A esto se suma el marco de gesti\u00f3n de riesgos del <strong>NIST de Estados Unidos<\/strong>, que complementa la ISO al ayudar a <strong>identificar, evaluar y mitigar amenazas asociadas a soluciones de IA<\/strong>.<\/p>\n<p>En Argentina, el panorama es m\u00e1s complejo. <em>\u201cNo tenemos algo parecido al NIST ni una regulaci\u00f3n espec\u00edfica para el management system de IA. Hay iniciativas aisladas, pero nada integral\u201d<\/em>.<\/p>\n<p>Frente a ese vac\u00edo, muchas empresas optan por <strong>alinearse a normas internacionales como referencia<\/strong>, aun sabiendo que no todo ser\u00e1 aplicable al contexto local.<\/p>\n<figure id=\"attachment_182419\" aria-describedby=\"caption-attachment-182419\" style=\"width: 1200px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-182419\" src=\"https:\/\/www.itsitio.com\/ar\/wp-content\/uploads\/sites\/4\/2025\/09\/Los-agentes-de-inteligencia-artificial-estan-dejando-de-ser-un-concepto-futurista-para-convertirse-en-herramientas-concretas-dentro-de-las-empresas.webp\" alt=\"Los comit\u00e9s de IA integran \u00e1reas de tecnolog\u00eda, legales, RR.HH. y negocio para evaluar riesgos y definir responsabilidades.\" width=\"1200\" height=\"720\" \/><figcaption id=\"caption-attachment-182419\" class=\"wp-caption-text\">Los comit\u00e9s de IA integran \u00e1reas de tecnolog\u00eda, legales, RR.HH. y negocio para evaluar riesgos y definir responsabilidades.<\/figcaption><\/figure>\n<h2><span style=\"color: #333399;\">Comit\u00e9s de IA y responsabilidad compartida<\/span><\/h2>\n<p>Un sistema de gobernanza de IA efectivo no se limita al \u00e1rea de sistemas. Involucra a toda la organizaci\u00f3n. <em>\u201cEn un comit\u00e9 de IA ten\u00e9s gente de <strong>IT, legales, recursos humanos y negocio<\/strong>. Todos eval\u00faan el riesgo de una soluci\u00f3n\u201d<\/em>.<\/p>\n<p>En ese espacio se analizan no solo <strong>aspectos t\u00e9cnicos<\/strong>, sino tambi\u00e9n <strong>costos, impacto legal, viabilidad financiera y consecuencias reputacionales<\/strong>. El objetivo final es <strong>ordenar la toma de decisiones y asignar responsabilidades<\/strong>.<\/p>\n<p><em>\u201cLa misi\u00f3n principal del management system es <strong>evaluar el riesgo<\/strong>. Despu\u00e9s aparecen los efectos colaterales, pero sin ese orden, la IA se vuelve inmanejable\u201d<\/em>.<\/p>\n<figure id=\"attachment_183351\" aria-describedby=\"caption-attachment-183351\" style=\"width: 1200px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-183351\" src=\"https:\/\/nuevoitsitio1.wpenginepowered.com\/ar\/wp-content\/uploads\/sites\/2\/2025\/11\/Otero-anticipa-un-futuro-donde-las-inteligencias-artificiales-negocien-entre-si-redefiniendo-las-relaciones-comerciales-y-la-dinamica-del-B2B-1.webp\" alt=\"La naturalidad de los sistemas conversacionales puede generar confusi\u00f3n si no se informa al usuario que interact\u00faa con una IA.\" width=\"1200\" height=\"720\" \/><figcaption id=\"caption-attachment-183351\" class=\"wp-caption-text\">La naturalidad de los sistemas conversacionales puede generar confusi\u00f3n si no se informa al usuario que interact\u00faa con una IA.<\/figcaption><\/figure>\n<h2><span style=\"color: #333399;\">Un futuro cada vez m\u00e1s humano (y m\u00e1s regulado)<\/span><\/h2>\n<p>De cara a lo que viene, Pantuliano se muestra optimista. La pr\u00f3xima gran tendencia es la <strong>inteligencia artificial general<\/strong>, aunque reconoce que su forma final todav\u00eda es incierta. <em>\u201cNo s\u00e9 c\u00f3mo va a ser, pero no me preocupa. Me encanta. <strong>No hay que tenerle miedo<\/strong>\u201d<\/em>.<\/p>\n<p>S\u00ed considera indispensable acompa\u00f1ar ese avance con <strong>regulaci\u00f3n seria<\/strong>, como ya ocurre en <strong>Europa con el AI Act<\/strong>, que obliga, entre otras cosas, a informar al usuario cuando interact\u00faa con un sistema de IA.<\/p>\n<p>Para ilustrarlo, comparte un caso real: <em>\u201cEn un testing interno, una persona interactu\u00f3 con un chatbot sin saber que era una IA. La experiencia fue tan natural que pidi\u00f3 volver a hablar con ella\u201d<\/em>.<\/p>\n<p>La conclusi\u00f3n es clara: la <strong>inteligencia artificial ya es parte del d\u00eda a d\u00eda empresarial<\/strong>. La diferencia entre <strong>riesgo y oportunidad est\u00e1 en c\u00f3mo se la gobierna<\/strong>.<\/p>\n<h3><span style=\"color: #333399;\">Leer m\u00e1s<\/span><\/h3>\n<ul>\n<li><strong><a href=\"https:\/\/www.itsitio.com\/ar\/inteligencia-artificial\/arcor-a-traves-de-tokin-fortalece-el-crecimiento-y-la-digitalizacion-en-kioscos-almacenes-y-autoservicios-de-todo-el-pais\/\">Arcor, a trav\u00e9s de TOKIN, fortalece el crecimiento y la digitalizaci\u00f3n en kioscos, almacenes y autoservicios de todo el pa\u00eds<\/a><\/strong><\/li>\n<li><strong><a href=\"https:\/\/www.itsitio.com\/ar\/inteligencia-artificial\/programa-de-formacion-aprender-a-aprender-con-ia-realizado-por-epidata-logra-10-000-inscriptos-y-mas-de-2-500-alumnos\/\">Programa de formaci\u00f3n \u201cAprender a Aprender con IA\u201d realizado por Epidata logra 10.000 inscriptos y m\u00e1s de 2.500 alumnos<\/a><\/strong><\/li>\n<li><strong><a href=\"https:\/\/www.itsitio.com\/ar\/inteligencia-artificial\/como-avanza-la-adopcion-de-pcs-con-inteligencia-artificial-intel-revelo-su-informe-global-y-anticipo-panther-lake\/\">C\u00f3mo avanza la adopci\u00f3n de PCs con inteligencia artificial: Intel revel\u00f3 su informe global y anticip\u00f3 Panther Lake<\/a><\/strong><\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Gobernanza de datos y gobernanza de IA son dos conceptos que suelen mencionarse como si fueran equivalentes, pero responden a problemas muy distintos. En un contexto donde el uso corporativo de IA crece de forma acelerada, entender esa diferencia pas&oacute; a ser clave para evitar riesgos operativos, reputacionales y de negocio. As&iacute; lo explica Nicol&aacute;s Pantuliano, Consult Partner &amp; CTO for Kyndryl Argentina, quien advierte que el uso cotidiano de herramientas de IA por parte de los empleados est&aacute; generando nuevos escenarios de riesgo que no siempre est&aacute;n bajo control. &ldquo;Cuando una persona sube a ChatGPT un archivo confidencial de la empresa sin saberlo, est&aacute; produciendo un riesgo. Ese riesgo lo mide una gobernanza de IA, y no tiene nada que ver con los datos propios de la compa&ntilde;&iacute;a&rdquo;, se&ntilde;ala. La diferencia es clave: Gobernanza de datos Se enfoca en la calidad, protecci&oacute;n y uso correcto de la informaci&oacute;n de la empresa. Define qui&eacute;n accede a los datos, c&oacute;mo se almacenan, c&oacute;mo se protegen y para qu&eacute; pueden usarse. Apunta principalmente a cumplimiento, seguridad y consistencia de la informaci&oacute;n. Gobernanza de inteligencia artificial Se centra en c&oacute;mo se usan los sistemas inteligentes dentro de la organizaci&oacute;n. Eval&uacute;a qu&eacute; decisiones toma la IA, qu&eacute; respuestas genera y c&oacute;mo interact&uacute;a con personas y procesos. Analiza el impacto en el negocio, la reputaci&oacute;n y la marca, incluso cuando no hay fuga de datos. Incorpora riesgos &eacute;ticos, operativos y estrat&eacute;gicos, no solo t&eacute;cnicos. La gobernanza de IA no es un problema t&eacute;cnico Uno de los errores m&aacute;s frecuentes, seg&uacute;n Pantuliano, es abordar la inteligencia artificial solo desde el plano tecnol&oacute;gico. En la pr&aacute;ctica, el desaf&iacute;o principal es organizacional: &ldquo;Todas las semanas aparece una nueva herramienta de IA. Los empleados no son ajenos y las usan constantemente. Por eso necesitamos un paraguas de &eacute;tica y seguridad en el uso de la inteligencia artificial&rdquo;, explica el ejecutivo. Ese paraguas no depende exclusivamente de qu&eacute; plataforma se utilice, sino de pol&iacute;ticas claras, procesos definidos y responsabilidades asignadas. Incluso cuando se utilizan soluciones empresariales, el riesgo no desaparece por completo. &ldquo;El empleado no tiene por qu&eacute; saber qu&eacute; se puede subir o no. Esa pol&iacute;tica tiene que bajar desde la empresa. Tiene que existir un &aacute;rea de gobierno que marque los lineamientos&rdquo;. Pantuliano aclara que muchas herramientas de IA, como ChatGPT, ya incluyen opciones para evitar que los datos se utilicen para entrenar modelos. El problema surge cuando esas decisiones quedan libradas al criterio individual, sin un marco institucional. Seguridad, reputaci&oacute;n y marca: los riesgos invisibles Contratar versiones empresariales de soluciones de IA mejora la protecci&oacute;n de los datos y permite una mayor separaci&oacute;n entre informaci&oacute;n corporativa y modelos p&uacute;blicos. &ldquo;En un servicio enterprise los datos quedan dentro de tu entorno. Al terminar el contrato, esos datos se destruyen y no alimentan otros modelos&rdquo;. Sin embargo, Pantuliano advierte que el riesgo no siempre es de seguridad. En muchos casos, el impacto m&aacute;s grave es reputacional. &ldquo;Tenemos casos en los que un chatbot corporativo termina diciendo que el competidor tiene una oferta mejor. No es un problema de seguridad, es un problema de marca&rdquo;, explica. En esos escenarios, el sistema no accede a informaci&oacute;n interna de terceros, sino que utiliza datos p&uacute;blicos disponibles en internet. Aun as&iacute;, el da&ntilde;o para la empresa puede ser significativo si no existen l&iacute;mites claros sobre qu&eacute; puede responder la IA. Por qu&eacute; la mayor&iacute;a de los proyectos de IA fracasan Esta falta de estructura ayuda a explicar un dato llamativo que surge del Kyndryl Readiness Report, un estudio global basado en m&aacute;s de 1.000 encuestas a l&iacute;deres tecnol&oacute;gicos. &ldquo;Solo el 14% de los proyectos de IA fueron considerados exitosos&rdquo;, afirma Pantuliano. Al analizar esos casos, aparece un patr&oacute;n claro: las iniciativas que funcionaron no solo invirtieron en tecnolog&iacute;a, sino que construyeron sistemas de gesti&oacute;n, pusieron a las personas en el centro y definieron reglas de uso realistas. &ldquo;Muchas empresas optan por prohibir la IA, y para m&iacute; es un error tremendo. La IA no tiene que vetarse, tiene que democratizarse&rdquo;, sostiene Pantuliano. El motivo es simple: bloquear una herramienta no evita su uso. La aparici&oacute;n constante de nuevas plataformas vuelve impracticable cualquier intento de control basado &uacute;nicamente en restricciones t&eacute;cnicas. Normas internacionales y el vac&iacute;o regulatorio en Argentina Para ordenar este escenario, Pantuliano destaca la importancia de apoyarse en est&aacute;ndares internacionales. As&iacute; como la seguridad de la informaci&oacute;n se rige por la ISO 27001, hoy existe una norma espec&iacute;fica para inteligencia artificial: ISO 42001. &ldquo;Es un est&aacute;ndar mundial que define c&oacute;mo crear un management system de IA, alineado al negocio, seguro y responsable&rdquo;, explica. Aunque no es obligatoria, el CTO de Kyndryl anticipa que su adopci&oacute;n crecer&aacute; con el tiempo, como ocurri&oacute; con otras certificaciones. A esto se suma el marco de gesti&oacute;n de riesgos del NIST de Estados Unidos, que complementa la ISO al ayudar a identificar, evaluar y mitigar amenazas asociadas a soluciones de IA. En Argentina, el panorama es m&aacute;s complejo. &ldquo;No tenemos algo parecido al NIST ni una regulaci&oacute;n espec&iacute;fica para el management system de IA. Hay iniciativas aisladas, pero nada integral&rdquo;. Frente a ese vac&iacute;o, muchas empresas optan por alinearse a normas internacionales como referencia, aun sabiendo que no todo ser&aacute; aplicable al contexto local. Comit&eacute;s de IA y responsabilidad compartida Un sistema de gobernanza de IA efectivo no se limita al &aacute;rea de sistemas. Involucra a toda la organizaci&oacute;n. &ldquo;En un comit&eacute; de IA ten&eacute;s gente de IT, legales, recursos humanos y negocio. Todos eval&uacute;an el riesgo de una soluci&oacute;n&rdquo;. En ese espacio se analizan no solo aspectos t&eacute;cnicos, sino tambi&eacute;n costos, impacto legal, viabilidad financiera y consecuencias reputacionales. El objetivo final es ordenar la toma de decisiones y asignar responsabilidades. &ldquo;La misi&oacute;n principal del management system es evaluar el riesgo. Despu&eacute;s aparecen los efectos colaterales, pero sin ese orden, la IA se vuelve inmanejable&rdquo;. Un futuro cada vez m&aacute;s humano (y m&aacute;s regulado) De cara a lo que viene, Pantuliano se muestra optimista. La pr&oacute;xima gran tendencia es la inteligencia artificial general, aunque reconoce que<\/p>\n","protected":false},"author":226,"featured_media":183931,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[65],"tags":[772,580],"class_list":["post-184159","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","tag-future-talks","tag-kyndryl"],"_links":{"self":[{"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/posts\/184159","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/users\/226"}],"replies":[{"embeddable":true,"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/comments?post=184159"}],"version-history":[{"count":0,"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/posts\/184159\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/media\/183931"}],"wp:attachment":[{"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/media?parent=184159"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/categories?post=184159"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.itsitio.com\/ar\/wp-json\/wp\/v2\/tags?post=184159"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}