Argentina y los desafíos regulatorios en materia de inteligencia artificial

Liliana Molina Soljan, abogada especializada en derecho digital y autora del libro "IA, desafíos éticos y jurídicos".
Liliana Molina Soljan, abogada especializada en derecho digital y autora del libro \"IA, desafíos éticos y jurídicos\".
Compartir nota:

En plena cuarta revolución industrial, donde la tecnología se integra de forma irreversible a la vida cotidiana, la inteligencia artificial (IA) plantea desafíos inéditos. En Argentina, el debate sobre su regulación aún está en pañales. “Estamos frente a un cambio de paradigma que el hombre jamás imaginó, y es un punto sin retorno. La relación entre el ser humano y la IA se vuelve cada vez más compleja”, afirma Liliana Molina Soljan, abogada especializada en derecho digital y autora del libro “IA, desafíos éticos y jurídicos”.

¿Regular o no regular?

El debate gira en torno a tres grandes posturas: quienes impulsan una regulación estricta (hard law o soft law), quienes sostienen que cualquier regulación frena la innovación y quienes proponen modelos intermedios como los sandbox regulatorios. “La ventaja de una ley es que otorga un marco jurídico y seguridad legal. Pero la IA avanza tan rápido que cualquier norma puede quedar obsoleta en poco tiempo”, advierte Molina Soljan.

La reciente legislación europea sirve de referencia. “Clasifica las inteligencias artificiales según su nivel de riesgo: prohibidas, de riesgo alto, medio o bajo. A mayor riesgo, más exigencias y sanciones. Es una norma respetuosa de los derechos humanos”, explica la especialista.

El panorama argentino

Hoy Argentina carece de una ley específica sobre IA. Sin embargo, existen más de 20 proyectos en debate en Diputados y al menos cinco en el Senado. “Algunos replican la legislación europea, otros son más livianos y hay propuestas que se enfocan en los sandbox regulatorios: espacios experimentales donde se testean tecnologías sin que rijan las obligaciones de una ley formal”, señala Molina Soljan.

Además, el país adhirió en 2023 a los principios éticos de la UNESCO, que promueven una IA transparente, trazable, equitativa e inclusiva. “También se conformó una mesa interministerial para abordar el tema, pero normativamente estamos en cero, remarca.

Miradas globales: ¿qué puede aprender Argentina?

Molina Soljan destaca distintos enfoques internacionales. En Asia, países como China, Japón o Corea adoptan medidas no vinculantes centradas en la protección de datos. En EE.UU., cada estado avanza por su cuenta. “Un caso interesante es el de Nueva York, donde se debate la Race Act, que regula las IA de frontera —aquellas en las que se han invertido más de 100 millones de dólares—. Exige auditorías anuales, protocolos de seguridad, reportes de incidentes en 72 horas y contempla sanciones”, señala.

En Argentina, el debate sobre la regulación de la inteligencia artificial incluye posturas que van desde la regulación estricta hasta modelos experimentales, como los sandbox regulatorios.
En Argentina, el debate sobre la regulación de la inteligencia artificial incluye posturas que van desde la regulación estricta hasta modelos experimentales, como los sandbox regulatorios.

“Argentina debe observar estos modelos y proyectar una estrategia nacional que contemple talento humano, apoyo a startups, energía escalable y un plan a corto, mediano y largo plazo. Y no podemos dejar todo en manos del sector privado. El Estado debe liderar, sostiene con énfasis.

Una estrategia basada en la quíntuple hélice

Molina Soljan insiste en que el país necesita mucho más que una ley: una estrategia. “Debemos convocar al Estado, al sector privado, a la academia, a las ONG y a la ciudadanía. Esa es la quíntuple hélice. Es la única forma de construir políticas tecnológicas respetuosas de los derechos humanos”.

Según la especialista, los sectores prioritarios deberían incluir el agro, la biotecnología, las energías inteligentes y la tecnología satelital. “Italia ya tiene su plan estratégico. Nosotros ni siquiera comenzamos a delinear uno”, lamenta.

Argentina aún no cuenta con una ley específica sobre IA, pero existen más de 20 proyectos en debate en el Congreso.
Argentina aún no cuenta con una ley específica sobre IA, pero existen más de 20 proyectos en debate en el Congreso.

Protección de datos: el gran pendiente

Argentina cuenta con una ley de datos personales desactualizada. “Hoy la legislación es insuficiente. Hace falta aceitar el sistema y modernizar las normas. Lo que tenemos no alcanza para enfrentar los nuevos desafíos que impone la IA”, advierte.

Como modelos a seguir, menciona el Reglamento Europeo de Protección de Datos Personales y la ley brasileña, que introduce la figura del DPO (Delegado de Protección de Datos). “Quien tiene los datos, tiene el poder. Y los datos personales son el petróleo del futuro”, afirma Molina Soljan.

Deepfakes y delitos digitales: las zonas grises del Código Penal

Uno de los aspectos más alarmantes es la ausencia de legislación específica frente a los deepfakes. “Tenemos muchísimos casos de adolescentes víctimas de montajes pornográficos con sus rostros. El daño es inmenso y hoy no hay una norma que tipifique eso como delito autónomo, explica.

La inteligencia artificial generativa, como ChatGPT, ofrece grandes beneficios, pero también plantea riesgos, como la creación de pruebas falsas.
La inteligencia artificial generativa, como ChatGPT, ofrece grandes beneficios, pero también plantea riesgos, como la creación de pruebas falsas.

Situaciones similares se dan con la difusión no consentida de material íntimo. “Hoy es una contravención en CABA, pero no un delito en el Código Penal. Lo mismo ocurre con otros delitos digitales que afectan a menores. Necesitamos actualizar el marco legal con urgencia”, enfatiza.

Falta de educación digital: una deuda cultural

Más allá del plano legal, Molina Soljan advierte sobre una carencia estructural: la falta de conciencia social. “No dimensionamos los riesgos del uso irresponsable de la tecnología. Necesitamos programas de educación digital desde edades tempranas”.

“Hoy un celular es el chupete digital. Los chicos están expuestos a peligros inimaginables. Entran en contacto con desconocidos, comparten información sensible y no miden las consecuencias. Todo eso debe trabajarse desde la escuela”, plantea.

Inteligencia artificial generativa: ¿herramienta o amenaza?

Si bien reconoce los beneficios de herramientas como ChatGPT, Molina Soljan es prudente. “Yo la uso para autoevaluarme, como consulta. Pero hay que tener cuidado con las alucinaciones. Ya hubo fallos judiciales en EE.UU. donde se condenó a abogados por presentar pruebas falsas generadas con IA”, alerta.

También menciona el caso de Chile, donde en Temuco se presentó por primera vez una prueba simulada en el metaverso para reconstruir un accidente. “Eso es un precedente importante, pero no siempre lo virtual representa la verdad. Hay que ser cuidadosos con la prueba digital”, aclara.

La ausencia de legislación específica para delitos digitales como los deepfakes y la difusión no consentida de material íntimo crea vacíos legales preocupantes.
La ausencia de legislación específica para delitos digitales como los deepfakes y la difusión no consentida de material íntimo crea vacíos legales preocupantes.

Una legislación centrada en la relación humano-máquina

Finalmente, Molina Soljan considera que la legislación debe avanzar sobre nuevas figuras jurídicas. “El Código Civil fue escrito por hombres para actos entre hombres. Hoy la relación del ser humano con la máquina necesita un marco específico. Por ejemplo, ¿quién responde si un auto autónomo atropella a alguien? ¿La empresa automotriz? ¿El sistema de IA?”, se pregunta.

“Tenemos que comenzar a legislar sobre estos escenarios. No podemos esperar a que la realidad nos atropelle. La IA ya está entre nosotros, y si no actuamos ahora, el costo será muy alto”, concluye.

Leer más

Compartir nota:

Publicaciones Relacionadas

Scroll to Top