Columna de Opinion

La regulación de la IA en la UE: ¿cómo impacta en Argentina y en el mundo?

La UE propone una ley pionera para regular el uso de la IA y sus implicaciones éticas, sociales y legales. Diego Genise explica qué objetivos y desafíos plantea esta normativa.

La Unión Europea (UE) marcó un hito al convertirse en la primera en abordar la regulación de la inteligencia artificial con una ley que se centra en mitigar los riesgos asociados con su uso. Esta legislación pionera busca regular la IA en función del riesgo que pueda representar para las personas, abordando aspectos cruciales que van desde la prohibición de ciertos usos hasta la transparencia en la generación de contenido.

Uno de los aspectos más destacados de esta normativa es la prohibición del uso de la IA para la categorización biométrica basada en creencias políticas, religiosas, filosóficas, raza u orientación sexual. La UE también prohíbe la captación de datos faciales mediante vídeos obtenidos de fuentes diversas en internet. Estas medidas buscan salvaguardar la privacidad y prevenir la discriminación.

La transparencia en el uso de la IA es otro pilar fundamental de la legislación europea. Garantizar que las personas sean conscientes al momento de consumir contenido generado por IA, como notas de medios o información oficial, es esencial. Esto promueve una comprensión clara de la procedencia de la información y permite una toma de decisiones informada.

Hubo un consenso preliminar entre los Estados y el Parlamento Europeo, dando como resultado un documento definitivo que aún debe ser aprobado por ambas partes antes de que pueda aplicarse, probablemente hacia el final de 2026.

El marco regulatorio también aborda la cuestión de los derechos de autor en el entrenamiento de modelos de lenguaje, instando a que no se utilice contenido con derechos de autor. Esto busca equilibrar el avance tecnológico con la protección de la propiedad intelectual.

En cuanto a los posibles riesgos de la IA en términos de vulneración de derechos, la normativa europea reconoce la importancia de preservar los derechos existentes en cada país. Las IA podrían caer en actos de racismo directo o facilitarlos, lo que subraya la necesidad de regulaciones para minimizar cualquier posibilidad de comportamiento perjudicial.

La discusión no solo se centra en la autonomía de la IA, sino también en cómo las personas utilizan esta tecnología. La IA, siendo una herramienta poderosa con innumerables beneficios, debe ser controlada de cerca para evitar su uso indebido y garantizar el bienestar de las personas.

¿Podría aplicarse esta ley de la UE en Argentina y en el resto del mundo?

Aunque cada país puede desarrollar sus propias regulaciones, la normativa de la UE podría servir como un modelo a seguir. Las empresas, incluso sin leyes específicas, están adoptando principios de uso responsable de la IA, alineándose con los valores propuestos por la UE.

Si pensamos en la situación de Argentina es posible que el país tenga que desarrollar su propia ley, pero que la normativa de la UE sea vista como un excelente punto de partida.

En el caso de las empresas, aunque no hay otra ley en la región ni en el resto del mundo, existe un concepto que los grandes jugadores tecnológicos están aplicando y fomentando, que es el uso responsable de la IA. Esto hace referencia a un conjunto de normas y valores que deben cumplir las empresas al momento de utilizar o crear tecnología que involucren herramientas de inteligencia artificial.

Por Diego Genise, Solution Architect at Ingenia.

Autor

[mdx-adserve-bstreet region="MED"]

Publicaciones relacionadas

Botón volver arriba