Inteligencia Artificial

¿Es necesario regular las Inteligencias Artificiales?

IBM, Accenture, Microsoft, DHL y Zoho plantean su posición frente a un debate que resulta trascendente. No se trata de las visiones apocalípticas de la ciencia-ficción de los años 1980 o 1990, sino de una decisión trascendente, cuyo acierto se verá, probablemente, a lo largo de esta misma generación. Asociado a esto: ¿Qué rol le caben a los vendors y sus partners del canal?

Si algo dejó en claro la novela de Sam Altman —el CEO de OpenAI que en menos de una semana fue despedido y reincorporado— y algunos anuncios agoreros de varios líderes de la industria es que las potencialidades de la IA (sobre todo en su faz generativa) son tantas y tan masivas, que la regulación debería, al menos esta vez, estar por delante de los hechos. Claro, ésa es una campana: hay otras que suenan de manera dispar. ITSitio preguntó a vendors que proveen estas capacidades, consultores y clientes para abarcar las diferentes posturas.

Paula Horita
Paula Horita

Una de las primeras empresas en poner este tema a discusión, tal vez porque vienen trabajando en ello desde hace varias décadas, es IBM. Para Paula Horita, gerente de Software de IBM para la Argentina, Paraguay y Uruguay, la Inteligencia Artificial requiere de entrenamiento y se basa en grandes cantidades de información, por eso es fundamental que no haya sesgos, sino un manejo ético y transparente”.

Las gerente regional de Software explica que las herramientas capacitadas en datos a escala de Internet pueden contener sesgos humanos inherentes, “pero allí es donde entra la responsabilidad, tanto del proveedor de la tecnología, como de quien la usa -sea persona u organización- de asegurarse que haya unos principios básicos que den confianza en los resultados de la IA. Las empresas deben asegurarse de que existan medidas de protección adecuadas para proporcionar pruebas de que la IA en uso es transparente, y gobernada”.

Horita asegura que IBM está contribuyendo en tres sentidos. “Primero, nuestra IA watsonx está diseñada para mejorar y ampliar la capacidad y el potencial humano. Llevamos más de 70 años desarrollando está tecnología, lo hacemos bajo los principios de: explicabilidad, equidad, robustez, transparencia y privacidad. En segundo lugar, aclara, la compañía ha trabajado con organizaciones, gobiernos y líderes de opinión para promover un uso ético de la IA. “Por ejemplo, fuimos uno de los primeros en firmar el Llamado del Vaticano para la ética de la IA a principios de 2020, y fuimos una de las únicas empresas globales que desempeñó un papel en el Grupo de Expertos de Alto Nivel sobre IA de la UE, que desarrolló recomendaciones de políticas para guiar el avance ético y confiable de la inteligencia artificial”. Por último, aunque no es un tema menor, IBM está invirtiendo en iniciativas para ayudar a la fuerza laboral actual a obtener las habilidades necesarias para trabajar en asociación con estas tecnologías. “Hace poco nos trazamos una meta de ayudar a capacitar a dos millones de personas en IA, a nivel global, para 2026”.

—¿Qué rol cumplen los partners del canal a la hora de “transparentar” las IAs?
—Nuestros asociados de negocio son el brazo extendido de nuestros principios. Son clave, porque a través de ellos podemos llegar cada vez a más empresas e industrias implementando watsonx. De la mano con la capacitación de nuestro ecosistema de partners, IBM ha invertido mucho durante años en el desarrollo de la IA para que a través de nuestros asociados de negocio, la implementación de la tecnología sea escalable. Por ejemplo, nuestros modelos fundacionales están construidos a medida para los requisitos específicos de los casos de uso empresarial, que por definición están mucho más centrados que la IA de consumo y exigen los más altos niveles de precisión y exactitud.

En este marco, en noviembre la compañía anunció watsonx.governance: uno de los tres productos de software que hacen parte de la plataforma de datos e IA, IBM watsonx, junto con un conjunto de asistentes de IA diseñados para ayudar a las empresas a escalar y acelerar el impacto de la IA. La plataforma también incluye la solución empresarial de próxima generación watsonx.ai para creadores de IA y el datastore abierto, híbrido y gobernado watsonx.data. Además, la compañía anunció recientemente protecciones de la propiedad intelectual para los modelos de watsonx desarrollados por IBM.

watsonx.governance ayuda a: gestionar la IA para cumplir con las próximas regulaciones y políticas de seguridad y transparencia globales; detectar y mitigar proactivamente los riesgos, monitoreando la equidad, el sesgo, las desviaciones y las métricas de LLMs; y administrar, monitorear y gobernar modelos de IA de IBM, de comunidades de código abierto y otros proveedores de modelos.

Avance responsable de la IA

Ése es el compromiso de Microsoft, en palabras de Andrés Rengifo, director de Asuntos Legales y Externos en Microsoft Spanish South America-SSA. “Necesitamos leyes sólidas que regulen la IA, que protejan la privacidad de las personas y defiendan las libertades civiles, al tiempo que permiten que continúen los usos positivos de la tecnología. Nos comprometemos a compartir nuestros propios aprendizajes, innovaciones y mejores prácticas con los responsables de la toma de decisiones, investigadores, científicos de datos, desarrolladores y otros, y seguiremos participando en conversaciones sociales más amplias sobre cómo se debe utilizar la IA”.

Andrés Rengifo
Andrés Rengifo

“Creemos en la necesidad de regulación y supervisión para garantizar un uso ético de la IA. Hemos publicado un White paper sobre la gobernanza de la IA, ofreciendo un modelo para las leyes, políticas y regulaciones, así como las obligaciones de la industria, para avanzar en la IA de manera responsable”, dice Rengifo, y agrega: “La orden ejecutiva de la Casa Blanca es un paso fundamental en la gobernanza de la tecnología de IA. La orden se basa en los Compromisos Voluntarios de la Casa Blanca para una IA segura, protegida y confiable y complementa los esfuerzos internacionales a través del Proceso de Hiroshima del G7”.

—Hay un factor asociado a lo anterior, que es el de la trasparencia en la generación de esas IAs. ¿Cuál es la posición de Microsoft al respecto? ¿Es posible que la IA deje de ser una “caja negra”?
—Microsoft cree que cuando se crean tecnologías que pueden cambiar el mundo, también se debe garantizar que se usen de forma responsable. Estamos comprometidos con la creación de IA responsable desde su diseño. Nuestro trabajo se guía por un conjunto básico de principios: equidad, confiabilidad y seguridad, privacidad y seguridad, inclusión, transparencia y responsabilidad. Estamos poniendo en práctica esos principios en toda la empresa para desarrollar e implementar una IA que tenga un impacto positivo en la sociedad y estamos comprometidos con la creación de una IA responsable desde el diseño a través de nuestro estándar de IA responsable.

“Anunciamos el Frontier Model Safety Forum en julio de 2023, una iniciativa de la industria para garantizar el desarrollo seguro y responsable de modelos de IA de frontera, con la participación de Microsoft, Anthropic, Google y OpenAI”, recuerda el ejecutivo de Miceosoft. “Además respaldamos los compromisos voluntarios de la administración Biden-Harris para asegurar sistemas avanzados de IA, expandiendo nuestras prácticas seguras y responsables. Implementamos estos compromisos y otros propios, fortaleciendo el ecosistema y aplicando principios de seguridad, protección y confianza. Desde el apoyo a proyectos piloto hasta la defensa de un registro nacional de sistemas de IA de alto riesgo, creemos que estas medidas fomentarán la transparencia y la rendición de cuentas y sabemos que esto conducirá a sistemas de IA más confiables que beneficien no solo a nuestros clientes, sino a toda la sociedad”.

Al respaldar todos los compromisos voluntarios y comprometerse de forma independiente con varios otros que respaldan estos objetivos críticos, sostiene Rengifo, “Microsoft está expandiendo sus prácticas de IA seguras y responsables, trabajando junto con otros líderes de la industria”.

¿Cómo construir una IA en la que podamos confiar?

Por Juan Pablo Chemes, Director de Innovación de Accenture Argentina

La adopción y comprensión de la Inteligencia Artificial generativa (IA generativa) está avanzando a un ritmo impresionante. Ya no es solo un concepto técnico, sino que está permeando la vida diaria de las personas.

Juan Pablo Chemes
Juan Pablo Chemes

Herramientas como ChatGPT han logrado lo que muchos estudios y publicaciones académicas no han podido: que la comprensión de la IA sea accesible para el público general. Este desarrollo marca el crecimiento y la influencia de los modelos lingüísticos de gran envergadura en la sociedad.

Por ello, el interés de las empresas es notable. Cientos de estudios y análisis, sugieren que esta nueva generación de IA tiene el potencial de cambiar el panorama laboral y empresarial. Sin embargo, junto con este interés, hay preocupaciones válidas. La precisión, la privacidad de datos, seguridad y ética de estos modelos son temas que las organizaciones están considerando cuidadosamente.

La comprensión detallada de los modelos de IA es esencial. En etapas anteriores, la idea predominante era que: mientras más datos y ejemplos se utilizara para entrenar a los algoritmos, mejor. Sin embargo, con los desarrollos modernos, entrenados con vastas cantidades de información, la tendencia parece estar cambiando hacia la adaptabilidad y eficiencia bajo el mantra “menos es más”.

Para que las empresas puedan incorporar de manera efectiva la IA generativa en sus operaciones, es vital considerar cuatro componentes clave: datos, modelo, solicitud de información y aplicación. La interacción con estos elementos define cómo las compañías abordan cuestiones de confianza, y si optan por soluciones integrales que ofrecen simplicidad, pero sacrifican el control; modelos existentes que se pueden personalizar según las necesidades de cada organización; o desarrollar uno propio para tener control total.

Además, es crucial considerar las implicaciones éticas y de seguridad, asegurando la privacidad de los datos y estableciendo transparencia y responsabilidad en la toma de decisiones de la IA. Este análisis cuidadoso es esencial para garantizar que esta tecnología no solo mejore las operaciones, sino que también respete los valores y normativas de cada organización.

Por encima de todo, el factor confianza es central. Su construcción alrededor de la IA generativa determinará no solo una mayor adopción en el sector empresarial, sino también un impacto masivo en la sociedad en general. A medida que la IA continúa evolucionando y ganando relevancia, es esencial abordarla con un enfoque equilibrado y bien informado para aprovechar al máximo su potencial y garantizar los enormes beneficios que puede significar a la amplia gama de usuarios en todo el mundo.

Mitigar el riesgo…

Alejandro Palacios es CIO, SVP BPO and Customs of DHL Global Forwarding (Americas). Consultado por ITSitio, Palacios recordó que “en la actualidad, el tema de Inteligencia Artificial (IA) están en constante evolución y se ha convertido en una herramienta prometedora en varias áreas, desde la medicina hasta la industria, incluida la logística. Sin embargo, existen algunas preocupaciones acerca de su uso. Por ello, las empresas y entidades están considerando la necesidad de regular la generación y el uso de las IA”.

Alejandro Palacios
Alejandro Palacios

A finales de mayo de 2023, más de 350 científicos de IA y otras figuras notables firmaron esta declaración de una sola línea sobre el riesgo de IA publicada por la organización sin fines de lucro Center for AI. Seguridad: “Mitigar el riesgo de extinción debido a la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”. Esta regulación de la IA, detalla Palacios, “puede ser llevada a cabo a través de certificaciones, normas y leyes. Las certificaciones pueden ser emitidas por organizaciones especializadas que verifiquen que las IA cumplen con ciertos estándares en cuanto a su diseño, desarrollo y uso. Las normas, por otro lado, pueden ser establecidas por organismos gubernamentales para garantizar que las IA se desarrollen y utilicen de forma ética y responsable. Finalmente, las leyes pueden ser promulgadas para regular el uso de la IA en determinadas áreas, como la privacidad y la seguridad”.

En opinión de Palacios, la supervisión del cumplimiento de estas regulaciones puede ser llevada a cabo por diferentes actores. “Por ejemplo, los organismos gubernamentales pueden realizar evaluaciones y auditorías para verificar que la IA cumple con las normas y leyes establecidas. Las organizaciones especializadas en certificación también pueden ayudar a garantizar que la IA cumpla con los estándares requeridos. Además, los usuarios de las IA desempeñan un papel importante en la supervisión del cumplimiento de estas regulaciones, informando cualquier problema o violación que detecten”.

A esto añade que la regulación de la IA debería ser flexible y adaptarse a los cambios tecnológicos y sociales. “Por lo tanto, es necesario establecer un marco regulatorio que permita la innovación y el desarrollo de nuevas aplicaciones de las IA, al mismo tiempo que garantice su uso ético y responsable. Para esto promovemos modelos donde exista diálogo y colaboración entre sectores públicos y la empresa privada”.

¿Es posible que la IA deje de ser una “caja negra”?
—La inteligencia artificial (IA) ha avanzado de manera acelerada en los últimos años, convirtiéndose en una herramienta poderosa en diversos campos como la medicina, la ingeniería y la economía. Sin embargo, a medida que la IA se vuelve más sofisticada, también se vuelve más difícil de entender y de controlar. Esto ha llevado a que la IA sea percibida como una «caja negra», es decir, un sistema en el que no se puede comprender cómo toma sus decisiones. Incluso los expertos no entienden completamente lo que sucede bajo el capó de las herramientas avanzadas de inteligencia artificial. Un modelo de lenguaje de gran tamaño (LLM, por sus siglas in inglés) contiene un enorme conjunto de datos, pero ¿qué contiene exactamente? ¿Es toda la información precisa? ¿Es ético? Stretch, nuestro robot del almacén sólo moverá cajas, pero las herramientas de inteligencia artificial con dominio total del lenguaje, por ejemplo, son capaces de comportarse de manera impredecible, lo que puede tener consecuencias no deseadas. Navegar por estos riesgos crea una necesidad mucho mayor de políticas de orientación jurídicas, operativas e incluso éticas sólidas.

Palacios considera que esta falta de transparencia en las IAs plantea una serie de problemas éticos y legales. “Por un lado, si no podemos entender cómo funciona una IA, ¿cómo podemos confiar en sus decisiones? ¿Cómo podemos asegurarnos de que no está sesgada o de que no está tomando decisiones que podrían ser perjudiciales para las personas? Por otro lado, si una IA comete un error o causa daño, ¿cómo podemos responsabilizar a alguien por ello si no sabemos cómo funciona? Afortunadamente, hay esfuerzos en marcha para hacer que las IAs sean más transparentes. Uno de los enfoques es el desarrollo de algoritmos explicables, es decir, algoritmos que pueden explicar cómo llegan a sus conclusiones. Estos algoritmos utilizan técnicas como el aprendizaje interpretativo y el aprendizaje simbólico para generar explicaciones comprensibles para los humanos”.

Otro enfoque, agrega, es el desarrollo de herramientas de auditoría para las IAs. “Estas herramientas permiten rastrear y analizar el proceso de toma de decisiones de una IA, lo que ayuda a identificar posibles sesgos y errores. Además, estas herramientas también pueden ayudar a detectar posibles ataques o manipulaciones en las IAs”.

Hora de regular la IA

Hace algunas semanas, Carla García, Directora de Nuevos Negocios de Zoho, aseguraba en una nota de opinión: “Los gobiernos deben regular cuanto antes el uso de la Inteligencia Artificial (IA), como una forma de impulsar sus beneficios y de frenar los grandes riesgos que podría enfrentar su gente por su uso en actividades poco éticas. Cada vez más personas y empresas están expuestas a perder la privacidad de sus datos, recibir ataques de manipulación digital y reducir sus condiciones laborales, entre otros inconvenientes, por un uso incorrecto de la tecnología”.

Consultada por ITSitio, la ejecutiva amplió ese concepto. Es de suma importancia que cada gobierno en el mundo tenga un comité interno que pueda acordar qué está permitido o no con la Inteligencia Artificial. Los gobiernos deben vigilar que se respete la privacidad de los datos de sus ciudadanos y sus empresas, condenar los usos ilegales y crear las condiciones para promover su uso ético. Ante todo, los gobiernos deben buscar que la IA tenga unos usos responsables, al tiempo que garanticen la libertad de las organizaciones para innovar a partir de su utilización. Esta información debería ser transmitida a proveedores, universidades, y desarrolladores en este campo para asegurar que sea un terreno seguro para todos”.

Carla García
Carla García

García considera que los ciudadanos también tienen una gran responsabilidad, “no sólo al exigir que su información sea protegida por su gobierno local, sino que es nuestro deber informarnos y leer los detalles cuando decidimos utilizar Inteligencia Artificial. Mientras muchas de estas soluciones se están desarrollando, no deberíamos permitir que nuestra información sea utilizada como conejillo de indias”.

“Aunque los casos de uso de la Inteligencia Artificial aún se están desarrollando, deberíamos apuntar a tener una política transparente sobre los límites detrás de su parte generativa”, define la ejecutiva de Zoho. “Lamentablemente, siento que este es un tema que incluso los creadores más importantes de Inteligencia Artificial todavía están comprendiendo”. García explica que la IA fue creada para obtener respuestas rápidas y precisas sobre muchos temas, “y muchas organizaciones aún están entendiendo los métodos que la IA debería seguir para llegar a esas respuestas. En la actualidad, la IA está en un proceso de commoditización, donde las aplicaciones que no la aprovechen de alguna forma estarán condenadas a desaparecer. Estas tecnologías dejarán de ser una caja negra con el tiempo y en la medida en que comencemos a definir los procesos universales que deben seguir para alcanzar su razonamiento”.

Sobre el rol que deberían jugar vendors y sus partners del canal, opina que es necesario que, primero, estos identifiquen las razones o la estrategia del uso de la IA. Una vez que hayan identificado los beneficios, así como el valor que buscan proporcionar con Inteligencia Artificial, sería relevante comprender las políticas de uso, transparencia y privacidad al elegir un proveedor. Esta información también debería ser transmitida al cliente para que entienda qué está en juego al utilizarla. Los proveedores y canales siempre deberían tener el interés de sus clientes en mente”.

 

 

Autor

  • Alejandro Alonso

    Periodista de ciencia y tecnología, y escritor. Ha trabajado en medios como Insider, ComputerWorld, IT Resellers Magazine, Telecomunicaciones & Negocios y Prensa Económica, entre otros, a lo largo de más de 25 años de trayectoria.

[mdx-adserve-bstreet region="MED"]

Alejandro Alonso

Periodista de ciencia y tecnología, y escritor. Ha trabajado en medios como Insider, ComputerWorld, IT Resellers Magazine, Telecomunicaciones & Negocios y Prensa Económica, entre otros, a lo largo de más de 25 años de trayectoria.

Publicaciones relacionadas

Botón volver arriba