Para mejorar la IA debemos ayudarla con sus alucinaciones
El sector financiero se pregunta cómo solucionar uno de los problemas más comunes en los algoritmos generativos que asisten a sus usuarios en el día a día.
Por Pablo Velan, CTO y socio de N5.
Los modelos de inteligencia artificial generativa cometen un error que para el común de las personas puede pasar totalmente desapercibido, y para el que los expertos tenemos un nombre: cuando la herramienta ofrece respuestas erróneas, imprecisas o incluso completamente inventadas, decimos que tuvo un alucinación.
La raíz de este malestar se debe a que los algoritmos son entrenados con grandes (muy grandes) volúmenes de información, y de allí aprenden patrones y asociaciones con esa información que puede aun ser insuficiente, obsoleta o inconsistente, y dado que no tienen “comprensión”, realmente no saben lo que están diciendo.
Ante preguntas ambiguas o sin contexto suficiente, la capacidad de interpolación y extrapolación de la AI para responder entra en juego, y hará generalizaciones o suposiciones incorrectas. Esto puede no ser una preocupación para quienes usan las herramientas como mera diversión. Sin embargo, puede generar grandes problemas para las empresas, donde las decisiones precisas son cruciales.
Solo para citar un ejemplo concreto (y que usamos cuando hablamos del tema con colegas) imaginemos que queremos averiguar cuál es la sucursal de nuestro banco más cercana. Nos ponemos en contacto con la IA de la entidad, le preguntamos y la respuesta que arroja es algo así: “Pablo, las sucursales bancarias más cercanas a vos son X, H y Z”, pero en vez de enumerar las de tu banco, enlista las de la competencia. Esta escena, que puede parecer fantasía es un hecho real, un análisis de la startup Vectara informa que la tasa de alucinación de los Chatbots oscila de un 3% hasta un 27%.
Seguramente a esta altura se preguntarán si existe una “cura” o un tratamiento para prevenir este mal que afecta a las inteligencias artificiales y la respuesta rotunda es sí, si existe. Uno de ellos (y quizás el más importante) es no conectar los modelos a Internet y entrenarlos dentro de fuentes de información cerradas, alimentándolos solo con datos del banco o fintech en cuestión.
¿Es posible un producto a gran escala sin alucinaciones?
La IA Generativa llegó para quedarse en la vida diaria de las personas y las compañías, tanto que en el mundo fintech ya fue valorada en 1,12 billones de dólares en 2023: además, el rápido crecimiento de sus tasas sugiere que llegará a los 4,37 billones de dólares para 2027, según un reporte de Market.us. Este es el motivo por lo que el sector financiero se plantea cómo se puede sortear las alucinaciones de la IA en los productos.
Desde el equipo que lidero nos gusta hablar a través de la experiencia y eso fue lo que hicimos cuando nos comprometimos a crear la primera generación de IAs exclusivas para el sector financiero. Esta aventura nos alentó a buscar qué otra forma existía para evitar las alucinaciones en su mayoría.
Así fue como iteramos varias veces hasta que determinamos un modelo distribuido el cual trabaja con múltiples IA en conjunto. Nos apoyamos en un proceso de retroalimentación validando input, procesamiento y output de cada consulta de los usuarios, y así llegamos al objetivo que nuestra herramienta respondiera con información precisa, propia, totalmente aislada de información de terceros con una tasa de éxito muy elevada.
La IA ya se presenta como una solución que conlleva un cambio de paradigma en nuestras vidas, pero como toda tecnología tiene sus limitaciones y deberá seguir evolucionando para superar sus barreras e imperfecciones. Afortunadamente, los expertos tecnológicos estamos atentos y listos para dar respuesta a cualquier obstáculo que aparezca en el camino.