
Inteligencia Artificial vs Inteligencia Artificial: ¿Qué riesgos existen?
Maltrato, discriminación, racismo, son algunos de los riesgos que corre una IA que no se haya decidido correctamente, ¿cuáles son los elementos que debo tomar en cuenta?
Inteligencia artificial, dos palabras que no pueden faltar en la implementaciones de nuevas soluciones: para ahorrar costos, para desarrollar nuevos beneficios, para hacer procesos eficientes, para generar mayor transparencia, y para muchas cosas más, pero ¿sabías que si no la implementas bien, puedes ponerla en tu contra?
La inteligencia artificial también puede jugar contra la inteligencia artificial, y muestras ya existen, como un caso publicado en la revista Science en 2019, que apuntaba que un algoritmo de predicción de atención médica pudiera tomar acciones racistas y destacara menos a los pacientes negros en Estados Unidos.
¿Por qué? No porque la IA fuera racista, pero sí porque las políticas y variables consideradas para esto de alguna manera lo eran, por ejemplo, los costos de atención médica, los ingresos y el número de asegurados.

¿Qué riesgos existen con el uso de IA?
El uso de la inteligencia artificial en México es una tendencia y lo será más en los próximos años. Actualmente ocupa el 5º lugar en los países que implementaron recientemente el uso de la IA en América Latina, según el estudio AI Adoption Index de IBM y Morning Consult.
Este reporte señala que el 40% de las empresas aumentaron el uso de IA, detrás de Colombia (50%), Perú (49%), y Argentina y Brasil (41%). Cabe señalar además que la mitad de las empresas en el mundo han utilizado de una u otra forma la IA y las proyecciones apuntan que los ingresos en implementaciones de inteligencia artificial superarán los 30,000 millones de dólares para 2025.
Con estos números es inevitable pensar en la necesidad en la implementación de la IA, pero también en los riesgos que trae.
En primer lugar, ¿no sé dónde corre la IA?, al final del camino son servidores, son algoritmos, pero no sabemos cuál fue su propósito y para qué fue diseñado. “Por ejemplo, Chat GPT es un tema de natural language processing (NLP), preguntas y te contesta y en teoría no emite opiniones, pero puedes crear un sesgo con ella”, dice Oscar Huitrón, Socio Fundador & CTO STYRK + Vinneren.
“Si utilizas una IA genérica y generalizada, como GPT y se lo das a tus programadores y por atrás le empiezas a hacer preguntas con prompts específicos está entrenando con cientos de millones de preguntas simultáneas, ¿y qué está haciendo?, no lo sé”.
Puedes tratar de entrenarlo, pero el algoritmo puede tener un sesgo de origen.

¿Una IA racista y que discrimina?
La respuesta es sí, y más fácil de lo que se podría imaginar. De hecho, una IA mal entrenada podría caer fácilmente en maltrato al cliente.
Por ejemplo, en el momento que estás entrando con un chatbot ya muy avanzado, hay chatbots que ya detectan algo que le llaman speech analytics, que sabe específicamente si la persona está enojada, si la persona está contenta o si la persona está hablando con sarcasmo.
“Si la IA no fue bien entrenada con las respuestas que un humano dio, inicialmente y tenías call center enojado, que siempre contestaba de malas cuando los retaban en alguna de las preguntas, el algoritmo comenzará a hacer lo mismo”, añade Oscar Huitrón.
Si la IA no fue analizada, de qué sentido y personalidad está dando al algoritmo, empezará a tener falsos positivos y puede tener sesgos de manera automática, como el caso que ilustra la revista Science.

¿Cómo elegir correctamente la IA que se implementará?
De acuerdo con el Socio Fundador & CTO STYRK + Vinneren, existen tres puntos esenciales en los que el contratante de IA debe fijarse para evitar caer en riesgos que pongan en peligro el propósito de la implementación.
1. Elige específicamente para que la quieres
Hay IAs especializadas y se puede contratar de acuerdo al propósito, es decir, si se necesita para engagement, traer una IA que solo aplique a temas de engagement y que sea autocontrolada por el propio negocio.
Si es en esquema de algoritmos de pago, solamente ahí, esquema de algoritmos para un tema de costumer experience, solamente ahí, de reabasto, solamente ahí.
2. Que garantice dónde están mis datos:
«Una reconemndación imrpotante es que el proveedor de servicios contratado para la IA garantice dónde están los datos, dónde se almacenan y qué uso le dará. Yo te invito a que busques en Chat GPT y no hay nada, no lo sabemos, pero están dentro de un algoritmo monstruoso”, dice.
“La principal ventaja que tienes con gigantes como Google es que ellos te garantizan que no tienen acceso a los datos, los datos son tuyos, el algoritmo es mío, pero el uso corre por tu cuenta y cómo lo entrenes corre por tu cuenta, pero lo que entregue, los datos son tuyos, no son de Google. Eso es lo que tenemos que fijarnos”.
3. Sin miedo al cambio de roles organizacionales:
Este apartado exige mejorar los perfiles ya existentes. La IA cambiará los roles de la gente de sistemas, pues ya no se tratará de un lenguaje, sino de flujos. El contratante de IA debe convertirse en un gran coach del algoritmo.
“Es un tema al que todo mundo le tiene miedo. Yo no creo que existan puestos que dejen de existir, pero ya no se tratará de algoritmos, sino traer expertos o volverme yo un experto en entrenamiento de algoritmos. En el análisis de la data, que sea de calidad”.






