Reconocimiento facial: El problema del sesgo y las respuestas de los proveedores tecnológicos

Mientras que un nuevo estudio del MIT señala (por segunda vez) que el software de reconocimiento facial de Amazon comete más errores al identificar mujeres o personas de tez oscura, IBM decide curarse en salud ampliando su base de datos para diversificar el reconocimiento facial. Idas y vueltas en torno al sesgo en el reconocimiento facial.

A fines de enero se hicieron públicos los resultados de un nuevo estudio del Instituto Tecnológico de Massachussets – MIT, donde se investigó el sesgo que los distintos servicios de IA presentan a la hora de hacer reconocimiento facial. “Si definimos la brecha de error como la diferencia de error entre los subgrupos de peor y mejor desempeño para un producto API dado, IBM redujo la brecha de error de 34,4% a 16,71% de mayo de 2017 a agosto de 2018. En el mismo período, Microsoft cerró un 20,8 % de brecha de error a una diferencia de error de 1,52%, y Face ++ pasó de una brecha de error de 33,7% a una brecha de error de 3,6%”, dice el informe.

Paralelamente, Kairos y Amazon se comportan mejor en rostros masculinos que en rostros femeninos, con mejor desempeño en rostros más claros que en rostros oscuros. Kairos (22,5% de error) y Amazon (31,4% de error) tienen el peor desempeño actual para el subgrupo femenino de tez más oscura. También presentan el mejor desempeño actual para el subgrupo masculino de tez más clara. Kairos tiene una brecha de error del 22,5% entre los subgrupos intersectoriales de mayor y menor precisión, mientras que Amazon tiene una brecha de error del 31,37%.

Vale recordar que, en febrero del año pasado, la investigadora del MIT Media Lab y fundadora de la Liga de Justicia Algorítmica Joy Buolamwini realizó el mismo estudio, en el cual identificó sesgos raciales y de género similares en el software de reconocimiento facial creado por Microsoft, IBM y la firma china Megvii. Después de compartir sus hallazgos, Microsoft e IBM dijeron que mejorarían su software, lo cual ha sido comprobado en este último estudio. Ahora, IBM redobló la apuesta: hacia fines de enero anunció la ampliación de su base de datos con un set de datos de un millón de imágenes “anotadas” (con los metadatos relacionados a esas imágenes) que permitirán que las aptitudes de reconocimiento facial sean más diversas.

Concretamente, IBM publicó este 29 de enero una base de datos llamada “Diversity in Faces” (DiF, por sus siglas en inglés), cuyo objetivo es avanzar en el estudio de la imparcialidad en los sistemas de reconocimiento facial. La idea general es familiarizar a los sistemas, en buena medida basados en deep learning sobre bases de datos, con material que representen la diversidad de género y racial.

También a fines de enero, un equipo del MIT anunció un algoritmo que reduce en un 60% el sesgo racial y de género. Este algoritmo, de manera automática, compensa el sesgo que resulta de una muestra sesgada. El algoritmo puede aprender tanto una tarea específica como la detección de rostros, como la estructura subyacente de los datos de entrenamiento, lo que le permite identificar y minimizar cualquier sesgo oculto. En las pruebas, el algoritmo redujo el “sesgo categórico” en más del 60% en comparación con los modelos de detección facial más modernos, al tiempo que mantiene la precisión general de estos sistemas. El equipo evaluó el algoritmo en el mismo conjunto de datos de imágenes faciales que fue desarrollado el año pasado por investigadores del MIT Media Lab.

Etiquetas
Mostrar más
Alejandro Alonso

Alejandro Alonso

Periodista especializado en ciencia y tecnología. Trabajó en publicaciones como Banqueros & Empresarios, Telecomunicaciones & Negocios, Customer Service, Prensa Económica, Computerworld, e Insider, entre otras.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close