Claramente estas tecnologías han tenido poco tiempo en el mundo, por lo que aún cuentan con muchos detalles que se deben pulir. Sin embargo, existen algunos puntos de estas que ya deberían haber comenzado a mejorar.

Un ejemplo claro de ello es la dificultad de algunos algoritmos de reconocimiento facial para reconocer a personas de etnias variadas. Casi siempre, estos programas son bastante eficientes en rostros caucásicos, pero no tanto cuando se trata de caras afroamericanas o asiáticas.

Es allí donde surge el problema pues, al parecer, este error no se trata de la excepción en cuanto a reconocimiento facial, sino de la regla. Ya que, ya son varios los algoritmos de este estilo que presentan las mismas deficiencias.

Muchos algoritmos, un mismo problema

Para poder tener pruebas más fehacientes de esto, Patrick Grother, Mei Ngan y Kayee Hanaoka del Instituto Nacional de Estándares y Tecnología (NIDT) se pusieron manos a la obra. Su estudio dio a conocer los problemas encontrados en más de 180 algoritmos diseñados por 99 desarrolladores diferentes.

A pesar de que en algunos casos el sesgo racial ha sido más notorio que en otros, aún ha quedado claro en todos ellos que el problema está presente. Ya que, el número de errores cometidos con otros asiáticos o afroamericanos fue preocupantemente mucho mayor que aquel que se presentaba en las caras caucásicas.

¿Cómo han notado el problema?

Con la finalidad de exponer esto en forma práctica, los investigadores tomaron dos puntos de partida para analizar las capacidades de sus algoritmos. Dichos puntos iniciales eran: los falsos positivos (identificar como una misma a dos personas diferentes) y los falsos negativos (no identificar como una misma, dos imágenes de una misma persona). Ambos casos se presentaron con más frecuencia en personas que no fueran caucásicas.

Los perjuicios de esta situación

Además de un claro perjuicio para el individuo, este tipo de problemas también pueden afectar al usuario del algoritmo de reconocimiento facial. Ya que, este sesgo de la tecnología puede llevar a falsos positivos que permitan el acceso a individuos no autorizados a equipos o instalaciones privadas.

Del mismo modo, el usuario inocente puede terminar identificado falsamente como un criminal o una persona buscada, todo por la falta de exactitud del algoritmo. Por otra parte, un falso negativo podría negarle el acceso a muchas cosas a una persona.

El carnaval de Brasil aplicará el reconocimiento facial como medida de seguridad

Ya que, no solo podría no volver a ser capaz de desbloquear su propio teléfono, sino que podría llegar al extremo de no poder ingresar a un país ya que la IA no reconoce su rostro y su pasaporte. En resumen, no atacar este problema puede llevar a situaciones muy desfavorables en el futuro.

El país de origen hace la diferencia

Otro detalle que descubrieron los investigadores durante el estudio es que el país de origen sí hace una diferencia en las capacidades del algoritmo. Aquellos de origen estadounidense se mostraron mucho más sesgados y presentaron más fallas con rostros afroamericanos y asiáticos.

Por otro lado, aquellos desarrollados en Japón funcionaban mejor tanto con rostros caucásicos como asiáticos, quedando fuera de nuevo las facciones afroamericanas. Acá, nuevamente se puede ver el sesgo de la cultura manifestado en la tecnología.

El secreto podría estar en la variedad

El motivo por el que un algoritmo puede estar más completo que el otro tiene que ver simplemente con la diversidad de los datos con los que ha sido entrenado. Un ejemplo perfecto de esto son las fallas constantes que los algoritmos presentaron al reconocer a mujeres de color.

Ello simplemente se ha dado por una falta de contenidos de entrenamiento con imágenes de mujeres afroamericanas. De haberlos, entonces el algoritmo los asimilaría y no tendría problemas a la hora de analizar sus rostros.

Como conclusión, se puede ver por qué se dice que el sesgo racial se encuentra presente en la tecnología de reconocimiento facial. Sin embargo, estos algoritmos aún no toman las decisiones por sí mismos sobre con qué datos o no pueden ser alimentados. Por lo que, al final de todo, la verdadera responsabilidad recae sobre los individuos detrás del desarrollo de cada uno de estos programas y sobre su disposición para generar un ambiente equitativo.

Referencia:

Face Recognition Vendor Test (FRVT)Part 3: Demographic Effects: https://doi.org/10.6028/NIST.IR.8280

Más en TekCrispy