Un algoritmo desarrollado por un grupo de investigadores del Instituto de Tecnología Massachusetts (MIT) reduce a un 60% el sesgo racial y de género en los sistemas de reconocimiento facial de Inteligencia Artificial (IA).

Un margen de error que aumenta en personas de color

Estudios anteriores han demostrado que el margen de error en el reconocimiento facial de la IA varia dependiendo de la raza y el género de la persona, arrojando resultados más erróneos al evaluar rostros de mujeres que de hombres.

Un porcentaje que aumenta si además el sujeto en cuestión es de piel oscura, una diferencia que se debe a la base datos sobre los que la IA basa su aprendizaje.

Un nuevo sistema

En un esfuerzo por reducir la tasa de errores el Laboratorio de Inteligencia Artificial y Ciencia Informática (CSAIL) ha estado trabajando en un autoencoder variacional (VAE) llamado debiasing-VAE (o DB-VAE) que de manera automática “desvía” el material de entrenamiento implementado en la detección de caras.

Mejores resultados en la detección de rostros

Según menciona la fuente, este algoritmo puede escanear una serie de datos y comprender los sesgos del conjunto, luego mediante un proceso de remuestreo garantiza que estos resultados arrojen una mejor representación para las personas independientemente del color de su rostro.

Aunque esta tecnología no elimina todos los sesgos, si produce un cambio prominente. En las pruebas el algoritmo fue capaz no solo de reducir el “sesgo categórico” un 60 por ciento, sino que además permite ahorrar tiempo aún con grandes colecciones de datos.

La eliminación automática de sesgos como medida de prevención

Para nadie es un secreto el auge de la tecnología de reconocimiento facial en smartphones y en sistemas policiales es muy común hoy en día, sin embargo, en este último un error podría ser algo muy delicado por lo que este estudio aunque ofrece mejores resultados a nivel de detección.