El racismo es un problema que no es ajeno para nadie, a lo largo de la historia y –lastimosamente–, aun en la actualidad, hemos sido capaces de presenciar muestras del mismo. Este tipo de discriminación ha sido ampliamente abordada como un problema que debe ser erradicado en todo el mundo.

Sin embargo, aún queda mucho camino por andar, y –a la luz de estos nuevos acontecimientos– tal vez falte incluso más del que en algún momento nos imaginamos. En pleno siglo XXI, los derechos humanos y civiles deberían estar ya garantizados a cada ciudadano en todas partes del mundo.

Tristemente, hasta la fecha ello no se ha logrado. A pesar de esto, se creería que los países y sus gobiernos estarían haciendo movimientos activos para erradicar este problema poco a poco. Ahora vemos que, por el contrario, en casos como el de Inglaterra, es posible que la rueda haya estado girando en la dirección contraria sin que nos diéramos cuenta.

Dicen que guerra avisada…

…no mata soldado. “¿Y si lo mata? Por descuidado”. Este refrán popular puede ejemplificar bastante bien la situación actual del programa de reconocimiento facial de Inglaterra diseñado para facilitar y sistematizar los procesos de asignación de pasaportes. Ahora, el que se trate de un descuido por negligencia o por desinterés, aún está por verse.

Con él, se esperaba que los ciudadanos disfrutaran de una experiencia mucho más cómoda a la hora de realizar estos trámites. No obstante, solo un sector de estos verdaderamente ha podido utilizar este sistema sin problemas.

En algunos casos, ello podría atribuírseles a los errores naturales de una plataforma. Sin embargo, en este caso, las diferencias son tan marcadas que es imposible ignorar la obvia discriminación que ocurre entre unos ciudadanos y otros.

¿La IA puede ser racista?

Al parecer sí. Y tiene sentido. Después de todo, la inteligencia artificial puede aprender sobre cualquier tópico y adoptar los patrones que le impongas. Por ello, si quieres que sea más eficiente en personas de piel blanca y que, por el contrario, no maneje bien los datos de aquellos con piel oscura, solo tienes que pedirlo.

Berkeley prohíbe el uso de reconocimiento facial con votación anónima

Es más, en realidad no debes hacer nada más que esperar. Esto debido a que al IA aprende a través de datos, así que, si subes datos de calidad de personas blancas y ninguno o muy pocos de personas de color, entonces rápidamente comenzarás a ver cómo el sistema comienza a privilegiar los procesos de aquellos grupos de los que tiene más información.

¿Es un problema de fondo?

En defensa del gobierno británico, uno podría creer que ello ocurre debido a un desconocimiento de la situación. Sin embargo, la verdad es que desde incluso antes de que la plataforma saliera al público, ya existían informes que denunciaban este problema.

Asimismo, el gobierno ha reconocido que estaban en completo conocimiento de la situación y que, al contrario de lo que se esperaría, solo habían optado por dejarla como estaba. Dijeron que, en la mayoría de los casos, el sistema había funcionado adecuadamente y que solo los individuos con piel extremadamente clara u oscura habían presentado problemas, por lo que consideraron que se trataba de un problema menor con el que el sistema podía coexistir sin dejar de ser eficiente.

Además de que la IA británica se tarda más en analizar los rostros de las personas de color, en muchas ocasiones devuelve la foto por “no cumplir” con los requisitos pedidos. Aunque existe la posibilidad de reenviar otra, entonces también aparece el riesgo de que– de ser rechazados nuevamente– su trámite quede cancelado (una situación por la que las personas de piel clara no han tenido que preocuparse con este sistema). Y es a esto a lo que el gobierno británico ha catalogado como un “problema menor”. Habría que ver si, entonces, el problema realmente está en la programación de la IA o en las mentes de quienes la crearon.

Más en TekCrispy