Os Keyes, un estudiante de IA graduado de la Universidad de Washington, teme la forma en que la IA "reconoce" a las personas trans y otros géneros y las consecuencias. FOTO: CNN Business

De acuerdo con los recientes estudios demográficos, para el 2018 el 6 por ciento de la población europea pertenecía al colectivo LGBTQ, cifras que contemplan o agrupan las diversas orientaciones sexuales, en Alemania el 7,6 por ciento mientras que en Estados Unidos al menos el 50 por ciento de los estados tienen leyes que protegen a la población LGBT de la discriminación. A pesar de tener presencia a nivel mundial y ser un tema discutido sin tabúes actualmente, para la tecnología ha sido un gran reto de representar información relacionada con la población de sexo diverso.

En el ámbito de la inteligencia artificial, existen diversas aplicaciones basadas en modelos de aprendizaje automático para identificar el género de una persona a través de los rasgos de su cara, sin embargo, muchos de estos modelos está entrenados solo para definir si eres del sexo masculino o del sexo femenino, pero ¿qué sucede con los homosexuales, transexuales y otros géneros diversos?

Durante el análisis de una herramienta de reconocimiento de género a través de IA, se encontró que este procesaba imágenes de AI-generated de generated.photos, donde de un volumen de 2000 imágenes cargadas, el modelo obtuvo una precisión del 95%.

Puede ver cada paso del proceso en Creación de un modelo de clasificación de sexo en Google AutoML. El modelo usa Tensorflow.js para ejecutarse en el navegador. También pude crear un modelo de keras con un 80% de precisión. El conjunto de datos se cargó en wao.ai para el etiquetado de la verdad fundamental.

Estos resultados se dieron cuando se examinaron los rostros de hombres y mujeres, es decir define solo dos géneros. Pero cuando se analizaron datos de niños o mujeres con el cabello corto, el modelo wao.io mostró sesgos de error.

Modelos analizados por Wao.ai

Las analistas señalan que esta herramienta “no parece haber un sesgo hacia el hombre o la mujer a pesar de que el conjunto de datos es desigual, ya que alrededor del 66% de las caras son mujeres”.

Lo que demuestra que la IA está entrenada para identificar el género, pero puede generar una matriz de confusión cuando se presente imágenes de mujeres con cabello corto, de personas transgéneros, debido a que actualmente cuenta con un volumen de datos relativamente pequeño, pero lo cierto es que en el fondo dependerá del entrenamiento que se le de a esta tecnología para lograr identificar los diferentes géneros.

Precisión de la IA y la preocupaciones entre la comunidad LGBTQ+

Actualmente, los sistemas de reconocimiento facial calculan invariablemente el género como uno de los dos grupos: masculino o femenino. Esto podría venir asociado a un puntaje numérico que indica qué tan segura está la computadora de que la cara que ve se parece a un género u otro. Esto ha generado una serie de preocupaciones, principalmente cuando toca analizar los rostros de personas de otros géneros como transexuales presentando los mismos fallos que incluso para identificar a mujeres afrodescendientes.

Morgan Klaus Scheuerman, un estudiante de inteligencia artificial, graduado de la Universidad de Colorado Boulder, determinó en un estudio cómo las herramientas de reconocimiento facial tuvieron un rendimiento que dejó mucho que desear al analizar imágenes de personas trans.

Para el análisis usaron un grupo de 2450 fotos, seleccionadas mediante los hashtags “transman”, “transwoman”, “man”, “woman” y “nonbinary”, que fueron procesados a través de sistemas de reconocimiento facial de Microsoft, Amazon, IBM y Clarifai.

Los resultados

En promedio, los servicios clasificaron las fotos etiquetadas “mujer” como “mujer” el 98.3% del tiempo, y las fotos etiquetadas “hombre” como “hombre” el 97.6% del tiempo.

Cada vez que intentas codificar las normas de género, ya sea en leyes o en algoritmos, seguramente tendrás un impacto en cualquiera que no sea Ron Swanson o Barbie.

Cuando se trataba de imágenes etiquetadas como “transwoman” o “transman”, les fue mucho peor. Las fotos con la etiqueta “transwoman” fueron identificadas como “femeninas” en el 87.3% de las veces, pero las fotos etiquetadas como “transman” fueron etiquetadas como “masculinas” solo el 70.5% del tiempo. A Amazon le fue peor en lo que respecta a etiquetar las fotos etiquetadas como “transman” como masculinas, lo que hizo solo el 61.7% de las veces.

Como se puede observar, no se trata de que la tecnología de  inteligencia artificial sea ineficiente para reconocer datos diversos, sino que entre estos influyen una serie de factores como los datos que le son suministrados para tomar una serie de decisiones que en cierta forma muestran objetividad, si se le suministran imágenes de personas de género masculino o femenino, si se les enseña que sólo existen dos valores, surgirán estos sesgos.

Tal como ocurre con los sesgos raciales, estos también afectan una población considerable y tomando en cuenta que actualmente utilizan sistemas de reconocimiento facial, es imposible para las personas transgenero por ejemplo no pensar que la IA los ponga entre la espada y la pared y se les discrimine por un sistema que les califica erróneamente.