El año pasado se destacó por ser uno difícil para las personas transgénero. Y la Campaña de Derechos Humanos está rastreando que el 2022 va por el mismo camino. Lo que sucede es que ahora el daño a esas personas no se reduce a temas físicos, sino también virtuales. El sistema biométrico está entre uno de ellos y expone los problemas éticos de la IA. Además de cuestiones como la privacidad de los datos, el reconocimiento facial, el entrenamiento y la vigilancia de la IA.
El uso de la biometría en está creciendo rápidamente como un sector del panorama tecnológico. Un informe del Instituto de Biometría encontró lo siguiente: «Más del 90% de los profesionales de la industria acordaron que la biometría será el habilitador clave para anclar la identidad digital y que seguirá habiendo un crecimiento significativo en los sistemas móviles de verificación de identidad remota y la tecnología de incorporación remota».
Pero, a medida que esta tecnología crece, continúan apareciendo graves problemas éticos de IA. Tanto en el entrenamiento como en su aplicación a los casos de uso.
Algunos casos que platean los problemas éticos de la IA en el sistema biométrico

Aquí verás algunos lineamientos que nos ayudarán a entender el problema ético de la IA presente en el sistema biométrico. Y, para ello, nos centraremos en el proyecto de investigación que fue dirigido por Karl Ricanek en la Universidad de Carolina del Norte, Wilmington.
Hay un uso indebido de datos
Digamos que este profesor trabajó hace algunos años en el desarrollo de un sistema de reconocimiento facial. Este lo hizo a partir de videos de transición que las personas transgénero habían subido a YouTube. Y con el fin de obtener apoyo e información entre comunidades. Ricanek y su equipo estaban construyendo el sistema de reconocimiento facial. Los impulsaba la posibilidad de que los delincuentes y terroristas utilizaran tratamientos de terapia de reemplazo hormonal (TRH). Además, de forma ilícita, para eludir la detección del sistema de vigilancia.
Esto, por supuesto, recibió muchas críticas. Y una de ellas fue de Os Keyes, profesor de la Universidad de Washington, especialista en ética de los datos, señaló: “Esta idea es como el equivalente a decir: ‘¿Qué pasaría si las personas intentaran vencer la detección evadiendo un detector de altura? ¿Y si lo hicieran cortándose las piernas? ¿Insinuar que harías esto por capricho es malinterpretar drásticamente las cosas?”.
En respuesta a las críticas, Ricanek le dijo a The Verge: “El conjunto de datos en sí era solo un conjunto de enlaces a videos de YouTube, en lugar de los videos en sí; segundo, que nunca lo compartió con nadie con fines comerciales… y tercero, que dejó de dar acceso a él por completo hace tres años”.
¿Qué se ha encontrado a partir del proyecto de sistema biométrico de Ricanek?
Keyes y Jeanie Austin (Ph.D. en bibliotecología y ciencias de la información) han analizado el trabajo de Ricanek. Con el de investigar el sesgo algorítmico y la auditoría de conjuntos de datos con fines académicos.
Lo que encontraron, y lo que han publicado desde entonces, ha dado grandes pistas sobre el la ética de la IA y el sistema biométrico.
Por ejemplo, la afirmación de Ricanek y su equipo sobre que el conjunto de datos HRT de reconocimiento facial UNC-Wilmington y los activos eran privados, pues era falso. Ellos ni siquiera tuvieron el consentimiento de las personas cuyos videos se usaron para ello.
A partir de una recopilación de información efectuada por Keyes y Austin a través de una solicitud de registros públicos Donde se incluía alrededor de 90 correos electrónicos y archivos adjuntos de correos electrónicos de Ricanek y su equipo. Estos descubrieron cuatro aspectos importantes:
- El equipo de UNC-Wilmington, “no tiene registros de participantes contactados, y reconoció explícitamente que algunos no los tenían; contrariamente a sus garantías, redistribuyeron los videos completos, incluso después de que los videos se quitaron de la vista del público, en 2015; evitó la responsabilidad de eliminar imágenes de personas transgénero publicadas sin consentimiento, y; dejó los videos completos en una cuenta de Dropbox sin protección hasta que nuestro equipo de investigación los contactó en 2021”, escribieron Keyes y Austin en un documento.
Ambos investigadores se consideran trans y, a pesar de no estar en la investigación consideran que todo ha sido un abuso.
El conjunto de datos nos revela algo más de este fallido proyecto

El conjunto de datos de UNC-Wilmington se centró solo en 38 personas. Sin embargo, Keyes y Austin descubrieron que contenía más de 1 millón de imágenes fijas. Y todas ellas tomadas de los videos de YouTube de las 38 personas transgénero. Videos en donde las personas narraban cómo fue su proceso de transición y experiencias.
Además, encontraron algo curioso en los videos del conjunto de datos: «Todos los que pudimos identificar se proporcionaron bajo la licencia estándar de YouTube, que prohibía explícitamente reutilizar y redistribuir el contenido fuera de YouTube como plataforma en el momento en que se capturaron las imágenes».
Ricanek, en respuesta, admitió que no todas las personas contactadas en los videos dieron su consentimiento. Pero también aclaró algunas cosas:
- El conjunto de datos no se usó con fines de capacitación.
- La investigación no era sobre la comunidad transgénero, sino más sobre cómo la morfología puede alterar la cara de alguien y cuáles podrían ser las implicaciones de eso.
- Dicho conjunto de datos, aunque había estado en un Dropbox desprotegido, tenía una URL única y que los datos no estaban publicados en ninguna parte. Y que habría sido difícil que cualquier usuario de Internet al azar pudiera acceder a ellos.
Sin embargo, la solicitud de registro público de Keyes y Austin contradice a Ricanek. De hecho, muestra que recibió una copia en los correos electrónicos sobre Dropbox hace años, y además que el conjunto de datos se había distribuido.
Sin embargo, Ricanek asegura que la distribución del conjunto de datos no era amplia.
También afirmó que anteriormente tuvo contacto con algunas de las 38 personas incluidas en el conjunto de datos. Y que sostuvo conversaciones sobre cómo se vieron afectadas, reiterando que no pretendía hacer daño.
Ricanek cambiaría todo si pudiera
Si pudiera cambiar las cosas, Ricanek dijo que no volvería a hacer esto.
“Probablemente no haría este cuerpo de trabajo. Quiero decir, es una fracción muy pequeña del trabajo que hice en la totalidad de mi carrera, menos del 1% de lo que he hecho en la totalidad de mi carrera”, dijo.
Aunque en el mejor de los casos se trata de un caso de negligencia, dijo Austin, es importante no perder de vista el problema más amplio aquí.
“El problema más grande no se trata de Ricanek como persona. Se trata de la forma en que se realizó y distribuyó esta investigación y cuántas personas resultaron perjudicadas en el camino”, dijeron. “Eso es algo en lo que realmente queríamos centrarnos”.
Otros daños de la tecnología de datos y el sistema biométrico que muestran problemas éticos de IA con las personas transgénero
Sí, esta no es la primera vez que las intenciones biométricas o los datos sobre la comunidad LGBTQ+ salen mal en la industria de la tecnología. Impactando, por consiguiente, el resultado de las comunidades marginadas:
- Hay instancias en las que no pueden verificar adecuadamente sus propias identidades para cuentas bancarias. Esto hace que la verificación de documentos impeda que estas personas accedan a los servicios necesarios.
- Por otro lado, el sistema biométrico muestra sus problemas éticos de IA cuando implica algo negativo para las personas que intentan actualizar sus documentos. Según la Encuesta Nacional de Discriminación Transgénero, solo el 21% de las personas transgénero informan que han podido actualizar todas las identificaciones y registros necesarios con su nuevo género.
- No tener acceso a sistemas que puedan reconocer e identificar adecuadamente tu género, combatir las identificaciones falsas de algoritmos puede ser un desafío.
¿Qué pueden hacer los líderes tecnológicos y los investigadores para controlar todo esto?
Los investigadores de la intersección de género y tecnología subrayan o siguiente: “Las tecnologías biométricas actualmente no están libres de dinámicas excluyentes. Si bien en general se los considera neutrales y objetivos, se basan en interpretaciones simplistas y problemáticas de la relación entre la identidad y el cuerpo, y se centran desproporcionadamente en algunos cuerpos sobre otros. Esto forma un problema crítico de desigualdad, especialmente para las personas que ya se encuentran en una posición marginada”.
El Centro Nacional para la Igualdad Transgénero señaló que las empresas que utilizan tecnología biométrica o que recopilan datos, deben tener presente esto: La esperanza de eliminar en lugar de crear sesgos, aún es importante tener en cuenta cómo estos sistemas pueden dañar y lo hacen.
Olivia Hunt, directora de políticas del Centro Nacional para la Igualdad Transgénero, comenta: “Los humanos no pueden determinar de manera consistente quién es transgénero o no binario y quién es cisgénero, y cuando intentan hacerlo, se basan en estereotipos y suposiciones sobre cómo se visten, hablan y se mueven las personas. Un sistema de IA desarrollado por humanos solo perpetuará estos mismos estereotipos y suposiciones”.
Esperemos que esto ayude a la comunidad trans. Y que impulse a las compañías tecnológicas a crear un sistema biométrico que no presente problemas de ética de IA. Pero, todo sabemos que lograr ello es un reto y todavía requiere de mucho trabajo.