Una vez más Rekognition, la tecnología de reconomiento facial de Amazon, acusó a algunos líderes políticos de delincuentes -por error– durante una prueba realizada para validar la imprecisión de esta tecnología.

Durante una prueba realizada por la ACLU, la tecnología de Rekognition de Amazon, identificó erróneamente a cinco legisladores como criminales, mientras se le comparaba con una base de datos de registros policiales.

Dicha demostración se realizó a petición del asambleísta de San Francisco, Phil Ting, quien promueve un proyecto de ley para prohibir que los cuerpos policiales utilicen la tecnología de reconocimiento facial.

Políticos identificados como maleantes

Nuevamente los activistas de la Unión Americana de Libertades Civiles (ACLU) ponen a prueba la tecnología de Amazon Rekognition.

Para realizar la prueba de reconocimiento facial, la ACLU comparó 120 imágenes de legisladores de California contra una base de datos de 25,000 imágenes de fotografías policiales que guardan data de criminales.

El análisis arrojó 26 coincidencias (Es decir, 26 personas identificadas como criminales), entre las que aparecía el asambleísta Ting.

«Queríamos ejecutar esto como una demostración de cómo este software no está absolutamente listo», dijo Ting. Quien además aclaró el objetivo de su proyecto de ley. Ya que, aunque parezca gracioso que les haya identificado erróneamente «no será gracioso si eres una persona que está tratando de conseguir un trabajo, comprar una casa y no puedas hacerlo porque te acusan como criminal erróneamente».

No es la primera vez que Amazon Rekognition es sometida a pruebas y tampoco la primera vez que califica erróneamente. Puesto que desde los inicios, este sistema de reconocimiento facial se ha enfrentado a varios retos que han puesto entre dicho la capacidad de su tecnología. El año pasado, la ACLU también probó esta tecnología y en su momento confundió 28 congresistas de los EE.UU. con delincuentes.

Amazon responde

Aunque la herramienta Rekognition ha quedado en evidencia por segunda vez, la compañía de Jeff Bezos insiste en defender dicha tecnología:

La ACLU una vez más está haciendo mal uso y tergiversando a sabiendas Amazon Rekognition para ser noticia. Como hemos dicho muchas veces en el pasado, cuando se usa con el umbral de confianza recomendado del 99% y como parte de una decisión impulsada por el ser humano, la tecnología de reconocimiento facial se puede usar para una larga lista de propósitos beneficiosos, desde ayudar en la identificación de delincuentes para ayudar a encontrar niños desaparecidos para inhibir la trata de personas. Continuamos abogando por la legislación federal de tecnología de reconocimiento facial para garantizar un uso responsable, y hemos compartido nuestras sugerencias específicas para esto, tanto en privado como con los responsables políticos y en nuestro blog.

Por su parte, el abogado de la ACLU señala que la herramienta se utilizó con un umbral de precisión del 80% que viene configurado por defecto.

Sin embargo, tresulta preocupante que una herramienta basada en inteligencia artificial muestre su confianza en su producto solo cuando tiene un margen de error del 1%, tomando en cuenta que los resultados arrojados son bastante elevados.

Las cámaras del cuerpo de la policía están en comunidades donde está la policía, esas son principalmente comunidades de comunidades de color, donde viven inmigrantes.

Como es de esperarse, los legisladores argumentaron que esta tecnología de Amazon no puede implementarse en las cámaras policiales para detectar sospechosos, ya que pone en riesgo la integridad de ciudadanos inocentes.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *