Madeostudio

Una investigación realizada por el laboratorio de Inteligencia Artificial (IA) de Facebook ha encontrado nueva evidencia del sesgo social que muchos expertos han criticado en los algoritmos de IA.

Anteriormente, se ha demostrado que esta tecnología puede discriminar a las personas por su color de piel y, ahora, los investigadores han encontrado que los algoritmos también pueden reflejar las desigualdades sociales entre los países. En este sentido, Facebook AI Research ha revelado es menos efectiva al identificar productos para el hogar de países con bajos ingresos económicos.

Discriminación social

Para llevar a cabo el estudio, los expertos utilizaron 5 algoritmos populares de reconocimiento de objetos: Clarifai, Amazon Rekognition, IBM Watson, Google Cloud Vision y Microsoft Azure. Estas herramientas de IA se aplicaron en la identificación de imágenes de productos para el hogar obtenidas por la Fundación GapMinder en hogares de familias de diversos países del mundo. Las imágenes obtenidas se clasificaron en 117 categorías, desde zapatos hasta muebles del hogar, mientras que las familias se ordenaron por sus ingresos y ubicaciones geográficas.

Los investigadores detectaron que los algoritmos de reconocimiento de objetos cometían hasta un 10 por ciento más de errores cuando identificaron artículos de un hogar cuyo ingreso mensual era de US$ 50, en comparación con aquellas familias que generaban más de US$ 3,500 mensuales en ganancias. De hecho, la precisión de la identificación fue hasta un 20 por ciento menor en productos de EE.UU., en comparación con artículos producidos en Somalia.

Coalición de empresas crean las primeras reglas para coches autónomos seguros

Los resultados fueron similares para todos los servicios en la nube de reconocimiento de imágenes populares. Los expertos de Facebook aseguran que este sesgo es uno de los principales problemas actuales de la IA, y que radica en los datos con los cuales se entrenan estos algoritmos, que muchas veces reflejan el estilo de vida de personas blancas que viven en países con salarios superiores. De esta forma, la IA identifica imágenes basándose en ese estilo de vida.

El peligro del sesgo

Asimismo, los investigadores consideran que otra causa probable del sesgo de estos algoritmos es que los datos de entrenamiento para crear estos programas están limitados a nivel geográfico, además del hecho de que la IA no está entrenada para diferenciar entre patrones culturales.

El estudio es importante porque cualquier sistema creado a partir de estos algoritmos funcionará de manera incorrecta en países con bajos ingresos y lejos de Occidente y, el hecho de que estos algoritmos sean desarrollados por empresas estadounidenses líderes en IA, cualquier análisis realizado con algoritmos de reconocimiento de objetos puede verse afectado, incluyendo la búsqueda de imágenes en Internet, el almacenamiento de datos, herramientas automatizadas de seguridad informática y coches autónomos.

Referencia: Does Objetc Recognition Work for Everyone? Terrance DeVries, Ishan Misra, Changhan Wang, Laurens van der Maaten. Facebook AI Researc, 6 Jun 2019. DOI: https://arxiv.org/pdf/1906.02659.pdf

Más en TekCrispy