El tercer informe de Facebook sobre la auditoría de derechos civiles muestra que aún, luego de dos años, este algoritmo sigue implementando un sesgo algorítmico atentando contra los usuarios.

Los sesgos de género, raza, color, entre otros, son los contra que han presentado los sistemas de inteligencia artificial (IA) desde hace un tiempo, y muy a pesar de lo avances tecnológicos.

Facebook y su algoritmo de sesgo

Prueba de ello, es la reciente revisión independiente al algoritmo de Facebook por parte de los abogados de derechos civiles Laura Murphy y Megan Cacace, donde se mostró que este sistema está lejos de su correcto funcionamiento, pues aún permite los sesgos dentro de la plataforma.

Dentro de este informe se analizó el trabajo de Facebook sobre responsabilidad de los derechos civiles, elecciones y censo, moderación de contenido, diversidad y publicidad. Pero también presta especial atención al tema del sesgo algorítmico.

Aunque Facebook ha sumado toda su caballería en la detección y eliminación de los diferentes tipos de sesgo dentro de su algoritmo, ya que depende cada vez más de la IA para la predicción de anuncios y contenido dañino, aún falta mucho por recorrer.

“Aún falta mucho por mejorar..”

De acuerdo con la fuente, el grupo de expertos observó de manera exclusiva el algoritmo de Facebook durante un período de dos años, llegando a la conclusión de que Facebook debe intensificar los esfuerzos contra el sesgo algorítmico a fin de garantizar que “los algoritmos y los modelos de aprendizaje automático que pueden tener impactos importantes en miles de millones de personas no tengan consecuencias injustas o adversas”.

En este sentido, los expertos señalan que Facebook necesita abordar estos temas con “mayor sentido de urgencia”, pues muchas comunidades de derechos civiles se han desanimado, frustrado y hasta enojado después de insistirle a la compañía que aumentara sus medidas para promover la igualdad y luchar contra la discriminación.

La primera compañía en realizar una auditoría de este tipo

Aunque Facebook acepta la opinión emitida por los investigadores, la directora de operaciones de Facebook, Sheryl Sandberg, se enfocó en la parte positiva de este estudio y señaló a través de un artículo publicado en el blog de Facebook, que la compañía a la que representa es la “primera compañía de redes sociales en realizar una auditoría de este tipo”.

Sandberg señala que “No hay soluciones rápidas a estos problemas, ni debería haberlas”, añadiendo además que esta auditoría ha sido un “análisis profundo” de cómo la compañía puede “fortalecer y promover los derechos civiles en todos los niveles de la empresa”.

Destacando que este es “el comienzo del viaje, no el final” y que aún falta “un largo camino por recorrer”, instando a las demás compañías a seguir su ejemplo y someter sus plataformas a este tipo de evaluaciones.