Facebook no ha salido del ojo del huracán tras la denuncia de Frances Haugen sobre los datos acerca del daño que causan en los adolescentes. Posteriormente, un informe filtrado por el Wall Street Journal habló acerca del poco impacto que generaba la IA de Facebook en la lucha contra los discursos de odio. Sin embargo, el Vicepresidente de Integridad de la compañía respondió a estas acusaciones a través del blog de Facebook.

Así, Guy Rosen puntualizó los errores cometidos en el análisis de esta información y defendió la actuación de la IA aplicada para tratar los discursos de odio.

Facebook defiende los resultados de su IA contra los discursos de odio

De acuerdo a los documentos filtrados por el Wall Street Journal, Facebook el tiempo de revisión del contenido denunciado por su equipo humano. En su lugar, hicieron ajustes para reducir el número de denuncias y de esta forma mostraban que su IA estaba teniendo éxito. Basado en ello, Guy Rosen respondió a través del blog puntualizando una serie de factores que intentan desmontar la narrativa sobre el impacto de la IA de Facebook sobre los discursos de odio.

Uno de estos factores que indica Rosen se refiere a la forma incorrecta con la que se está abordando el asunto. Es decir, determinando el éxito de la tecnología aplicada contra los discursos de odio, de acuerdo a la cantidad de contenido removido. De acuerdo a sus palabras, la compañía necesita estar segura de que está frente a un verdadero discurso de odio. No obstante, antes de removerlo, toma medidas para que no se difunda, evitando recomendarlo en perfiles, páginas y otras secciones de la red social.

Lo que busca Facebook con sus mecanismos es reducir la cantidad de discursos de odio que ven las personas. Mientras que años atrás todo el esfuerzo se concentraba en revisar denuncias y eliminar material, ahora el asunto se enfoca más en prevenir que el público lo vea. Basado en esto, indica que han logrado reducir en un 50% las visitas a contenidos relacionados con discursos de odio.

Las afirmaciones de Guy Rosen defienden totalmente el impacto generado por la IA de Facebook al luchar contra los discursos de odio. El Vicepresidente de Integridad de la empresa es firme al decir que hay errores en el análisis de los informes filtrados y que por ende, la narrativa sobre ineficacia de su IA está errada. Sin embargo, el gigante tecnológico aún no sale del foco y parece haber mucho más de qué defenderse.

Escribir un comentario