Las estrategias de moderación de contenido de Facebook han quedado en evidencia en un nuevo reporte del New York Times.

Este “Libro de reglas de moderación” que Facebook mantiene en privado, y al que el NYT tuvo acceso, deja a la compañía de Mark Zuckerberg muy mal parada –una vez más.

De acuerdo con el reporte, Facebook cuenta con una lista de pautas  en las que una serie de moderadores en todo el mundo deben “guiarse” para identificar si el contenido es abusivo, transmite un mensaje de odio en contra de zonas en conflicto como Myanmar o la guerra en Medio Oriente y cuando no, según criterios de la plataforma.

1,400 páginas de “reglas confusas”

El NYT tuvo acceso a 1,400 páginas del libro de reglas de moderación, que según el medio, Facebook mantiene en privado. Y aunque el objetivo de la compañía es mantener la claridad a la hora de discernir cuando se trate de contenido violento, los miles de moderadores designados para esta tarea titánica aseguran que muchas de estas normas presentan problemas no solo para la compresión lectora, sino que también el concepto de “moderación” es bastante confuso.

Las reglas que crean parecen estar escritas para personas de habla inglesa que a veces dependen de Google Translate. Eso sugiere una falta de moderadores con habilidades en el idioma local que puedan comprender mejor los contextos locales.

Al parecer, para la compañía del Sr. Zuck, el uso de este “libro” facilita que miles de moderadores en todo el mundo, puedan regular el contenido que publican casi dos millones de usuarios en más de 100 idiomas, en un tiempo 10 o 15 segundos.

Pero eso no es todo, pues además en el informe aseguran que la plataforma actuailiza estsd normas sobre la marcha, consultando a grupos y jóvenes profesionales que “muchas veces no conocen el conflicto que se está tratando”.

Aunque la empresa consulta a grupos externos, las reglas son establecidas en gran medida por jóvenes abogados e ingenieros, la mayoría de los cuales no tienen experiencia en las regiones del mundo sobre las que toman decisiones.

Asimismo, las reglas presentan fallas en cuanto a la información que manejas, pues algunas no manejan las situaciones políticas inestables de algunos países como Sri Lanka.

Nueva filtración revela detalles del panel frontal del Google Pixel 4

En el informe señalan que a pesar de la existencia de las reglas, un “error de papeleo” permitió que un grupo extremista en Myanmar siguiera usando Facebook más tiempo de lo debido.

Pero lo más grave de todo, es que según NYT estas medidas establecidas por Facebook no están enfocadas principalmente en reducir el contenido violento en la red social, sino que busca en primer lugar eliminar aquello sin que afecta la reputación de la plataforma.

Una publicación parece contener errores sobre la ley india, y aconseja a los moderadores que casi todas las críticas a la religión deben ser marcadas como probablemente ilegales. De hecho, criticar a la religión solo es ilegal cuando está destinada a inflamar la violencia, según un experto legal.

Durante las elecciones en Pakistán, le dijo a los moderadores que aplicaran un escrutinio adicional a un partido, pero llamó a otro “benigno”.

Sin duda esto es bastante delicado, tomando en cuenta el alcance con el que cuenta la red social, pues al dejar divulgar información que según Facebook es correcta, está de alguna forma controlando lo que los demás pueden ver en el mundo.

Tal vez llegar a regiones que antes eran inaccesibles, puede ser una de las estrategias de Facebook para mantenerse firme ante la ola de críticas y demandas por la violación de datos.

Más en TekCrispy