La Junta de Supervisión de Meta comentó que la empresa debería tener más cuidado con las herramientas de moderación, eliminaciones automatizadas y la crítica. Y todo por haber eliminado una caricatura que representa la violencia policial en Colombia. Tal decisión llegó cuando la junta asumió una serie de casos nuevos, donde estaba incluida una pregunta sobre un video de agresión sexual en India.
¿Por qué debe hacérsele caso a la Junta de Supervisión de Meta y a su observación sobre las eliminaciones automáticas?

La Junta de Supervisión, un organismo semiindependiente financiado por Meta, consideró una caricatura política que mostraba a policías colombianos golpeando a un hombre con porras. La caricatura fue añadida a la base de datos del Servicio de coincidencia de medios de Meta. ¿Y esto qué significa? Pues que el sistema de Meta la marcaba automáticamente para eliminarla cuando los usuarios la publicaban. Cuando los usuarios vieron que se eliminaron sus publicaciones, comenzaron a apelar la decisión y ganar. La Junta de Supervisión dice que 215 personas apelaron la remoción y el 98% de las apelaciones fueron exitosas. Sin embargo, Meta no eliminó la caricatura de su base de datos hasta que la Junta de Supervisión se hizo cargo del caso.
Ese hecho preocupó a la Junta de Supervisión: “Al usar sistemas automatizados para eliminar contenido, los bancos de Media Matching Service pueden amplificar el impacto de las decisiones incorrectas de los revisores humanos individuales”. Un sistema más receptivo podría haber solucionado el problema más rápido y al activar una revisión del banco cuando se apelaron con éxito las publicaciones individuales.
Este es uno de los múltiples casos de la Junta de Supervisión que cuestionan si las eliminaciones automatizadas de Facebook e Instagram está calibrada para evitar acciones agresivas. Y, como en casos anteriores, la Junta de Supervisión quiere más métodos de supervisión.
La junta comenta al respecto: “La junta está particularmente preocupada de que Meta no mida la precisión de los bancos de Media Matching Service para políticas de contenido específicas. Sin estos datos, que son cruciales para mejorar el funcionamiento de estos bancos, la empresa no puede saber si esta tecnología funciona de manera más efectiva para algunos estándares comunitarios que para otros”.
¿Qué otras cosas solicita la junta?
La junta le ha solicitado a Meta publicar las tasas de error para el contenido que se incluye por error en el banco coincidente. Meta debe responder a la sugerencia, pero puede elegir implementarla o no.
También determinó que Meta se había equivocado al eliminar una publicación de Facebook en urdu que informaba sobre la reapertura de escuelas y universidades por parte de los talibanes para mujeres y niñas. La regla prohíbe el “elogio” de grupos como los talibanes, y la publicación fue eliminada.
Este organismo independiente de Meta está constantemente enfrentándose a casos diversos, por lo que siempre debe estar alerta de todo. Y sus sugerencias sobre las eliminaciones automatizadas ojalá sea escuchada por la compañía.