Meta está a punto de duplicar la cantidad de contenido violento que elimina de Facebook. Decimos esto porque, durante el primer trimestre de 2022, la empresa eliminó 21,7 millones de piezas de contenido. Piezas que infringen sus normas sobre violencia, lo cual significó un aumento con respecto a los 12,4 millones del trimestre anterior.
De hecho, los derribos también aumentaron durante el trimestre en Instagram, pero solo un poco. La empresa eliminó 2,7 millones de publicaciones por infringir sus reglas sobre la violencia, frente a los 2,6 millones durante el último trimestre de 2021.
Meta y sus métricas sobre el contenido violento en Facebook

Hace poco, la compañía compartió las nuevas métricas como parte de su informe trimestral de cumplimiento de estándares comunitarios. En dicho informe, Meta atribuyó el aumento de derribos como una “expansión de nuestra tecnología de detección proactiva”. Según la empresa, más del 98% de las publicaciones fueron eliminadas antes de que los usuarios las denunciaran.
Este informe llega en un momento crítico para Meta, ya que la empresa se está enfrentando a un escrutinio por su tiempo de respuesta tras el reciente tiroteo masivo en Buffalo, Nueva York. Las grabaciones del tiroteo circularon en Facebook y otras plataformas. Y, por supuesto, las empresas tardaron un montón en eliminar todas las copias nuevas. De acuerdo con The Washington Post, una copia publicada en Facebook se compartió más de 46.000 veces antes de que se eliminara más de nueve horas después de su publicación original.
La capacidad de las personas para descargar y hacer nuevas copias de grabaciones en vivo ha puesto a prueba la capacidad de Meta para hacer cumplir sus políticas.
Guy Rosen, vicepresidente de integridad de Meta, dijo al respecto: “Uno de los desafíos que vemos a través de eventos como este es que las personas crean nuevo contenido. Realicen nuevas versiones y nuevos enlaces externos para tratar de evadir nuestras políticas [y] evadir nuestra aplicación. Como en cualquier incidente, continuaremos aprendiendo a refinar nuestros procesos. Queremos refinar nuestros sistemas para asegurarnos de que podemos detectar que podemos eliminar el contenido violatorio más rápidamente en el futuro”.
Este último informe representa la primera vez que Meta comparte estadísticas sobre el contenido que elimina por error. En cuanto a contenido violento, la compañía dijo que hace poco restauró 756.000 publicaciones de Facebook que fueron apeladas después de haber sido eliminadas inicialmente.