TikTok ha anunciado en un nuevo reporte de transparencia entre abril y junio ha eliminado más de 80 millones de videos por romper las reglas de una u otra manera. Esta cantidad de videos solo representa el 1% de todos los videos subidos en el mismo período, por lo que la falta de este contenido apenas se nota.

La red de china usa un sistema automatizado para conseguir el contenido que rompe las reglas de la comunidad. También hay moderadores humanos, pero parece que la inteligencia artificial es sencillamente más precisa y mejor. Además, la gran mayoría de estos videos (más del 90%) se eliminaron de la red antes de que siquiera tuviesen un viewer.

Moderación automatizada

Cuando se trata de falsos positivos, se habla de un 5% de videos que no rompían ninguna regla. Es decir, unos 4.6 millones de videos que se eliminaron en un principio volvieron a estar publicados de manera automática una vez se comprobó que no rompían ninguna regla.

Como se ve en la imagen, la mayoría del contenido eliminado está relacionado con sexualidad, bullying, actividades ilegales, suicidio, violencia, etc. De hecho, recientemente debieron actualizar su algoritmo para adaptar al nuevo challenge que llevaba a algunos estudiantes a robar propiedad privada en Estados Unidos.

En este mismo período TikTok eliminó casi 30.000 videos relacionados con información falsa relacionada con el coronavirus. 83% de estos videos se eliminaron antes de que fueran reportados y el 70% antes de que nadie los viera. La mayoría de redes han tenido que tomar medidas respecto a este tema, y TikTok hace su parte con esta moderación de contenido automatizada.

Escribir un comentario