China está ampliando el control en las aplicaciones de video similares a Tik Tok, que se caracterizan por los videos que comparten sus usuarios. En este sentido, las autoridades del país decidieron añadir nuevas reglas entre las que predomina que estas aplicaciones se responsabilicen por el contenido de sus usuarios.

La Asociación de Servicios de Red en China, introdujo una serie de regulaciones para industria de los videos de corta duración. Entre estas se destaca una norma que establece que el contenido del video, incluso el título deben ser revisados antes de su publicación, según reporte de South China Morning Post.

Además, todas las compañías involucradas en el negocio de videos cortos también deben configurar un equipo de revisión de contenido con un fuerte sentido político.

De acuerdo con la organización, –una de las asociaciones de Internet más grandes en el país y que, cabe destacar cuenta con la simpatía del gobierno chino–, las nuevas medidas constan de 100 categorías para prohibir contenido.

Entre las que podemos mencionar se encuentran categorías que prohiben la difusión y burla de la imagen de líderes del partido comunista chino,o citando la norma se prohibe: “ridiculizar, satirizar, oponerse, difamar al tema socialista, la teoría, el sistema y la cultura con características chinas, y los principales principios y políticas del país”.

Otra serie de regulaciones prohiben videos relacionados con pornografía o contenido sexual, diseñados con “simplemente con fines de estimulación sensorial”.

Estas regulaciones forman parte de los movimientos de las autoridades chinas, denominada “Campaña de limpieza”, según SCMP, que busca limpiar su ciberespacio, que actualmente cuenta con más de 800 millones usuarios.

Huawei lanza una app que puede traducir libros infantiles a lenguaje de señas

Sin duda las compañías de videos cortos no la tendrán fácil a la hora de hacer seguimiento a las publicaciones de sus usuarios, esto representará un coste de tiempo y dinero signitificativo, ya que tendrán que contratar equipos especializados para el monitoreo y adaptado a las normas establecidas por la asociación.

Se espera que esta campaña iniciada en enero de 2019 tenga una duración de seis meses y ayude a definir el contenido “negativo y perjudicial”.

Más en TekCrispy