YouTube notificó que reducirá las recomendaciones de videos con fakes news o noticias conspirativas, con el fin de reducir la difusión de contenido extremista, razón por la que la plataforma ha sido duramente criticada en los últimos años.

Mediante un post oficial, YouTube informó que dejará de recomendar videos con “contenido límite”, término usado por la plataforma para definir los videos que tienen contenido conspiracional o noticias que podrían ser falsas, pero no violan las pautas de privacidad de la compañía.

De acuerdo con la plataforma de videos de Google, los videos con “contenido límite”, son los que conducen a los usuarios al hilo de publicaciones con contenido extremista en el sitio.

Comenzaremos a reducir las recomendaciones de contenido límite y el contenido que podría desinformar a los usuarios de manera dañina, como videos que promocionan una curación milagrosa falsa para una enfermedad grave, afirmar que la Tierra es plana o hacer afirmaciones descaradamente falsas sobre eventos históricos como el 9/11.

Aunque YouTube señala que estos videos representan solo el 1% de sus publicaciones, el sitio afirma que el efecto en cuanto a difusión puede ser significativo.

No es la primera vez que YouTube actúa para combatir las fake news, contenido extremista y odio de su web, recordemos que a finales de 2018, la plataforma reportó haber eliminado más de 58 millones de videos y al menos 224 millones de comentarios de su plataforma durante el tercer trimestre de año pasado.

El mayor desafío para YouTube parece ser el contenido que incita a la violencia, ya que sus herramientas de detección automatizadas han sido menos eficientes que otros casos. Esto ha representado que la plataforma sea objeto de críticas y reportes que señalan la poca precisión de los algoritmos de este servicio de videos.

Netflix libera sus mejores documentales en YouTube

“Parece que nunca eres lo suficientemente duro para el algoritmo de recomendación de YouTube”, escribió el investigador Zeynep Tufekci  en un reporte del New York Times. Y continuó: “Promueve, recomienda y difunde videos de una manera que parece aumentar constantemente las apuestas. Dado sus mil millones de usuarios, YouTube puede ser uno de los instrumentos de radicalización más poderosos del siglo XXI “.

El motor de recomendaciones de YouTube también fue objeto de investigación por parte de BuzzFeed, donde se reveló que una nueva cuenta haciendo clic en un video político no partidista estaría viendo contenido extremista en solo seis videos.

Para agravar este problema, está el alto porcentaje de usuarios que dicen haber aceptado las sugerencias del algoritmo Up Next (81%), según Pew.

Uno de cada cinco usuarios de YouTube entre las edades de 18 y 29 años dice que ve videos recomendados con regularidad, lo que hace que la tendencia demostrada de la plataforma a pasar de noticias confiables a una conspiración abierta sea aún más preocupante.

Aunque de momento no está claro qué videos son considerados como contenido límite, por el algoritmo de YouTube, la plataforma recomienda leer las políticas de privacidad.

Más en TekCrispy