El foco que ponía al centro y adelante a la plataforma de Mark Zuckerberg, Instagram, ahora se posa encima de la plataforma de videos de Google, YouTube, dejando las preguntas en el aire acerca de que si es también una fuente de teorías extremistas y conspirativas.

Sin embargo, en una entrevista para el New York Times, Neal Mohan –quien es el director de productos de YouTube– trató de dejar en clara la posición de la plataforma y desmentir ciertos mitos que se han estado generando en torno a la supuesta tendencia a radicalizar a los usuarios a través del motor de recomendaciones.

Así como conversamos hace una semana exactamente, el problema que parece estar dándole impulso al contenido extremista y conspirativo es el algoritmo del motor de búsquedas y de recomendaciones, que según alegan, resulta sencillo perderse en el agujero del conejo quedando sin salida.

Pudo haber salido mucho mejor

De acuerdo con lo publicado por el New York Times, es evidente que la entrevista a Mohan pudo haber resultado mejor y ofrecer puntos más claros, sin embargo, parecía que el director de productos solo daba vueltas como un trompo, en vez de dar respuestas que dejarán la posición de la compañía más especificada.

Por ejemplo, cuando un entrevistador le preguntó acerca de las aseveraciones de la comunidad que afirman que YouTube es un agujero de conejo que lleva a teorías extremistas, Mohan respondió que al momento en que la plataforma asoma recomendaciones que invitan a consumir otro contenido, ellos no cuentan con “ninguna noción de si eso es menos o más extremo”.

Es decir, que podemos asumir que la plataforma de distribución de videos con la mayor cantidad de usuarios no sabe que le está ofreciendo a sus consumidores, por lo que se escuda y no se hace responsable.

Por otro lado, cuando se elevó la pregunta en cuanto a porqué si las plataformas trabajaron en conjunto para eliminar el contenido que incite a los actos terroristas, como el de Nueva Zelanda, no hacen lo mismo para prohibir o prescindir del contenido de que exprese comentarios de supremacistas blancos o violentos de derecha, Mohan indicó que el proceso para eliminarlos es más complejo de lo que parece.

“La razón por la que es diferente a lo que estamos hablando aquí es que esos videos [ISIS] tomaron una forma particular”, aseguró el director de productos. Por lo que podemos entender que como los videos terroristas cuentan con un patrón propagandista y de reclutamiento se hacen de más fácil acceso para así proceder con su eliminación.

La entrevista de Mohan deja aún más preguntas en el aire de las que existían antes. ¿YouTube está al tanto de lo que le ofrece a sus consumidores?, ¿YouTube está dispuesto a platear soluciones que sesguen el motor de recomendaciones para evitar la propagación de contenido extremista y conspirativo?, ¿Google está al tanto de que su plataforma líder de la distribución de videos se encuentra en el ojo del huracán?, y, como esas muchas más.