Las redes sociales nos mantienen al tanto de todo lo que acontece en el mundo, pero también nos llenan de fake news. Eso ha incrementado hoy en día gracias a la edición de fotos y la existencia de herramientas que ayuden a manipular contenido audiovisual para hacer montajes o superponer fotografías. Pero eso está a punto de terminar, pues unos investigadores han estado trabajando en un proyecto que ayude a las personas a detectar fake news en videos y cualquier elemento multimedia.
El proyecto que ayudará a detectar fake news en videos

Los investigadores pertenecen a los grupos K-riptography and Information Security for Open Networks (KISON). Así como también de Communication Networks & Social Change (CNSC) del Instituto Interdisciplinario de Internet (IN3) de la Universitat Oberta de Catalunya (UOC). Este grupo de investigadores ha puesto en marcha un nuevo proyecto que utiliza inteligencia artificial y técnicas de ocultación de datos para ayudar a los usuarios a diferenciar automáticamente entre contenido multimedia original y adulterado. Dicho proyecto es genial, ya que contribuirá a minimizar el reenvío de noticias falsas. La herramienta lleva como nombre DISSIMILAR y es una iniciativa internacional liderada por la UOC en la que participan investigadores de la Universidad Tecnológica de Varsovia (Polonia) y la Universidad de Okayama (Japón).
De acuerdo con el profesor David Megías, investigador principal de KISON y director del IN3:
“El proyecto tiene dos objetivos: por un lado, proporcionar a los creadores de contenido herramientas para marcar con agua sus creaciones, haciendo que cualquier modificación sea fácilmente detectable. Y por otro lado, ofrecer a los usuarios de redes sociales herramientas basadas en métodos de procesamiento de señales y aprendizaje automático de última generación para detectar falsificaciones contenidos digitales”. Sumado a ello, DISSIMILAR pretende incluir “la dimensión cultural y el punto de vista del usuario final a lo largo de todo el proyecto”.
El peligro de los sesgos: el detalle que debe tomarse en cuenta en el desarrollo del proyecto
David Megías señala que, con el fin de evitar los sesgos, “una evaluación objetiva basada en herramientas tecnológicas puede ser una mejor opción. Siempre que los usuarios tengan la última palabra para decidir, con base a una preevaluación. Y si pueden confiar o no en determinados contenidos”.
Para Megías, no existe una “sola bala de plata” que pueda detectar noticias falsas. De hecho, cree que la detección debe llevarse a cabo a través de una serie de herramientas. Es por ello que Megías apunta lo siguiente: “Por eso hemos apostado por explorar la ocultación de información (marcas de agua), las técnicas de análisis forense de contenidos digitales y, por supuesto, el aprendizaje automático”.
Verificación automática de archivos multimedia: una tecnología importante para este proyecto que permite detectar fake news en videos
La marca de agua digital abarca una serie de técnicas en el campo de la ocultación de datos. Esta técnica incrusta información imperceptible en el archivo original para poder verificar “fácil y automáticamente” un archivo multimedia. Según explica Megías: “Se puede usar para indicar la legitimidad de un contenido. Por ejemplo, confirmando que un video o una foto ha sido distribuido por una agencia de noticias oficial. Y también se puede usar como una marca de autenticación, que se eliminaría en caso de modificación del contenido, o para rastrear el origen de los datos. Es decir, puede saber si la fuente de la información está difundiendo contenido falso”.
Las técnicas de análisis forense de contenidos digitales estarán presentes en esta herramienta
El proyecto traerá consigo el desarrollo de marcas de agua con la aplicación de técnicas de análisis forense de contenido digital. Debido a que el objetivo es aprovechar la tecnología de procesamiento de señales para detectar las distorsiones que producen los dispositivos y programas utilizados al crear o modificar archivo audiovisual. “La idea es que la combinación de todas estas herramientas mejore los resultados en comparación con el uso de soluciones únicas”, comenta Megías.
Realizarán estudios con usuarios de Cataluña, Polonia y Japón
DISSIMILAR se caracteriza por tener un enfoque “holístico” y su recopilación de las “percepciones y componentes culturales en torno a las noticias falsas”. Es por ello que se realizarán diferentes estudios centrados en el usuario, desglosados en diferentes etapas. Esto es lo que explica Megías al respecto: “En primer lugar, queremos saber cómo interactúan los usuarios con las noticias, qué les interesa, qué medios consumen. Y, según sus intereses, qué usan como base para identificar ciertos contenidos como noticias falsas y qué están dispuestos a hacer para verificar su veracidad. Si podemos identificar estas cosas, será más fácil que las herramientas tecnológicas que diseñemos ayuden a prevenir la propagación de noticias falsas”.
Estas percepciones se medirán en diferentes lugares y contextos culturales. Y en estudios de grupos de usuarios en Cataluña, Polonia y Japón, con el fin de incorporar su idiosincrasia en el diseño de las soluciones. Andrea Rosales, investigadora del CNSC, resalta la importancia de dicho proceso: “Esto es importante porque, por ejemplo, cada país tiene gobiernos y/o autoridades públicas con mayor o menor grado de credibilidad. Esto tiene un impacto en el seguimiento de las noticias y el apoyo a las noticias falsas. Debido a que, si no creo en la palabra de las autoridades, ¿por qué debo prestar atención a las noticias que provienen de estas fuentes? Esto se pudo ver durante la crisis del COVID-19. En países en los que había menos confianza en las autoridades públicas, hubo menos respeto por las sugerencias y las reglas sobre el manejo de la pandemia y la vacunación”.
Se quiere que sea un producto fácil de usar y entender.
En la etapa dos, los usuarios participarán en el diseño de la herramienta para “asegurar que el producto sea bien recibido, fácil de usar y comprensible”, comentó Andrea Rosales. A su vez, Megías agregó: “Nos gustaría que se involucraran con nosotros durante todo el proceso hasta producir el prototipo final, ya que esto nos ayudará a dar una mejor respuesta a sus necesidades y prioridades y hacer lo que otras soluciones no han sido capaces de hacer”.
Megías también comenta que “Si nuestros experimentos dan frutos, sería fantástico que integraran estas tecnologías. Por el momento, estaríamos contentos con un prototipo funcional y una prueba de concepto que podría animar a las plataformas de redes sociales a incluir estas tecnologías en el futuro”.
Esperamos que esta herramienta para detectar fake news en videos y cualquier elemento audiovisual salga pronto. Sería de una gran ayuda para muchos usuarios de internet.