Desde hace un tiempo las noticias falsas o Deep Fakes, han estado rondando a través de las redes a veces son inofensivas y solo forman parte de una mala broma, pero en algunas circunstancias pueden generar grandes problemas. Es por ello, que ciertas compañías como, Facebook, están optando por implementar ciertas tecnologías que contribuyan a identificar este tipo de noticias.
La firma de Zuckerberg anunció hoy que esta trabajando en nuevas formas para atacar estas noticias falsas a parte de la asociación con terceros llamados “Comprobadores”, lo cuales están conformados por 27 socios de comprobación de hechos, localizados en 17 países al rededor de todo el mundo. Estos se encargan que corroborar la legitimidad de estas noticias a fin de ayudar a encontrar este tipo de información falsa.
Sin embargo, hemos visto como estas noticias han ido evolucionando y han pasado de un simple texto de alguna nota, a videos y/o fotos bien estructuradas y que a simple vista parecen reales que involucran a ciertos personajes, las más recientes DeepFakes de supuestas actrices porno.
Es por esta razón que Facebook ahora nos plantea un plan contra esta nueva versión de noticias falsas, para ello, ha creado un modelo de aprendizaje automático que utiliza varias «señales de interacción«, incluidos informes de los usuarios, para identificar contenido potencialmente falso.
«Estamos trabajando en nuevas formas de detectar si una foto o video ha sido manipulado. Estas tecnologías nos ayudarán a identificar más fotos y videos potencialmente engañosos para enviar a los inspectores de datos para su revisión manual».
Este aprendizaje automático irá de la mano de una táctica llamada OCR o reconocimiento óptico de caracteres que ayuda como su nombre lo dice a reconocer y extraer el texto de las fotos para luego compararlo con los titulares de los artículos de los analistas.
Según explica la firma, estas «señales de interacción» incluyen comentarios de personas en Facebook y la compañía envía esas fotos y videos a los revisores de datos para su revisión. La firma añade que sus socios externos de comprobación de hechos tienen experiencia en la búsqueda de información falsa y que además se están entrenando en técnicas de verificación visual, como: búsqueda de imágenes inversas y el análisis de metadatos de imágenes.
https://www.facebook.com/facebook/videos/2169674999973363/?t=1
Estos inspectores de hechos están catalogados para evaluar la verdad o la falsedad de una foto o video combinando estas habilidades con prácticas periodísticas, como: las investigaciones de expertos, académicos o agencias gubernamentales.
La firma ha separado este contenido falso en tres categorías:
- Manipulado o Fabricado.
- Fuera de contexto.
- Reclamo de texto o audio.
Aunque este análisis tiene en contra el tiempo, ya que, Facebook no elimina el contenido de manera fácil, es un gran paso el incluir en esta búsqueda las imágenes y los videos, donde muchas veces se distribuye información falsa.
Esta inclusión de la verificación del texto en las imágenes y videos, viene luego de que Facebook introdujera Rossetta, una IA que identifica texto ofensivo dentro de las imágenes.