La sociedad de la información ha sido fundamental en el desarrollo del mundo moderno, gracias a los avances tecnológicos, la humanidad se ha mantenido conectada e informada como nunca antes. Sin embargo, esta moneda también tiene una cara oscura, como las fake news, las cuales hemos visto cómo han servido a ciertos sectores políticos para influir en sus seguidores, o los DeepFakes, que han dado de qué hablar desde 2017 por su uso malicioso.

El lado oscuro de la inteligencia artificial

Un reciente estudio titulado ‘Inteligencia artificial y seguridad internacional’ indica cómo los DeepFakes, una técnica de inteligencia artificial (IA) utilizada para crear imágenes o videos falsos de gente real, representa una de las mayores amenazas de esta tecnología.

Según la explicación de los autores del estudio, los sistemas de inteligencia artificial “son capaces de generar grabaciones de voces sintéticas con sonido realista” de cualquier individuo del cual exista suficiente registro para entrenar a la inteligencia artificial.

Los  videos generados por DeepFakes son normalmente fáciles de detectar por cualquier persona, no obstante, el avance de esta tecnología va tan rápido que en menos de cinco años podría llegar a engañar a cualquier ojo u oído sin entrenamiento para detectar estas falsedades.

Los DeepFakes comenzaron a aparecer en 2017, sobre todo en sitios pornográficos como Pornhub y redes sociales como Twitter o Reddit, bajo la denigrante categoría “pornografía de venganza” en la que se utilizaba el rostro y la voz de actrices de Hollywood en actrices porno. Quizás uno de los casos más conocidos sea el de Gal Gadot, víctima de uno de estos videos falsos en los que se la involucraba en una relación incestuosa.

Manipulación al alcance de todos

Lo verdaderamente preocupante sobre esto es que los DeepFakes son sumamente fáciles de usar, pues todo el trabajo lo hace una IA, no se requiere ningún tipo de habilidad para editar videos y el conocimiento que se debe tener sobre inteligencia artificial es mínimo. Además, muchas aplicaciones creadoras de DeepFakes son elaboradas con la plataforma de IA de código abierto de Google, TensorFlow.

Un video publicado a principios de este año muestra a Barack Obama insultar a Donald Trump, y si bien muchas personas podrían detectar que se trata de un video falso, demuestra un buen punto: los DeepFakes no son perfectos y no tienen que serlo. En lo que concierne a la propaganda, la cantidad le gana a la calidad.

Con tecnología básica, un comando de campaña podría generar una gran cantidad de DeepFakes en minutos sobre el oponente del candidato diciendo datos falsos o cosas indebidas, por mencionar un ejemplo. El peligro de la propaganda es que no tiene que convencer a nadie, simplemente debe sembrar la duda en algunas personas.

Aunque el gobierno estadounidense está preparando un detector de videos falsos, al igual que otras compañías privadas alrededor del mundo  –y con respecto a las fake news, YouTube está tratando de aportar su grano de arena–, nunca habrá un sistema perfecto que proteja a toda la población de la desinformación. Ese es uno de los retos de la sociedad de la información de esta era.

Más en TekCrispy