Las deepfakes, son motivo de preocupación pública, el suplantar el rostro de una persona por otra durante un video o en una fotografía, a través de IA no es para tomarlo a la ligera, principalmente cuando actualmente cualquier persona tiene acceso a estas tecnologías. En este sentido, una investigación reciente señala que las deep fakes son el delito de inteligencia artificial más grave y preocupante en la lucha contra el crimen.

Una investigación del University College de London, cataloga a las deepfakes como “el delito de IA más preocupante”, en la lucha contra el crimen y el terrorismo, y no es para menos pues las nuevas tecnologías están al alcance de cualquiera, por lo que hace más difícil identificarlas.

Más de 20 formas de usar IA para el delito

Los científicos analizaron documentos académicos, noticias e informes de actualidad, ficción y cultura popular, para determinar que actualmente se cuentan con más de 20 formas de utilizar IA para cometer un crimen en los próximos 15 años, sin embargo, las deepfakes se llevan el primer lugar al clasificarlos por riesgo, el daño potencial, el acceso a estos y el dinero que podrían ganar.

El Dr. Matthew Caldwell explica en su estudio qué tan peligrosos podrían ser las deepfakes:

A diferencia de muchos crímenes tradicionales, los crímenes en el ámbito digital pueden compartirse, repetirse e incluso venderse fácilmente, lo que permite que se comercialicen técnicas criminales y que los delitos se presten como un servicio. Esto significa que los delincuentes pueden externalizar los aspectos más desafiantes de su crimen basado en IA.

Deepfakes, difíciles de prevenir e identificar

Una de las razones por las que las deepfakes se sitúan en el primer lugar de los delitos de IA, es porque esta práctica resulta muy difícil de identificar, señalan los investigadores, pues a medida que se crean métodos de detección con IA, también siguen creciendo las herramientas para falsificar rostros y voces.

De esta forma, cualquiera podría suplantar el rostro o la voz del CEO de una compañía, para emitir una noticia polémica, desacreditar a una figura pública o incluso colocar el rostro de la pareja de una persona en un video comprometedor, lo que generaría desconfianza a las pruebas de audio y video.

Varios estudios respaldan el hecho de que las deepfakes representan un gran peligro, en septiembre pasado, Data and Society señaló que los deepfakes no solo influyen por la precisión con la que se falsifican, sino también con el contexto y la manipulación mediática que éstos reciben.

“El pánico en torno a los deepfakes justifica soluciones técnicas rápidas que no abordan la desigualdad estructural”, dijo Britt Paris, uno de los encargados del estudio. “Es un proyecto masivo, pero necesitamos encontrar soluciones sociales y políticas para que las personas sin poder no queden fuera de la ecuación”.

Deepfakes de audio, usados para cometer ataques informáticos BEC

Varios reportes señalan que los deepfakes de audio se están utilizando para cometer ataques basados en inteligencia artificial contra empresas, principalmente con ataques como el compromiso de correo electrónico corporativo (BEC, por sus siglas en inglés).

El algoritmo del deepfake de audio aprende a imitar la voz del ejecutivo o la persona a suplantar, utilizando redes neuronales de confrontación generativa (GAN) que se enfrentan entre sí: mientras una parte crea un personaje falso, otra lo identifica y lo confronta. A partir de este proceso, el modelo aprende a generar la voz falsa que requiere el delincuente.

Phishing e ingeniería social vinculados al ataque

En esta práctica, los atacantes utilizan técnicas como phishing para acceder a la red corporativa de la empresa y realizar el análisis y seguimiento de los empleados responsables de hacer los pagos. Al identificar al encargado, los maleantes puedan persuadir al encargado haciéndose pasar por un alto ejecutivo y lconvencerlo de transferir grandes sumas de dinero a la cuenta de los delincuentes.

Los ataques mediante deepfakes de audio son muy comunes en la actualidad, de hecho, en 2019, una empresa en Reino Unido fue víctima de maleantes que utilizaron inteligencia artificial para falsificar la voz del CEO de la compañía y quedarse con nada más y nada menos que USD$243,000.

Deepfakes que se hicieron virales

Asimismo, existen infinidad de deepfakes que se hicieron virales confundiendo a millones de personas en redes sociales, en este artículo de TekCrispy hacen mención a los seis casos más notables, desde el deepfake con el rostro de Barack Obama, hasta el que marcó el inicio de esta ola de falsificaciones: usando los rostros de actrices de Hollywood en falsos videos pornográficos en 2017.

Del mismo modo, los gigantes tecnológicos como Facebook, también muestran preocupación con respecto a los deepfakes, pues aseguran que “se vuelve un reto” detectarlos cuando aparecen cualquier cantidad de apps, como  doublicat, permite a los usuarios modificar los rostros de las personas en los videos a través de IA desde su dispositivo Android o iOS.

De esta manera, está más que claro que las deepfakes tienen un alcance masivo y pueden ocasionar un daño colateral si no se detienen o se desarrollan las tecnologías de IA lo suficientemente potentes como para combatirlos.