Data and Society publicó un nuevo informe que señala que la inteligencia artificial no es del todo eficaz para combatir los videos alterados por computadora, mejor conocidos como deepfakes.

Los investigadores señalan que el alcance de los deepfakes no solo influyen por la precisión con la que se falsifican, sino también con el contexto y la manipulación mediática que éstos reciben.

“El pánico en torno a los deepfakes justifica soluciones técnicas rápidas que no abordan la desigualdad estructural”, dice Britt Paris, uno de los encargados del estudio. “Es un proyecto masivo, pero necesitamos encontrar soluciones sociales y políticas para que las personas sin poder no queden fuera de la ecuación”.

Si bien el auge de las deepfakes ha sido considerable en el último año, la manipulación mediática en torno a cualquier contenido audiovisual siempre ha existido, señalan los investigadores.

“La relación entre los medios y la verdad nunca ha sido estable“, y continúan explicando en el informe:

En la década de 1850, cuando los jueces comenzaron a permitir pruebas fotográficas en los tribunales, la gente desconfiaba de la nueva tecnología y prefería el testimonio de testigos y los registros escritos. En la década de 1990, las compañías de medios eran cómplices de tergiversar eventos al editar selectivamente imágenes de transmisiones nocturnas. En la Guerra del Golfo, los reporteros construyeron un conflicto entre oponentes igualados al no mostrar el número de muertos marcadamente desigual entre las fuerzas estadounidenses e iraquíes. Estas imágenes eran imágenes reales.

Aunque algunas plataformas como Facebook utilizan ciertos algoritmos para detectar deepfakes de video, estas son las mismas responsables de la difusión del contenido manipulado con el fin de dañar la imagen de alguna persona, tal como sucedió con los deepfakes de video donde utilizaron el rostro de celebridades en videos para adultos.

2 servicios web para descargar contenido desde Instagram
FOTO: DataSociety

Del mismo modo, se conoció que el Departamento de Defensa de Estados Unidos también estaba desarrollando nuevas tecnologías para combatir deepfakes. El programa Media Forensics, dirigido por la Agencia de Proyectos de Investigación Avanzada de la Defensa de EE. UU. (DARPA), donde algunos investigadores han estado trabajando en el desarrollo de ciertas herramientas que permitan reconocer IA falsas.

No obstante, los investigadores insisten en que el uso de inteligencia artificial podría empeorar el escenario en torno a la detección de deepfakes, puesto que existe un notable desconocimiento entre las personas actualmente. Por lo que ambos sugieren que se necesita de una solución técnica que no solo influya en la tecnología sino también en el ámbito institucional.

Más en TekCrispy