Recientemente, el uso de la inteligencia artificial se aplica en todos los ámbitos, desde la industria tecnológica, pasando por la medicina, sin embargo, una de las técnicas que ha sido más peligrosa es el uso de las deepfakes, puesto que ponen en peligro la integridad de una persona. En este sentido, Facebook y otras compañías decidieron usar herramientas basadas en IA para combatirlas, pero lo cierto es que cada vez surgen más aplicaciones que ponen este camino cuesta arriba.

Aunque plataformas como Facebook y Reddit anunciaron políticas de moderación que cubrieron las falsificaciones profundas la semana pasada, nuevos informes señalan que estos no son lo suficientes para las deepfakes.

La compañía de Mark Zuckerberg afirma que usará IA para eliminar los “medios engañosos manipulados” que han sido “editados o sintetizados”, también usará el aprendizaje automático “de maneras que no son evidentes para una persona promedio y que probablemente inducirán a error a alguien a pensar que un sujeto del video dijo palabras que en realidad no dijeron “.

No obstante, los medios y entes especializados afirman que esto no cubre “parodia o sátira” o ediciones engañosas hechas con medios tradicionales, por lo que cualquier video con un rostro de un político o personalidad del espectáculo que esté haciendo algún acto cómico no será tomado para evaluarlo.

La polémica aplicación doublicat, permite a los usuarios modificar los rostros de las personas en los videos a través de IA desde su dispositivo Android o iOS. Otro reporte señaló que el creador de TikTok también está experimentando con deepfakes en una versión de prueba que al parecer “no se incorporarán a su aplicación”, sin embargo, esto no deja de ser preocupante.

En septiembre pasado, un grupo de investigadores de Data and Society señaló que el alcance de los deepfakes no solo influyen por la precisión con la que se falsifican, sino también con el contexto y la manipulación mediática que éstos reciben.

“El pánico en torno a los deepfakes justifica soluciones técnicas rápidas que no abordan la desigualdad estructural”, dijo Britt Paris, uno de los encargados del estudio. “Es un proyecto masivo, pero necesitamos encontrar soluciones sociales y políticas para que las personas sin poder no queden fuera de la ecuación”.

Esto sin duda coloca a las plataformas en una clara desventaja con respecto a las deepfakes que no podrán ser monitoreadas dado el origen de estas aplicaciones y que injustamente podrían ser catalogadas como legales en las redes sociales.