VICE

Una de las aplicaciones más controvertidas de la Inteligencia Artificial (IA) son las deepfakes, o la creación de imágenes falsas de personas para manipular discursos o generar controversia en Internet.  A través de redes neuronales, las personas malintencionadas pueden crear un video falso de Donald Trump declarándole la guerra a Corea del Norte, o utilizar una imagen de una cantante famosa y crear un desnudo falso. Lo alarmante de esta técnica es que su uso está disponible para cualquier persona.

El ejemplo más reciente de ello es una app para Windows llamada DeepNude, que permite a cualquier persona crear un desnudo falso a partir de una foto de cualquier mujer en cuestión de segundos. La versión gratuita de la app permite crear estos desnudos, mientras que por US$ 99 al mes, los usuarios pueden obtener los desnudos sin marcas de agua.

Un insulto a las mujeres

Según Motherboard, la app funciona únicamente con fotografías de mujeres, mientras que su desarrollador anónimo ha revelado que planea crear una versión compatibles con imágenes de hombres.

Para “protegerse” de cualquier polémica, la app genera una marca de agua con la palabra “fake” para que las personas sepan que se trata de una foto falsa, sin embargo, deja abierta la posibilidad de que cualquier persona con simples conocimiento de edición de imágene, pueda manipular la foto y divulgarla, afectando la reputación y la dignidad de la mujer que protagoniza la imagen.

La IA, computación cuántica y la tecnología 5G podrían afectar la seguridad en un futuro

Además, es resulta inaceptable que cualquier persona pueda crear un desnudo de otra persona y luego lo utilice para chantajearla. Aunque es fácil darse cuenta de que la imagen es falsa, los deepfakes tienen la capacidad de engañar a mucha gente, y esta aplicación es una prueba más de que el ascenso de esta tecnología podría ocasionar un daño irreparable en una sociedad que cada vez pasa más tiempo en Internet.

Luego de que se viralizó la noticia sobre esta app, su desarrollador envió un mensaje a los seguidores de Twitter del proyecto, anunciando que cerrará DeepNude. ¿La razón? Considera que la cantidad de usuarios que harán un mal uso de la app será muy alta.

Más en TekCrispy