La IA ha evolucionado tanto que ahora a las personas les cuesta diferenciar entre un rostro generado por IA y uno real. Incluso algunos llegaron a pensar que los rostros IA eran más confiables, pero ¿cómo pasó esto? Y, sobre todo, ¿qué implicaría este descubrimiento?
¿Qué hallaron en la investigación sobre los rostros IA?

La Dra. Sophie Nightingale de la Universidad de Lancaster y el profesor Hany Farid de la Universidad de California, Berkeley estuvieron a cargo de esta investigación. Durante su estudio, le pidieron a los participantes que distinguieran los rostros sintetizados StyleGAN2 de última generación de los rostros reales. Y que señalaran el nivel de confianza que les evocaban tales rostros.
Los resultados del estudio revelaron que los rostros generados por IA eran muy realistas, ya que las personas no lograron diferenciarlos de los rostros reales. Y, lo más curioso de todo, es que consideraron a los generados sintéticamente más confiables.
¿Cómo efectuaron el estudio?
El estudio se realizó en tres fases:
- Primera fase: Participaron 315 participantes que clasificaron 128 rostros tomados de un conjunto de 800 como reales o sintetizados. La tasa de precisión de este grupo fue de un 48%.
- Segunda fase: Aquí hubo una variante, pues en esta fase entrenaron a las participantes y les comentaron cómo clasificar rostros. La tasa de precisión de estos alcanzó el 59%.
- Tercera fase: En este estudio, se les pidió que clasificaran a los rostros de acuerdo al nivel de confiabilidad. Debían seleccionar 1 cuando un rostro les resultará poco confiable y 7 cuando les pareciera muy confiable. La calificación promedio de los rostros IA fue un 7,7 % más confiable que la calificación promedio para las caras reales.
¿Y por qué sucede esto? Los investigadores consideran que estos rostros sintetizados o creados por IA son más confiables porque logran asemejarse a las caras promedio. Ese tipo de rostro siempre suele considerarse como el más confiable.
¿Cuál es la consecuencia de estos resultados?
Será mucho más fácil crear falsificaciones. Las personas podrían estar cada día más propensas a aparecer en grabaciones o imágenes no deseadas. Lo que implicaría en un aumento significativo de las llamadas falsificaciones profundas.
Por tal motivo, los investigadores instan a que se integren marcas de agua profundas en las redes de síntesis de imágenes y videos, pues ello proporcionaría un mecanismo posterior para una identificación confiable.