En robótica hay un fenómeno conocido como valle inquietante: cuando una réplica humana se acerca demasiado a la apariencia o el comportamiento de una persona real, causa una respuesta de rechazo en el espectador que la identifica como artificial. Ocurre, por ejemplo, con algunos robots que son percibidos como “demasiado perfectos”. Los deepfakes (videos falsos de personas reales realizados mediante Inteligencia Artificial) sufren también de ese problema, de momento.
El problema es que estas falsificaciones son cada vez mejores y muchos expertos predicen que en los próximos cinco años serán indistinguibles para los usuarios. Cuando eso suceda será crucial que el público sea consciente; si un internauta ignora que puede ser engañado, será mucho más fácil que caiga en una trampa. Mientras tanto, algunos investigadores trabajan para poner a punto herramientas que pueden ayudar a desenmascarar la nueva amenaza.
Hace unos meses un sitio web llamado ThisPersonDoesNotExist.com, creado como forma de concienciar al público, se hizo viral. La web utiliza IA para generar caras falsas, aunque sorprendentemente realistas. Poco después apareció una segunda iniciativa, con un nuevo giro: WhichFaceIsReal.com que permite poner a prueba la capacidad de los usuarios para distinguir las falsificaciones generadas por IA de fotografías reales.
Las falsificaciones aún no son perfectas: el software no conoce a la perfección las reglas exactas de la anatomía humana y elementos como el fondo o las joyas crean fallos evidentes. Y sin embargo, los usuarios tienen, de media, una tasa de cierto entre 60% y 75%. Incluso los participantes que más practica acumulan, no superan esos umbrales de acierto.
Educar y prevenir
En el caso de WhichFaceIsReal, la web tiene otros propósitos más allá de la concienciación o el entretenimiento. Fue creada por dos académicos de la Universidad de Washington que estudian cómo se difunde la desinformación a través de la sociedad. Piensan que el aumento de las falsificaciones generadas por IA podría suponer un importante riesgo para la confianza de la sociedad en los datos, y quieren educar al público.
Por ejemplo, los creadores de estos rostros generados por IA pretenden prevenir que un día los deepfakes puedan utilizarse de forma maliciosa para difundir información errónea después de un ataque terrorista. La IA también podría utilizarse para crear un falso culpable cuyo rostro circule en línea y se difunda en las redes sociales. Los medios de comunicación suelen verificar el origen de las imágenes, utilizando herramientas como la búsqueda de imágenes inversas de Google, pero esa técnica de fact-checking no funcionaría con un deepfake.
Sistemas GAN
Ambos sitios webs utilizan un método de aprendizaje automático conocido como red generativa adversarial (o GAN por sus siglas en inglés) para crear sus falsificaciones. Estas redes operan analizando enormes cantidades de datos (en este caso, muchos retratos de personas reales), aprendiendo sus patrones y luego tratando de replicar lo que han visto.
La razón por la que las GAN son tan buenas es que se ponen a prueba a sí mismas una y otra vez. Una parte de la red genera rostros y la otra los compara con sus procesos de entrenamiento. Si es capaz de detectar alguna imperfección, el generador revisa su trabajo y crea una cara nueva.