Un bot generador de deepfakes, que ha utilizado sin consentimiento las imágenes de cientos de miles de mujeres, ha sido detectado en la aplicación Telegram. El bot permitía sustituir los cuerpos vestidos en las fotos por imágenes de desnudos. Más de 100.000 de estos contenidos sexuales no consentidos se han publicado en línea, pero se cree que el bot ha producido muchos más que no han podido ser rastreados. Algunas de las imágenes generadas por el bot -gratuito y fácil de usar- son defectuosas, pero otras podrían pasar por auténticas, según ha explicado la compañía especializada en la detección de deepfakes Sensity, que ha dado la voz de alarma.
QUIZÁS TE INTERESE: ¿Qué son las Botnets?
Impacto y alcance
El bot enviaba cada día una galería de nuevas imágenes a un canal de Telegram asociado, con casi 25.000 suscriptores. Lo utilizaron miles de personas para crear imágenes de desnudos de amigas y conocidas. Sensity sólo ha podido contabilizar las imágenes compartidas públicamente, pero señala que la aplicación también ofrece la opción de generar fotos en privado. El bot -y una serie de canales de Telegram vinculados- son en su mayoría de lengua rusa, pero también aparecen algunas traducciones al inglés. En varios casos las imágenes creadas parecen pertenecer a menores de 18 años, según advierten los expertos de Sensity, que han explicado que no tiene forma de verificarlo pero que han informado a las autoridades de su existencia.
Las imágenes se generan automáticamente al subir una fotografía de una persona vestida. El análisis de Sensity concluye que la tecnología sólo funciona con fotografías de mujeres y que el bot es de uso libre, aunque está limitado a 10 imágenes por usuario cada día, y que hay que pagar un extra para eliminar las marcas de agua. Una versión premium costaría alrededor de 8 dólares para conseguir 112 imágenes diarias.
QUIZÁS TE INTERESE: Sextorsión: el calvario de ser chantajeado sexualmente por Internet
Se cree que este bot se basa en el software DeepNude, cuya existencia reveló Vice en un artículo en junio de 2019. Este programa usaba la Inteligencia Artificial (IA) para ‘desnudar’ a mujeres, se trataba en concreto de un software basado en redes generativas adversarias (GAN) y que tampoco funcionaba con fotografías de hombres.
Sin respuesta de Telegram
Telegram, por su parte, no se ha pronunciado sobre el bot ni sobre las imágenes abusivas que éste produce. El informe de Sensity también dice que la compañía no respondió cuando los analistas hicieron la denuncia hace varios meses. El bot ya ha sido bloqueado en iOS por violar las directrices de la App Store, según han señalado los mismos investigadores. El canal principal de Telegram que alojaba el bot y un canal afiliado para compartir sus creaciones están eliminados. También ha trascendido que las autoridades nacionales italianas han abierto una investigación sobre esta herramienta de deepfake.
Los expertos temen que este tipo de imágenes se utilicen cada vez más para humillar y chantajear a mujeres en línea. La tecnología de los deepfakes se está desarrollando deprisa, mucho más rápido que la legislación que los regula. Desde que aparecieron por primera vez estas falsificaciones, a finales de 2017, se han utilizado principalmente para abusar de la imagen de mujeres. Y su crecimiento en el último año ha sido exponencial, ya que la tecnología necesaria para generarlos se está volviendo más barata y fácil de usar. En julio de 2019 había 14.678 vídeos de deepfakes en línea, según una investigación previa de Sensity. Para junio de este año el número había subido a casi 50.000.
Regulación tecnológica
La regulación tecnológica debe evolucionar junto con los avances en inteligencia artificial (IA) y manipulación digital. Una mejora en las leyes y regulaciones debería centrarse en imponer a las plataformas la obligación de monitorear de manera activa y efectiva los contenidos generados por deepfakes. Estas plataformas deben desarrollar o implementar sistemas avanzados de inteligencia artificial que no solo detecten, sino que también bloqueen la distribución de contenidos ilegales y manipulados antes de que se viralicen.
Los gobiernos y organismos internacionales deben trabajar en la creación de estándares globales para la identificación y regulación de deepfakes. Esto incluiría obligar a las plataformas a cooperar con las autoridades locales y a proporcionar información sobre los usuarios que creen o compartan contenido ilegal, en consonancia con las regulaciones de privacidad y derechos humanos.
Educación y concienciación
La lucha contra los deepfakes no solo debe centrarse en la detección y eliminación de estos contenidos, sino también en la educación y concienciación pública. Es esencial que tanto los usuarios de internet como los creadores de contenido estén informados sobre los peligros de los deepfakes, incluyendo su potencial para causar daño emocional, social y profesional a las víctimas. Diversas campañas de sensibilización pueden ser llevadas a cabo por organizaciones gubernamentales, ONGs, y las propias plataformas tecnológicas, con el fin de educar a los usuarios sobre la manipulación digital y las consecuencias legales de crear o compartir este tipo de contenido no consensuado.
QUIZÁS TE INTERESE: Revenge Porn: qué es y cómo evitar ser víctima
Además, las plataformas deben asumir un rol proactivo en la educación de sus usuarios. Pueden desarrollar herramientas o tutoriales que ayuden a identificar deepfakes y otros contenidos manipulados, además de educar sobre la importancia de proteger la privacidad y la integridad de las personas, especialmente en un contexto donde la confianza digital es cada vez más vulnerable. El contenido relacionado con la privacidad y la ciberseguridad debería integrarse en las experiencias de usuario, como recomendaciones sobre cómo proteger fotos y videos personales.
MÁS INFORMACIÓN SOBRE REVENGE PORN
Finalmente, las plataformas deben ser transparentes sobre sus esfuerzos para combatir el abuso en sus servicios y deben ofrecer respuestas rápidas cuando se les señalen problemas relacionados con la privacidad y los derechos de los usuarios.