El desarrollo de la inteligencia artificial (IA) está ocurriendo a un ritmo vertiginoso, lo que conlleva a la vez importantes beneficios y graves riesgos. Por ejemplo, una de las tendencias más preocupantes observadas en los últimos años es el uso indebido de los avances en la clonación de voz. En cuestión de segundos, los estafadores pueden producir copias exactas de la voz de una persona. Y engañar a otros haciéndoles creer que un amigo o un familiar necesitan dinero urgentemente.
Impacto de la inteligencia artificial en la clonación de voz
El auge de la IA ha creado enormes posibilidades de generación de imágenes, texto, voz y aprendizaje automático. Aunque esos avances ofrecen innumerables ventajas, también proporcionan a los estafadores nuevos métodos para engañar a los ciudadanos de todo el mundo y robarles dinero. En un momento en el que la tecnología facilita a los delincuentes la invasión del espacio personal de los usuarios, es más importante que nunca ser precavidos con su uso.
Es posible que hayas oído hablar de los deepfakes, en los que la IA se utiliza para crear imágenes, vídeos e incluso audios falsos, a menudo relacionados con famosos o políticos. En realidad, la clonación de voz es una variedad de tecnología deepfake: crea una réplica digital de la voz de una persona capturando sus patrones de habla, acento y respiración a partir de breves muestras de audio.
Una vez capturado el patrón del habla, un generador de voz de IA puede convertir cualquier texto en un discurso muy realista, que se asemeja a la voz de la persona objetivo. Con el avance de la tecnología, la clonación de voz puede lograrse con sólo una muestra de audio de tres segundos. Y si una simple frase como “hola, ¿hay alguien ahí?” es suficiente para preparar una estafa por clonación de voz, una conversación más larga ayuda a los estafadores a captar más detalles vocales.
Por tanto, es mejor que las llamadas sean breves hasta que se esté seguro de la identidad de la persona que llama. La clonación de voz tiene valiosas aplicaciones en el mundo del espectáculo y la sanidad: permite a los artistas trabajar con la voz a distancia (o reproducir la voz de intérpretes ya fallecidos) y ayuda a las personas con discapacidades del habla. Sin embargo, plantea graves problemas de privacidad y seguridad, lo que subraya la necesidad de salvaguardas.
Cómo lo explotan los cibercriminales
Los ciberdelincuentes están utilizando esta tecnología de clonación de voz para hacerse pasar por famosos, autoridades o personas corrientes con fines fraudulentos. Crean una situación que parece una emergencia, se ganan la confianza de la víctima y solicitan dinero a través de tarjetas regalo, transferencias bancarias o criptomonedas. El proceso comienza recogiendo muestras de audio de fuentes como YouTube y TikTok.
A continuación, la tecnología analiza dichos audios para generar nuevas grabaciones. Una vez clonada la voz, puede utilizarse en comunicaciones engañosas, a menudo acompañadas de la suplantación de los datos del identificador de llamadas para añadir credibilidad.
Muchos casos de estafa por clonación de voz han saltado a los medios de comunicación. Por ejemplo, unos delincuentes clonaron la voz del director de una empresa en los Emiratos Árabes Unidos para orquestar un robo de 51 millones de dólares. Un hombre de negocios de Bombay fue víctima de una estafa de clonación de voz mediante una llamada falsa desde la embajada india en Dubái. Recientemente, en Australia, unos estafadores emplearon un clon de voz del primer ministro de Queensland, Steven Miles. Para intentar engañar a la gente y que invirtiera en Bitcoin.
Los adolescentes y los niños también son un objetivo de este tipo de ataques. En una estafa de falso secuestro en Estados Unidos, se clonó la voz de una adolescente y se manipuló a sus padres para que accedieran a sus demandas. Un estudio reciente realizado entre adultos del Reino Unido muestra que el 28% de los adultos ya se han encontrado con estafas de clonación de voz el año pasado, y que el 46% desconocía la existencia de este tipo de estafa. Esto pone de manifiesto una importante laguna de información pública, que deja a millones de personas expuestas al riesgo de fraude.
Cómo pueden protegerse los usuarios y las empresas
Los riesgos que plantea la clonación de la voz requieren una respuesta multidisciplinar. Las personas y las organizaciones pueden aplicar varias medidas para protegerse contra el uso indebido de la tecnología de clonación de voz. En primer lugar, las campañas de concienciación pública y la educación pueden ayudar a proteger a personas y organizaciones y mitigar este tipo de fraudes. La colaboración público-privada puede proporcionar mejor información y opciones de consentimiento para la clonación de voz.
Por otro lado, las personas y las organizaciones deberían intentar utilizar la seguridad biométrica con detección de vitalidad. Es una nueva tecnología que puede reconocer y verificar una voz viva frente a una falsa. Y las organizaciones que utilicen el reconocimiento de voz deberían considerar la adopción de la autenticación multifactor.
Asimismo, la mejora de la capacidad de investigación contra la clonación de voz será otra medida crucial para la lucha contra los fraudes. Además, se necesita una normativa precisa y actualizada por países para gestionar los riesgos asociados.