Los intentos de realizar estafas utilizando tecnología deepfake registraron un aumento del 3.000% en 2023, según un nuevo informe de Onfido.
Esta empresa especializada en la verificación de identidad, con sede en Londres, atribuye este aumento a la creciente disponibilidad de herramientas en línea baratas y sencillas y a la IA generativa.
Face-swapping y fraudes
Las aplicaciones de intercambio de caras (Face-swapping) son el ejemplo más común.
En sus versiones más básicas pegan burdamente una cara sobre otra para crear una imitación, pero los sistemas más sofisticados utilizan la IA para transformar y combinar un rostro de origen con otro de destino de manera que parezcan reales, aunque estos requieren más recursos y habilidades.
Esta tecnología permite a los estafadores hacerse pasar por otras personas, ya sean conocidos de la víctima o personajes famosos.
Aumento de los fraudes menos sofisticados
Los programas informáticos que utilizan esta tecnología son fáciles de ejecutar y baratos, algunos incluso gratuitos. Además, en varias de las estafas, una misma serie de falsificaciones puede utilizarse simultáneamente en múltiples ataques.
Estas falsificaciones baratas (o cheapfakes) pueden intentar aplicarse en los sistemas de verificación facial, para realizar transacciones fraudulentas o acceder a información comercial sensible. Aunque la mayoría son fraudes evidentes, sus autores las utilizan en amplios ataques esperando que alguno tenga éxito.
Así, al primar la cantidad sobre la calidad, los criminales tratan de rentabilizar al máximo esas falsificaciones generadas con un mínimo esfuerzo. La citada investigación sugiere que se trata del método más habitual: se estima que los fraudes más elementales y menos sofisticados representaron el 80,3 % de todos los ataques en 2023, un 7,4 % más que el año pasado.
Importancia de la verificación biométrica
A pesar de ese aumento de los fraudes con deepfake, los expertos siguen insistiendo en que las capas de verificación biométrica -como el reconocimiento facial o de huella digital– continúan siendo elementos de defensa eficaces. Y cada vez más necesarios.
Algunos estudios señalan que la biometría es objeto de tres veces menos de ataques que otros tipos de verificación.
Sin embargo, los expertos también señalan que los delincuentes están ampliando sus estrategias a la hora de atacar estas defensas.
A medida que las herramientas de Inteligencia Artificial generativa se vuelven más comunes, los actores maliciosos producen cada vez más documentos falsos, buscan métodos para esquivar las defensas biométricas y, en algunos casos, hackear las señales de las cámaras.
Verificación biométrica
Para detenerlos, algunos expertos recomiendan la tecnología de verificación biométrica de tipo liveness. Se trata de sistemas que verifican al usuario determinando que está realmente presente en ese momento, en lugar de ser una imitación, una foto o una grabación, etc.
En la actualidad, los estafadores suelen intentar burlar los controles de actividad con un método muy básico: enviar un vídeo de un usuario visualizado en una pantalla. Este método representa actualmente más del 80% de los ataques. En el futuro, sin embargo, la tecnología ofrecerá opciones mucho más sofisticadas. Así que se espera que las empresas apliquen soluciones más automatizadas.
Los expertos también creen que las alertas no visuales para detectar los fraudes jugarán un papel muy importante en las defensas, como la inteligencia de dispositivos y la geolocalización, entre otros. Sin duda, los hackers desarrollarán contraataques, utilizando también tecnología generativa, de manera que es previsible que a ambos lados de la ley los expertos en informática traten de mejorar sus armas en el campo de batalla de la IA vs la IA.