Site icon Panda Security Mediacenter

La IA y su lado oscuro: las estafas son más comunes de lo que parece

ia-lado-mas-oscuro-estafas-mas-comunes-lo-que-parece

ia-lado-mas-oscuro-estafas-mas-comunes-lo-que-parece

Las estafas mediante inteligencia artificial (IA) son tácticas fraudulentas que aprovechan las capacidades de la IA para engañar a las personas y obtener beneficios ilegales. Estas estafas se están volviendo cada vez más sofisticadas y representan una amenaza significativa en el mundo digital.

No es ningún secreto que los ciberdelincuentes van allá donde se mueva más dinero, más personas y, por tanto, más tecnología. Por ello, la Inteligencia Artificial (IA) es el caldo de cultivo perfecto para llevar a cabo todo tipo de prácticas ilícitas. En estos casos, además, se aprovechan de las capacidades de la IA para engañar a las personas y obtener lucrativos beneficios ilegales. Estas estafas se están volviendo cada vez más sofisticadas y representan una amenaza significativa en el mundo digital.

“Los fraudes mediante IA son una realidad preocupante. Es fundamental estar alerta, educarse sobre estas tácticas y tomar medidas para protegerse contra ellas. La seguridad cibernética es crucial en un mundo cada vez más automatizado.” comenta Hervé Lambert, Global Consumer Operations Manager de Panda Security.

Desde la suplantación de identidad hasta los rescates falsos con voz

Las estafas son de todo tipo y hay que estar alerta dado que son cada vez más sofisticadas al valerse de la IA” asegura Hervé Lambert

La suplantación de identidad con voces clonadas es una de ellas. Los ciberdelincuentes utilizan herramientas de IA para clonar voces de personas reconocidas, como familiares o amigos para, posteriormente, hacer llamadas telefónicas o enviar mensajes de voz haciéndose pasar por alguien cercano, solicitando dinero o información confidencial. Estas estafas pueden ser especialmente efectivas debido a la familiaridad de la voz clonada

Otra muy curiosa es la generación automática de contenido fraudulento” cuenta Lambert. “La IA generativa puede crear contenido falso, como sitios web, anuncios en redes sociales y mensajes de correo electrónico. Los estafadores utilizan esta tecnología para crear campañas de fraude convincentes, combinando texto, imágenes y audio. Estos sitios web y anuncios falsos pueden engañar a las personas para que compartan información personal o realicen transacciones no autorizadas” confirma Lambert.


Los estafadores pueden utilizar grabaciones de voz de la víctima para entrenar un modelo de IA y crear una réplica de su voz que suene casi idéntica. Luego, pueden utilizar esta voz clonada para realizar llamadas telefónicas o enviar mensajes de voz a otras personas, haciéndose pasar por la víctima y solicitando información confidencial, como contraseñas, números de cuenta bancaria o información personal.


Pero, la variedad no culmina aquí. El rescate falso con la voz de nuestros hijos es algo más frecuente de lo que podamos pensar. Los estafadores utilizan las redes sociales de los jóvenes para obtener información sobre sus familiares. “Con las horas y horas de contenido en vídeo que se sube a las redes sociales es sorprendentemente fácil clonar la voz e incluso los gestos y movimientos de una persona en un vídeo en el que es difícil detectar que es una clonación, como en el caso de la suplantación de la identidad de Carlos Alsina y Alberto Núñez Feijóo”. De este modo,  se hacen pasar por ellos en mensajes de texto o llamadas, solicitando dinero urgente a sus padres Hervé Lambert.

La IA puede ayudar a ‘los malos’ también

Aun así, los ciberdelincuentes pueden usar la inteligencia artificial para llevar a cabo ataques todavía más sofisticados y efectivos.

Generación de malware

La IA puede generar malware de manera rápida y automatizada. Los ciberdelincuentes pueden crear variantes de malware que evaden las detecciones tradicionales.

Suplantación de identidad con deepfakes

Los deep fakes (videos o audios falsificados) creados por IA pueden engañar a las personas haciéndolas creer que están interactuando con alguien legítimo. Los ciberdelincuentes pueden usar deep fakes para realizar ataques de ingeniería social a gran escala.

Ataques de ransomware inteligentes

La IA puede ayudar a los ciberdelincuentes a seleccionar objetivos específicos y evadir sistemas de seguridad. Los ataques de ransomware pueden ser más efectivos y dirigidos.

Evasión de reconocimiento de imágenes y voz

La IA puede ayudar a evadir sistemas de reconocimiento de imágenes y biometría de voz. Esto permite a los ciberdelincuentes operar sin ser detectados.

Contaminación de datos

La IA puede identificar puntos ciegos en las reglas de detección. Los ciberdelincuentes pueden manipular datos para evadir sistemas de seguridad.

Desarrollo de malware más efectivo

Los ciberdelincuentes utilizan la IA para mejorar la efectividad del malware. Pueden adaptar rápidamente sus tácticas según las defensas existentes.

Ataques de ingeniería social a escala

La IA puede aprender patrones de comportamiento y convencer a las personas de que un correo electrónico, llamada o mensaje es legítimo. Esto facilita la intromisión de redes y la obtención de datos sensibles.

Ataques a sistemas de reconocimiento facial y antimalware

Las estafas de clonación de voz con la IA son estafas que pueden ser muy difíciles de detectar, ya que la voz clonada puede sonar muy similar a la voz real de la víctima. Por lo tanto, es importante estar atento a cualquier señal de alerta, como solicitudes inusuales de información personal o financiera, y verificar la identidad de la persona que llama antes de proporcionar cualquier información confidencial.” asevera Hervé Lambert, Global Consumer Operations Manager de Panda Security.

Y en relación a esto, algunos puntos clave son:

Casos de clonación de voz con IA

Ya existen multitud de casos que son manifiestamente famosos. En 2019, un CEO de una empresa energética con sede en el Reino Unido fue engañado para transferir 243.000 dólares a una cuenta bancaria húngara después de recibir una llamada telefónica de alguien que se hacía pasar por el director general de la empresa matriz alemana, utilizando una voz clonada con IA.


En 2020, se informó de un caso en el que un estafador utilizó una voz clonada con IA para suplantar la identidad de un director ejecutivo de una empresa y solicitar a un empleado que transfiriera fondos a una cuenta bancaria fraudulenta.


España, en 2021, la Guardia Civil detuvo a una banda de estafadores que utilizaban inteligencia artificial para suplantar la voz de sus víctimas y engañarlas para que realizaran transferencias bancarias fraudulentas. Los delincuentes utilizaban una técnica conocida como “spear phishing para obtener información personal de sus víctimas y luego utilizaban esta información para entrenar un modelo de IA que imitaba su voz.

Cómo protegerse de este tipo de estafas con la IA

  1. Verificación de identidad: Si recibes una llamada o mensaje de voz inesperado, especialmente relacionado con transacciones financieras o información sensible, verifica la identidad del remitente. Llama a la persona o entidad utilizando un número de teléfono oficial o una dirección de correo electrónico conocida.
  2. Contraseñas y autenticación de dos factores (2FA): Refuerza la seguridad de tus cuentas utilizando contraseñas fuertes y activando la autenticación de dos factores. Esto dificulta que los atacantes accedan a tus datos incluso si clonan tu voz.
  3. Sensibilización y educación: Infórmate sobre las estafas de clonación de voz y comparte esta información con familiares y amigos. La concienciación es clave para prevenir fraudes. Si eres una empresa, asegúrate de que tus empleados estén informados sobre los riesgos de la clonación de voz con IA y que sigan las mejores prácticas de seguridad cibernética.
  4. No compartas información personal por teléfono: Evita proporcionar información personal, como números de tarjeta de crédito o contraseñas, por teléfono. Siempre verifica la autenticidad de la solicitud.
  5. Utiliza herramientas de clonación de voz de confianza: Si necesitas clonar tu propia voz para proyectos legítimos, utiliza herramientas confiables y seguras. Algunas opciones incluyen Speechify y Resemble.AI.
  6. Monitoriza tus cuentas financieras: Revisa regularmente tus cuentas bancarias y tarjetas de crédito para detectar actividades sospechosas. Reporta cualquier transacción no autorizada de inmediato.
  7. Desconfía de llamadas urgentes o amenazantes: Los estafadores a menudo utilizan tácticas de urgencia o amenazas para presionar a las víctimas. Mantén la calma y verifica la situación antes de actuar.
  8. Mantén tus sistemas actualizados: Asegúrate de mantener tus sistemas operativos, aplicaciones y software actualizados con los últimos parches de seguridad.
  9. Ten cuidado con los enlaces y archivos adjuntos sospechosos: No hagas clic en enlaces ni descargues archivos adjuntos de correos electrónicos o mensajes de texto sospechosos.
  10. Utiliza herramientas de seguridad: Considera utilizar herramientas de seguridad como software antivirus y cortafuegos para proteger tus sistemas y redes contra ataques cibernéticos.

Recuerda que la clonación de voz con IA es una amenaza emergente y en constante evolución, por lo que es importante mantenerse informado y actualizado sobre las últimas tendencias y técnicas de seguridad cibernética.” comenta Hervé Lambert, al tiempo que añade: “La prevención y la vigilancia son esenciales para protegerte contra la clonación de voz con IA.

Exit mobile version