Lo que ayer era ciencia ficción hoy es realidad. Es el caso de la oscarizada “Her” de Spike Jonze, una película en la que un desanimado escritor, interpretado por Joaquín Phoenix, se enamora del asistente de voz de un sistema operativo. La cinta se estrenó en 2013 y causó bastante revuelo por las connotaciones éticas que se desprenden de una relación amorosa entre una máquina y un ser humano. El dilema se centraba en qué ocurriría si una persona se enamorase de un robot, pensando que es una persona.
Además de esos problemas morales, surgen los problemas de ciberseguridad. ¿Qué pasaría si se empezasen a crear robots programados para seducir a personas con la finalidad de robarles o extorsionarles?
En una sociedad cada vez más conectada, las personas tendemos a relacionarnos con otras personas a través de los dispositivos digitales. El auge de plataformas para ligar como Happn o Tinder son prueba de ello.
Y, cómo no, cuando una tendencia se convierte en ‘hype’, los ciberdelincuentes intentan sacar rendimiento económico o bien hacer daño por el mero hecho de hacerlo.
La nueva tendencia para hacer este tipo de daño se lleva a cabo con los ´love bots’. Se trata de unas aplicaciones web, basadas en Inteligencia Artificial, que están programados para que, al chatear con ellas, parezcan personas.
El riesgo es muy elevado, ya que el auge de los ‘chatbots’ ha hecho que se hayan desarrollado cientos de plataformas que se integran con las principales redes sociales y entornos web, para dar atención digital a los clientes. Pero la diferencia es que, los primeros están programados para seducir y engañar a las personas.
El modus operandi de los hackers que los desarrollan es muy sofisticado, ya que diseñan páginas web de citas en las que emulan a famosos sitios estadounidenses como Match.com o PlentyOfFish, en las que al hacer ‘match’ con una supuesta persona, lo que realmente se está haciendo es entablar una conversación con un ‘lovebot’.
Es más, para atraer tráfico a estas webs, hacen campañas de publicidad en páginas web y redes sociales con mensajes muy sugerentes, en especial durante fechas señaladas como puede ser San Valentín o Navidad, en las que muchas personas se sienten solas.
La programación de este tipo de ‘robots’ es tan compleja como potencialmente lucrativa. Es decir, los hackers tienen que plantear un sin fin de conversaciones y escenarios en los que programar que sus robots vayan seduciendo a las víctimas poco a poco, hasta conseguir su objetivo: hacerse con información confidencial para robarles o chantajearles. Se trata de una forma muy escalable de robar, ya que una vez programado el ‘love bot’, ya solo les queda esperar a que sus víctimas piquen el anzuelo y poder extorsionarlos.
Además, la Inteligencia Artificial juega un papel primordial en este tipo de engaños, ya que cualquier chatbot está creado para que cada conversación se almacene y se procese, con el fin de mejorar las futuras conversaciones.
De esta manera, el robot ‘aprende’ de los posibles errores de programación que hacen que las conversaciones sean ‘menos humanas’. Así, podrán indicar a los programadores que hay que resolverlas. Asimismo, estos programas ‘aprenden’ a diferenciar entre las preguntas más y menos adecuadas, con lo que muchas veces, no hace falta la mano humana para reprogramar muchas de las conversaciones.
“La Inteligencia Artificial está dando sus primeros pasos, pero en algunos años, cuando los chatbots puedan emitir sonidos y emular las conversaciones que pueden mantener dos personas, los riesgos podrán multiplicarse”, augura Hervé Lambert, Global Consumer Operations Manager de Panda Security, quien añade que “los robos y extorsiones por medio de ‘love bots’ son un riesgo frente al que hay que estar preparados”.
La buena noticia es que las conversaciones generadas por un chatbot corresponden a patrones de conducta programados por un ser humano. Por tanto, si se cuenta con una tecnología de detección de malware, que también está basada en la Inteligencia Artificial, es relativamente sencillo detectar este tipo de fraudes.