Sempre più hacker utilizzano voci clonate per organizzare truffe, estorsioni e campagne di disinformazione. Scopri come funzionano e come difenderti!
L’intelligenza artificiale generativa sta facendo passi da gigante. A distanza di quasi due anni da quando Microsoft ha annunciato che la propria gen AI vocale può clonare una voce con soli 3 secondi di audio, ormai i cybercriminali hanno integrato questa tecnologia nelle loro truffe.
In particolare, c’è chi la usa per simulare la voce di una persona, rubarne temporaneamente l’identità e convincere altri (ad esempio un dipendente o un familiare) a fare un bonifico urgente. Altri, invece la usano per ricattare le vittime o per diffondere fake news.
In questo post parliamo di clonazione vocale applicata alle truffe e i furti di identità, di come funzionano queste nuove minacce basate sull’AI e di cosa puoi fare per proteggerti. Buona lettura!
Clonare la voce con l’AI: quanto è facile?
Abbastanza. In giro ci sono molte app (come Murf)che consentono di clonare una voce a partire da qualche secondo o minuto di materiale audio, ovviamente per scopi legittimi come personalizzare un chatbot vocale, aggiungere istruzioni vocali a una presentazione o creare dialoghi immersivi per un videogioco.
Più secondi di audio abbiamo, migliore sarà la qualità della voce clonata a parità di modello di AI utilizzato. Di fatto, per ora queste applicazioni vengono usate soprattutto in ambito aziendale, per sostituire la locuzione umana con quella automatizzata e avere uno strumento in grado di creare nuove risposte in tempo reale.
Per quanto riguarda le truffe con voce clonata, la cosa è un po’ più complicata (per fortuna), ma anche così il numero di attacchi informatici che utilizzano questa tecnica sta aumentando vertiginosamente.
Oltre a limitare la condivisione di audio online, bisogna agire sull’altro fronte del problema, ovvero quando riceviamo un messaggio vocale o una chiamata.
Come funzionano le truffe con la clonazione della voce
Dipende dal tipo di truffa e da cosa vogliono ottenere i criminali. In generale, però, la prima cosa di cui hanno bisogno è riunire una buona quantità di audio per ricostruire la voce di una persona, per cui molte truffe iniziano con la raccolta di dati audio su diversi canali:
- Social media
- Siti web
- Siti di video in streaming
- Chiamate di phishing per far parlare la vittima e registrarne la voce
Quando il criminale ha riunito una quantità sufficiente di dati audio, può usare una delle app di sintesi vocale che esistono sul mercato per ricreare la voce della persona in questione e usare la sua identità.
Tipi di truffe con voce clonata più comuni
- Vishing alle imprese. Vishing significa phishing vocale. Con queste tecniche, il criminale utilizza la voce ricostruita tramite AI del direttore o di un manager di alto livello per richiedere un bonifico urgente .
- Vishing a familiari. Il criminale si spaccia per il figlio o un parente stretto della vittima. Facendole credere che si trova in una situazione di emergenza e che ha bisogno urgente di denaro.
- Estorsioni e finti ricatti. Questa tecnica è stata utilizzata varie volte per simulare la voce di un bambino e fingere di averlo sequestrato. Ottenendo un riscatto da parte dei genitori.
- Sextortion e ricatti su base sentimentale o sessuale. La sintesi vocale con AI generativa viene utilizzata anche per ricattare persone influenti. O che hanno comunque paura per la propria reputazione. Minacciando di pubblicare online audio erotici o compromettenti.
- Diffamazione e fake news. Infine, le voci sintetiche vengono usate nei deepfake per diffondere notizie false, fare propaganda politica o influenzare l’opinione pubblica con un fine ben preciso, ad esempio consigliare di investire in una serie di prodotti finanziari fraudolenti.
Questi sono gli usi più diffusi della clonazione vocale in ambito criminale, a cui dobbiamo aggiungere l’uso della voce per superare i sistemi di autenticazione biometrica nei sistemi informatici più sicuri.
LEGGI ANCHE: Antivirus o antimalware: di quale hai bisogno?
Come difendersi dalla clonazione vocale
I criminali hanno bisogno di raccogliere vari secondi di audio della tua voce per ricostruirla, per cui il modo più efficace sarebbe quello di non condividere mai file multimediali, come audio o video online, ad esempio nei reel di Instagram o su YouTube, e di non rispondere a chiamate provenienti da numeri sconosciuti, che potrebbero avere solo l’obiettivo di registrare la tua voce.
In pratica, questa cosa è quasi impossibile. La soluzione a una minaccia digitale non può mai essere il divieto di utilizzare una tecnologia potenzialmente vulnerabile, dato che tutte lo sono, in un modo o nell’altro.
Per questo, oltre a limitare la quantità di dati audio online in modo ragionevole, è meglio agire sull’altro fronte del problema, ovvero quando riceviamo un messaggio vocale o una chiamata:
- Se il messaggio è urgente e contiene una richiesta di denaro, fai molta attenzione.
- Controlla la fonte.
- Ascolta bene la voce e fai caso a piccole interferenze o dettagli poco naturali.
- Se non ti convince, prova a chiedere all’interlocutore una prova della sua identità, come rispondere a una domanda personale.
- In alternativa, puoi riattaccare e richiamare l’altra persona.
- Nel caso del vishing aziendale, è importante seguire i protocolli di sicurezza, che includono informazioni sulle procedure finanziarie e sulle catene di comando, in modo da sapere chi, come e quando può avanzare richieste di denaro.
- Quando senti una notizia o un’opinione online che non ti convince o su un argomento particolarmente delicato, come le guerre in corso o le elezioni politiche in un altro paese, verifica l’attendibilità del video/audio e della notizia in generale. Tieni sempre presente la possibilità che si tratti di disinformazione con fini politici o diffamatori.
Insomma, ancora una volta la protezione più efficace contro l’ennesima minaccia digitale è una combinazione di senso critico e disponibilità di informazioni. In un panorama digitale complesso e in parte rischioso come quello di oggi, conoscere i pericoli e fare attenzione sono diventati comportamenti necessari, e non un’esagerazione da complottisti tecnologici.
La protezione più efficace contro l’ennesima minaccia digitale è una combinazione di senso critico e disponibilità di informazioni.
Strumenti di sicurezza informatica contro le truffe di AI
In aggiunta a quello che abbiamo detto – e per concludere il nostro post sulle truffe di clonazione vocale – ti consigliamo di utilizzare anche dei programmi per la privacy e la sicurezza dei dati, che nel complesso riducono l’esposizione ad attacchi e truffe di phishing:
- Usa antivirus e firewall, e mantienili aggiornati e sempre attivi.
- Crea password uniche e complesse con un password manager.
- Nascondi la tua identità online con una VPN (rete privata virtuale).
Infine, segui il nostro blog per conoscere le nuove truffe informatiche e imparare a difenderti online.
CONTINUA A LEGGERE: Piracy Shield blocca Google Drive per errore
Buona navigazione e buona protezione dalla clonazione vocale con AI!