Cos’è la truffa telefonica che usa l’IA per riprodurre la voce dei parenti? Come funziona e come difendersi da questi attacchi telefonici e informatici?

Le nuove tecnologie basate sull’Intelligenza Artificiale stanno rivoluzionando il mondo dello spettacolo e dell’arte. Se per certi versi questo supporto può diventare una notevole miglioria per diversi settori, non mancano le polemiche come ad esempio il recente sciopero dei doppiatori di cinema e serie tv minacciati di essere soppiantati dalla sintetizzazione artificiale della voce.

Ed è proprio questa capacità dell’Intelligenza Artificiale ad aver attirato l’attenzione di cybercriminali.

Cos’è la truffa telefonica IA: come funziona

Ottenere le informazioni necessarie per replicare una voce appare oggi molto facile. I criminali riescono ad acquisire ogni dettaglio della vita privata della vittima semplicemente analizzando i contenuti che la stessa diffonde pubblicamente sui social.

Ecco così che da un filmato condiviso su Facebook o da una storia pubblicata su Instagram i malviventi ottengono il tono della voce da far elaborare all’Intelligenza Artificiale.

Da questi dati la tecnologia riesce a sintetizzare digitalmente tramite biometria vocale in un processo detto di “clonazione”. In questo modo l’ascoltatore non capirà la differenza tra la voce originale e la sua copia digitale.

L’allarme sulle truffe telefoniche basate su questa tecnologia arriva dagli Stati Uniti. È la società di sicurezza Trend Micro a mettere in guardia gli utenti.

I tentativi di raggiro di questo tipo sono infatti in netto aumento. Spesso i soggetti colpiti sono persone anziane. Vengono contattati telefonicamente dalla voce di un parente riprodotta dalla IA. Le vittime si convincono subito che si tratti proprio del loro caro e sono immediatamente allarmate da quanto possa essere accaduto.

Infatti se nella maggior parte dei casi il parente invoca una richiesta di aiuto economica in seguito ad una grave emergenza, in altre circostanze i criminali simulano addirittura un rapimento facendo ascoltare la voce del parente in ostaggio.

Se il metodo è sempre più diffuso negli Stati Uniti, la tecnica estorsiva si sta facendo largo anche in Italia.

I casi accertati

Nello scorso Aprile, in Arizona una donna ha denunciato alle autorità di aver ricevuto una telefonata sospetta. L’interlocutore rimasto anonimo aveva affermato di aver rapito sua figlia e attraverso l’IA le aveva fatto ascoltare la sua voce ed il suo pianto. L’estorsore aveva così richiesto un lauto pagamento per liberare la bambina.

Sebbene la donna fosse profondamente allarmata dall’accaduto, ha mantenuto il sangue freddo e ha potuto constatare che la figlia fosse effettivamente al sicuro. La chiamata era solo una minaccia virtuale con tentativo di truffa. Non ha però provveduto al pagamento richiesto e ha allertato le autorità locali dell’accaduto.

Si tratta di un caso in cui la vittima è riuscita a smascherare il truffatore. Purtroppo alcune persone cadono però in questa trappola e cedono volontariamente i propri soldi ai criminali pur di liberare o salvare il proprio parente.

La Federal Trade Commission degli Stati Uniti ha infatti stimato che nel corso del 2022 le truffe abbiano causato una perdita complessiva di 2,6 miliardi di dollari.

Come difendersi

Per prima cosa gli esperti di sicurezza invitano a non perdere la calma durante un simile attacco. La vittima infatti dovrebbe cercare di capire se si tratti di una notizia vera o una truffa cercando dettagli che solo il parente possa sapere.

Le autorità ad esempio suggeriscono di stabilire una sorta di parola chiave o concordare la risposta ad un determinato avvenimento in modo da verificare la vera identità e dimostrare che la conversazione telefonica sia reale.

Se si ha poi la possibilità è consigliato tenere in chiamata il possibile truffatore mentre con un altro dispositivo si accerta la posizione e l’incolumità del caro minacciato.

Altro aspetto essenziale è la tutela della privacy. In questa era di condivisione social, bisogna fare estrema attenzione a quali contenuti diffondere. Proprio questi dati sono acquisiti dai criminali per elaborare la truffa con l’IA.