I truffatori usano da tempo il trucco del nipote che ha bisogno di soldi come frode per rubare denaro, soprattutto alle persone anziane. Ora, però, si stanno evolvendo e hanno ulteriormente sviluppato altri metodi innovativi grazie all’Intelligenza Artificiale.

Con i cosiddetti deepfake audio, i criminali possono imitare la voce di una persona desiderata in modo ingannevolmente reale, e frodare povere vittime. Scendiamo nei dettagli.

Come i criminali usano l’IA per mettere a punto truffe?

I criminali utilizzano alcuni campioni vocali di una persona e li inseriscono in un programma di intelligenza artificiale. Questo crea quindi una voce dal suono molto simile. Attraverso di essa, i truffatori fanno in modo che il parente, di cui si imita la voce, pronunci tutte le frasi che vogliono.

Continua ad avere successo, purtroppo, la truffa del falso nipote. Qui, i truffatori fingono di essere il nipote o la nipote di un anziano, che ha bisogno di denaro perché si trova in una situazione molto difficile.

La truffa è diffusa in tutto il mondo, dagli USA all’Italia.

Poi c’è la truffa del CEO. In questo caso i truffatori utilizzano deepfake audio per fingere di essere impiegati di alto rango (ad es. CEO di importanti aziende) o altri individui importanti. In tal modo, chiedono ai dipendenti di sbloccare fondi di denaro o rivelare informazioni riservate.

Scopri un nuovo tipo di truffa in mail, cliccando qui.

I criminali usano l’IA anche per scopi politici

I deepfake audio vengono utilizzati anche per scopi politici. I truffatori creano dichiarazioni false da parte dei politici e poi le fanno circolare per influenzare gli elettori e suscitare sentimenti.

Finora sono stati smascherati rapidamente e non sono stati in grado di causare alcun danno. Ma bisogna tenere alta la guardia.

I trucchi utilizzati dai criminali grazie all’IA, possono anche creare difficoltà alla polizia. L’Europol, infatti, teme che le confessioni o le dichiarazioni dei testimoni non possano più essere classificate come autentiche.

Come funzionano i deepfake audio?

Esistono tantissimi programmi online che possono imitare una voce in modo quasi impercettibile. Alcuni sono a pagamento, altri sono gratuiti. Per creare una voce il più simile possibile, però, sono necessarie registrazioni di alta qualità della persona che deve essere imitata. Migliore è la qualità, più simile sarà la voce sintetica.

L’intelligenza artificiale utilizza l’apprendimento automatico per imparare ad imitare la voce originale. Una volta che la voce sintetica è stata creata, i testi possono essere inseriti nel programma, e la voce li leggerà.

Come difendersi da questi tentativi di truffa?

Se i deepfake audio sono fatti bene, sono difficili da identificare come falsi. Ecco perché il consiglio primario è mantenere la calma quando ricevi chiamate dal tono allarmante.

Chiedi aiuto ad una seconda persona per stabilire se la chiamata sia vera o falsa.

Subito dopo cerca di raggiungere l’interessato tramite il numero noto. Grazie ad una chiacchierata con lui capirai subito se c’è stato un tentativo di truffa oppure no.

E mentre i truffatori utilizzano l’intelligenza artificiale per perfezionare i loro metodi di frode, l’intelligenza artificiale viene utilizzata anche per smascherare queste stesse truffe più velocemente. Ricercatori e sviluppatori stanno lavorando su tecnologie per rilevare e verificare meglio i file audio falsi.

Insomma è una lotta testa a testa.