I truffatori usano da tempo il trucco del nipote che ha bisogno di soldi come frode per rubare denaro, soprattutto alle persone anziane. Ora, però, si stanno evolvendo e hanno ulteriormente sviluppato altri metodi innovativi grazie all’Intelligenza Artificiale.
Con i cosiddetti deepfake audio, i criminali possono imitare la voce di una persona desiderata in modo ingannevolmente reale, e frodare povere vittime. Scendiamo nei dettagli.
Come i criminali usano l’IA per mettere a punto truffe?
I criminali utilizzano alcuni campioni vocali di una persona e li inseriscono in un programma di intelligenza artificiale. Questo crea quindi una voce dal suono molto simile. Attraverso di essa, i truffatori fanno in modo che il parente, di cui si imita la voce, pronunci tutte le frasi che vogliono.
Continua ad avere successo, purtroppo, la truffa del falso nipote. Qui, i truffatori fingono di essere il nipote o la nipote di un anziano, che ha bisogno di denaro perché si trova in una situazione molto difficile.
La truffa è diffusa in tutto il mondo, dagli USA all’Italia.
Poi c’è la truffa del CEO. In questo caso i truffatori utilizzano deepfake audio per fingere di essere impiegati di alto rango (ad es. CEO di importanti aziende) o altri individui importanti. In tal modo, chiedono ai dipendenti di sbloccare fondi di denaro o rivelare informazioni riservate.
Scopri un nuovo tipo di truffa in mail, cliccando qui.
I criminali usano l’IA anche per scopi politici
I deepfake audio vengono utilizzati anche per scopi politici. I truffatori creano dichiarazioni false da parte dei politici e poi le fanno circolare per influenzare gli elettori e suscitare sentimenti.
Finora sono stati smascherati rapidamente e non sono stati in grado di causare alcun danno. Ma bisogna tenere alta la guardia.
I trucchi utilizzati dai criminali grazie all’IA, possono anche creare difficoltà alla polizia. L’Europol, infatti, teme che le confessioni o le dichiarazioni dei testimoni non possano più essere classificate come autentiche.
Come funzionano i deepfake audio?
Esistono tantissimi programmi online che possono imitare una voce in modo quasi impercettibile. Alcuni sono a pagamento, altri sono gratuiti. Per creare una voce il più simile possibile, però, sono necessarie registrazioni di alta qualità della persona che deve essere imitata. Migliore è la qualità, più simile sarà la voce sintetica.
L’intelligenza artificiale utilizza l’apprendimento automatico per imparare ad imitare la voce originale. Una volta che la voce sintetica è stata creata, i testi possono essere inseriti nel programma, e la voce li leggerà.
Come difendersi da questi tentativi di truffa?
Se i deepfake audio sono fatti bene, sono difficili da identificare come falsi. Ecco perché il consiglio primario è mantenere la calma quando ricevi chiamate dal tono allarmante.
Chiedi aiuto ad una seconda persona per stabilire se la chiamata sia vera o falsa.
Subito dopo cerca di raggiungere l’interessato tramite il numero noto. Grazie ad una chiacchierata con lui capirai subito se c’è stato un tentativo di truffa oppure no.
E mentre i truffatori utilizzano l’intelligenza artificiale per perfezionare i loro metodi di frode, l’intelligenza artificiale viene utilizzata anche per smascherare queste stesse truffe più velocemente. Ricercatori e sviluppatori stanno lavorando su tecnologie per rilevare e verificare meglio i file audio falsi.
Insomma è una lotta testa a testa.