Skip to main content
Elizabeth Warren criptovalute

Criptovalute, gli attacchi collegati all’intelligenza artificiale sono soltanto all’inizio

Le minacce legate all’uso dell’intelligenza artificiale destano molti timori. Anche nel settore delle criptovalute, ove la criminalità sembra intenzionata a sfruttare a fondo la nuova tendenza. Il tema è stato affrontato da un recente rapporto della società di intelligence blockchain Elliptic intitolato “Criminalità abilitata all’intelligenza artificiale nell’ecosistema delle criptovalute”.

Il rapporto è stato supportato da una serie di casi di studio, grazie ai quali è stato possibile identificare cinque tipi emergenti di crimini abilitati all’intelligenza artificiale. Un ambito che va dalle truffe deepfake agli attacchi informatici sponsorizzati dallo stato. Con un’importante sottolineatura: questo genere di minacce è soltanto nella sua fase iniziale.

Criptovalute e AI

L’intelligenza artificiale, nonostante vanti il potenziale ideale al fine di trasformare in modo significativo l’economia globale, comporta anche una serie di rischi, da non sottovalutare. Secondo i ricercatori di Elliptic, gli autori delle minacce la stanno già stanno già sfruttando per condurre le proprie attività illecite all’interno dell’ecosistema delle criptovalute.

Una delle tendenze messe in risalto dal rapporto è l’uso dell’intelligenza artificiale al fine di creare deepfake. Ovvero video e immagini altamente realistici che sono utilizzati dai truffatori per impersonare individui di alto profilo come celebrità, politici e leader del settore. Il tutto per legittimare progetti falsi.

Ecco quanto affermato dal rapporto, al proposito: “Gli omaggi di criptovalute e le truffe raddoppiate utilizzano sempre più spesso video deepfake di CEO e celebrità cripto per incoraggiare le vittime a inviare fondi per truffare indirizzi crittografici.”

I casi specifici menzionati nel rapporto includono i deepfake che hanno preso di mira Ripple (XRP) e il suo CEO, Brad Garlinghouse. Un episodio di questo genere si è verificato, in particolare, dopo la vittoria legale della società contro la SEC statunitense nel luglio 2023.

La lista delle personalità prese di mira è però lunga. Comprendendo ad esempio il fondatore di Tesla, Elon Musk, l’ex primo ministro di Singapore Lee Hsien Loong e il settimo e l’ottavo presidente di Taiwan, Tsai Ing-wen e Lai Ching-te.

Le preoccupazioni delle istituzioni

Naturalmente, l’intraprendenza della criminalità informatica preoccupa non poco le istituzioni. Timori in tal senso sono stati ad esempio esternati da Anne Neuberger, vice consigliere per la sicurezza nazionale degli Stati Uniti per le tecnologie informatiche e emergenti.

Proprio lei ha affrontato le crescenti preoccupazioni sull’uso improprio dell’intelligenza artificiale. In tal senso, ha sottolineato che l’intelligenza artificiale è utilizzata non solo per le truffe quotidiane ma anche per attività criminali più sofisticate.

Queste le sue affermazioni, al proposito: “Alcuni nordcoreani e altri stati-nazione e attori criminali sono stati osservati mentre cercavano di utilizzare modelli di intelligenza artificiale per accelerare la creazione di software dannoso e identificare sistemi vulnerabili”.

I token a tema GPT

La corrente di entusiasmo che si è creata attorno all’intelligenza artificiale dopo il varo di ChatGPT, ha dato origine anche alla creazione di token a tema GPT. I nuovi protocolli che fanno leva sull’AI generativa vengono spesso pubblicizzati con promesse di rendimenti elevati. Un’esca destinata ad attirare, come è prevedibile, molti trader alla ricerca di occasioni per far fruttare i propri soldi.

I ricercatori di Elliptic avvertono che, sebbene alcuni di essi possano essere legittimi, molti sono promossi nei forum di trading amatoriale tramite false affermazioni di associazioni ufficiali con società di intelligenza artificiale, a partire proprio da ChatGPT.

Il rapporto non ha peraltro mancato di soffermare il suo sguardo sulle discussioni nei forum del dark web relative all’utilizzo di modelli di intelligenza artificiale. Ecco quanto affermato al suo interno: “In numerosi forum di criminalità informatica sul dark web, Elliptic ha identificato discussioni che esplorano l’uso di LLM per decodificare le frasi seed dei portafogli crittografici, aggirando l’autenticazione per servizi come OnlyFans e fornendo alternative ai servizi di manipolazione di immagini “spogliate” come DeepNude.”

Il rapporto, infine, afferma che la maggior parte delle minacce legate all’intelligenza artificiale nel settore delle criptovalute sono ancora nelle fasi iniziali. Proprio per questo sarebbe necessario il massimo di vigilanza. Oltre all’adozione di misure proattive al fine di affrontare queste forme di sviluppo di criptocriminalità. Non farlo esporrebbe a gravissimi rischi.

Criptovalute


Avatar photo

Dario Marchetti

Sono laureato in Lettere e Filosofia con una tesi sul confine orientale d'Italia alla fine della Prima Guerra Mondiale. Scrivo per il web dal 2010, sui più svariati settori, tra cui tecnologia, criptovalute, motori ed economia.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *