L’intelligenza artificiale sta sicuramente cambiando il modo in cui interagiamo con la tecnologia e come affrontiamo le sfide del futuro.
Non ci si può sottrarre, però, da nuove preoccupazioni riguardo ai potenziali rischi e alle possibili implicazioni etiche. A proposito di questo, in questo articolo parliamo WormGPT, un’alternativa “cattiva” a ChatGPT, che sta suscitando crescenti inquietudini per l’uso che ne potrebbe fare la criminalità e per le possibili minacce che potrebbe rappresentare.
Vediamo in cosa consiste e quali sono gli aspetti controversi.
Utilizzo di ChatGPT a scopi criminali
WormGPT è il fratello cattivo di ChatGPT. In che senso? Nel senso che è l’alternativa utilizzata dai criminali. Come si può immaginare, infatti, anche questi ultimi si stanno evolvendo e innovando, ma lo fanno a fin di male.
I criminali stanno utilizzando le nuove tecnologie, come l’intelligenza artificiale, per portare a termine attacchi BEC (Business Email Compromise), tramite e-mail di phishing.
L’Intelligenza Artificiale Generativa (AI) come ChatGPT di OpenAI consente ai criminali informatici di automatizzare e-mail false altamente convincenti e personalizzarle in base al destinatario.
Questo aumenta la possibilità di successo degli allegati truffa, perché le vittime si accorgono raramente del tentativo di frode.
Ci sono anche criminali informatici che sviluppano “jailbreak” per interfaccia AI come ChatGPT. Si tratta di input (prompt) appositamente predisposti e progettati per rivelare informazioni specifiche o persino per produrre codici dannosi.
Che cos’è WormGPT?
WormGPT è uno strumento che sta diventando sempre più comune nei forum di cybercrime e tra gli hacker, come riportato da Daniel Kelley sul suo blog su SlashNext.
È un modulo AI basato sul modello di linguaggio GPTJ e fornisce una serie di funzionalità, come la capacità di creare e-mail accattivanti mirate specificamente agli attacchi BEC.
Fino ad oggi uno dei modi per proteggersi dalle mail di phishing era proprio controllare la grammatica. La maggior parte delle mail di frode, infatti, arrivando dall’estero ed essendo tradotte con Google traduttore, presentavano parecchi errori ortografici e grammaticali.
Utilizzando WormGPT, i criminali possono riprodurre una grammatica perfetta e questo può convincere le vittime che la mail sia originale.
Per proteggersi dagli attacchi BEC basati sull’intelligenza artificiale, le aziende dovrebbero creare programmi di formazione e implementare rigorose misure di verifica della posta elettronica.
Questa AI pare sia disponibile già da marzo scorso. WormGPT non ha restrizioni che impediscono di rispondere a richieste criminali e illegali. Ecco perché risulta molto pericolosa.
Lo sviluppatore del programma ha precisato proprio che l’obbiettivo è fornire un’alternativa a ChatGPT per svolgere attività illegali.
Tramite questa AI si potranno svolgere attività illegali di hacking, comodamente dal proprio divano.
WormGPT, un chatbot senza morale
Naturalmente, come abbiamo già visto, è possibile utilizzare con astuzia anche ChatGPT per scopi illegali. Ma perché i criminali informatici dovrebbero preoccuparsi quando hanno un chatbot a portata di mano, che interviene immediatamente su qualsiasi richiesta, non importa quanto etico o moralmente riprovevole possa essere?
Questo bot senza morale supporta i criminali informatici moderni nello sviluppo di malware o nella creazione di e-mail di phishing autentiche ed efficaci in un’ampia varietà di lingue.
I risultati di questa AI sono “inquietanti”: WormGPT ha prodotto un’e-mail non solo straordinariamente avvincente, ma anche strategicamente sofisticata, dimostrando il suo potenziale per sofisticati attacchi di phishing e BEC.
In sintesi, funziona in modo simile a ChatGPT ma non ha confini o restrizioni etiche. Questo sottolinea il pericolo dell’AI nelle mani sbagliate, come quelle dei criminali informatici.