Cosa sono i Deepfake? Queste nuove tecnologie permettono di elaborare immagini digitali che possono diventare una vera e propria minaccia per la nostra sicurezza.
Sempre più spesso infatti si vedono su internet o sui profili social immagini o video opportunamente artefatti in modo da sembrare autentici quando in realtà si tratta di falsi.
Lo scopo spesso non è solo quello di diffondere informazioni errate ma anche mettere in cattiva luce il soggetto ritratto. Lo sviluppo dell’intelligenza artificiale ha fornito una tecnologia più veloce per elaborare questi contenuti.
Il rischio è che con la diffusione di questi servizi basati su IA abbia facilitato le operazioni per estorcere denaro e truffare le persone.
Oggi infatti i software di generazione automatica di immagini e fotomontaggi hanno raggiunto una qualità davvero impressionante. Ad una prima occhiata, spesso l’osservatore non è in grado di distinguere se si tratti di un contenuto autentico o di un deepfake.
Vediamo allora come vengono elaborati queste immagini e quali sono i rischi in cui gli utenti possono correre.
Cosa sono i deepfake: il significato del termine
I deepfake sono il risultato di una sofisticata combinazione tra l’immagine di una persona sovrapposta ad un contesto a cui non appartiene realmente. In questo modo è possibile riprodurre una foto o un video il cui soggetto avrà le stesse caratteristiche somatiche di un’altra persona.
Le elaborazioni tecniche moderne consentono facilmente di replicare non solo la faccia della persona raffigurata ma ad esempio farle muovere la bocca in maniera sincronizzata con parole in realtà mai proferite.
Il termine deepfake è stato coniato nel 2017 e deriva dai vocaboli anglosassoni “fake”, ovvero falso, e “deep learning”, vale a dire la tecnica utilizzata per produrre questi contenuti.
Le immagini o video fasulli sono infatti realizzati attraverso un sofisticato procedimento di apprendimento automatico delle caratteristiche fisiche del soggetto da trasferire sul volto di altra persona. Tale tecnica è nota come rete antagonista generativa.
Se da un lato i deepfake sono nati per perseguire più nobili obiettivi, recentemente questa tecnica è sempre più frequentemente utilizzata per generare fake news, notizie di satira, ma anche per compiere truffe, raggiri estorsivi e anche revenge porn.
Come funziona
Inizialmente lo sviluppo dei software di deepfake era affidato ad un ramo dell’informatica chiamato visione artificiale. Il progetto accademico si poneva l’obiettivo di sovrapporre il viso di un personaggio ad un soggetto di un video, per realizzare un fotomontaggio molto verosimile.
Purtroppo con il passare del tempo la tecnica è stata adottata anche per usi impropri. Specialmente su forum e siti di social news sono apparsi sempre frequentemente più video fasulli di personaggi famosi in contesti ironici. In molti casi però i volti delle celebrità venivano sostituiti a quelli di attrici in scene pornografiche.
Ci sono diverse tecniche di realizzazione deepfake. La più efficace ed utilizzata si basa su una rete neuronale. Questo meccanismo sfrutta software di autoencoder, capace di analizzare un video o un’immagine, di elaborare i tratti somatici di un individuo da diverse angolazioni e proiterrarle su un altro soggetto.
I pericoli
La tecnologia del deepfake se non usata nella maniera più corretta può diventare un enorme pericolo. I rischi principali sono soprattutto in termini di violazione della privacy. Nella stragrande maggioranza dei casi i volti vengono utilizzati senza il consenso della persona.
In questo caso il deepfake è un vero e proprio furto di identità.
Chi è vittima di deepfake subisce non solo un danno di privacy ma vengono sottratte del controllo sulle loro idee o, nei casi peggiori, apparire in contesti compromettenti.
Tante altre volte questo metodo viene strumentalizzato per diffondere fake news e disinformazione.
La divulgazione di materiale deepfake non è ancora un reato perseguibile per legge ma nel Regno Unito la diffusione di contenuti pornografici di questo tipo è equiparata ad una molestia sessuale.