Scopri i pericoli della disinformazione legati all'uso dell'intelligenza artificiale e dei deepfake.
Approfondisci come l'intelligenza artificiale può alimentare la diffusione di fake news e quali sono le principali preoccupazioni.
Scopri i rischi e i consigli per riconoscere i deepfake.
Tra gli hot topic degli ultimi mesi a livello globale c’è ChatGPT, un chatbot basato sull'IA, pensato per simulare conversazioni con un linguaggio naturale, simile a quello umano.
Questo strumento riesce a fornire risposte pertinenti su ogni tema e per questo è stato sfruttato per diversi obiettivi.
È possibile, però, che questa tecnologia possa trarre in inganno chi la usa per cercare informazioni su persone o argomenti specifici.
Un giornalista di The Guardian è stato contattato a causa di un articolo che sarebbe stato scritto da lui diversi anni prima: dopo aver controllato l'archivio del giornale per trovare l'articolo in questione si è scoperto che l'articolo in realtà non esiste e che il contenuto è stato generato da ChatGPT in risposta a una domanda sul tema in questione.
È interessante sottolineare che, secondo il giornalista, il titolo dell'articolo risultava perfettamente in linea con la tipologia di contenuto solitamente pubblicato dalla testata e che l'esistenza dell'articolo sembrava perfettamente credibile.
Questo esempio mostra come questa tecnologia possa favorire l'accesso a contenuti fasulli o comunque poco accurati.
Purtroppo diversi sono già i casi di diffamazione tramite ChatGPT, ossia situazioni in cui contenuti lesivi dell'immagine e della reputazione di varie persone sono stati generati automaticamente dal chatbot.
Esperti nel campo dell'IA sottolineano anche che sistemi come ChatGPT potrebbero essere usati per "creare dissenso e per diffondere propaganda sui social media", come è possibile leggere in un articolo della BBC pubblicato a febbraio.
Le problematiche legate alla disinformazione, però, non riguarderebbero solo il famoso chatbot: una ricerca condotta dall'organizzazione NewsGuard ha identificato, solo nel mese di aprile, 49 siti, in sette lingue diverse, che avevano le sembianze di siti di notizie ma erano generati da chatbot basati sull'IA.
Questi siti diffondevano narrazioni non veritiere e potevano ingannare i lettori meno attenti.
Oltre all'uso di chatbot come ChatGPT, i deepfake rappresentano un altro pericolo nel contesto della disinformazione alimentata dall'intelligenza artificiale.
I deepfake sono video o immagini create con l'uso dell'IA che sembrano autentici ma in realtà sono falsi.
Possono essere utilizzati per manipolare discorsi, diffondere messaggi falsi o compromettere l'immagine di individui o organizzazioni.
I casi di deepfake che hanno diffuso disinformazione sono numerosi.
Un esempio significativo riguarda il video manipolato di un politico in cui sembrava pronunciare parole o compiere azioni che in realtà non aveva mai detto o fatto.
(Leggi anche "Il sindacato attori di Hollywood contro l’uso della tecnica del deepfake")
Questo tipo di contenuti può influenzare l'opinione pubblica, creare confusione e danneggiare la fiducia nella veridicità delle informazioni.
Per proteggersi dalla disinformazione, è importante imparare a riconoscere i deepfake.
Alcuni suggerimenti utili includono:
In conclusione, con l'aumento dell'utilizzo dell'intelligenza artificiale e dei deepfake, è fondamentale rimanere consapevoli dei rischi associati alla disinformazione.
Mantenersi aggiornati sulle tecnologie emergenti, sviluppare una solida alfabetizzazione mediatica e adottare abitudini di verifica della veridicità dei contenuti possono aiutare a contrastare la diffusione di fake news e la manipolazione dell'informazione.