Le Nazioni Unite considerano i media che diffondono contenuti e news generati dall’intelligenza artificiale come una grave minaccia all’integrità delle informazioni, specialmente quando questi vengono diffusi sui social network e risultano fake.

Entriamo nei dettagli e vediamo perché le fake news generate dall’AI sono una minaccia e quali misure vuole prendere l’ONU.

L’ONU preoccupata per le fake news generate dall’AI

In un rapporto del 12 giugno, l’ONU ha dichiarato che l’avanzamento della tecnologia, come l’intelligenza artificiale generativa, ha aumentato il rischio di disinformazione online. In particolare, i deepfake sono stati identificati come una minaccia significativa.

Il rapporto evidenzia che le informazioni false e l’incitamento all’odio generati dall’intelligenza artificiale vengono presentati in modo convincente agli utenti come se fossero fatti reali.

Il mese scorso, ad esempio, un’immagine generata dall’intelligenza artificiale e una notizia falsa su un’esplosione vicino al Pentagono hanno influenzato brevemente l’S&P 500. Questo per far comprendere a tutti il potere incredibile dell’AI, quando viene utilizzata per scopi illeciti.

Fake news generate dall’AI: l’ONU prende misure urgenti

Le Nazioni Unite hanno invitato gli attori nel campo dell’IA ad agire contro la diffusione di informazioni false. È necessario adottare misure “urgenti e immediate” per garantire un uso responsabile di questa tecnologia.

Il segretario generale dell’ONU, António Guterres, ha sottolineato che “i campanelli d’allarme” stanno suonando forte e non possono essere ignorati, visto che gli stessi sviluppatori che mettono in guardia contro i rischi della tecnologia.

Guterres ha annunciato che l’ONU svilupperà un codice di condotta sull’integrità delle informazioni sulle piattaforme digitali. Il codice sarà redatto in vista del futuro vertice “Summit of the Future“, previsto per settembre 2024.

Il rapporto redatto da Tony Blair, ex primo ministro britannico, e William Hague, politico del partito conservatore, sottolinea che i governi del Regno Unito, degli Stati Uniti e di altri paesi alleati dovrebbero collaborare per creare un nuovo quadro delle Nazioni Unite che garantisca adeguate salvaguardie per ogni singolo stato.

Secondo Blair e Hague, l’intelligenza artificiale potrebbe diventare la sfida politica più grande di tutti i tempi, poiché il suo sviluppo è imprevedibile e sempre più potente; infatti, se usata male, potrebbe essere pericolosa per l’uomo.

L’AI potrebbe aiutare contro la disinformazione

Affinché l’AI possa riconoscere la disinformazione, deve essere addestrata utilizzando set di dati creati da esseri umani. Attraverso questi dati, l’AI apprende cosa costituisce la disinformazione e cosa no.

Per fare questo è importante sviluppare un’intelligenza artificiale in grado di riconoscere gli stati d’animo, inclusi le emozioni e le espressioni di opinione.

L’AI analizza i contenuti come testi, video e immagini, ma è particolarmente complesso per lei identificare i riferimenti incrociati. Quando immagini e testo vengono combinati, possono assumere un significato completamente diverso. Inoltre, le strutture delle reti possono fornire indizi sulla disinformazione.

L’intelligenza artificiale può anche analizzare i collegamenti tra gli account utente o le reazioni a un post. Un’analisi di risonanza mostra se gli utenti reagiscono in modo neutrale, critico o confermano il contenuto.

Tuttavia, la disinformazione stessa è un concetto sfumato, ma l’AI, in questo, potrebbe supportare certamente il lavoro umano. Il centro di ricerca Correctiv sta collaborando con l’Università della Ruhr di Bochum e l’Università tecnica di Dortmund per sviluppare un progetto in cui l’IA supporta i partecipanti nella classificazione delle informazioni e nella ricerca di quelle veritiere.

L’identificazione della disinformazione da parte dell’intelligenza artificiale è un processo complesso che richiede l’addestramento dell’IA con set di dati creati dagli esseri umani.