L’Intelligenza Artificiale potrebbe far estinguere l’umanità. E questo avvertimento non arriva da qualche complottista dell’ultima ora, ma dagli stessi ideatori dell’AI.
Il pericolo, dunque, è reale e non è fantascienza. Cosa potrebbe accadere in futuro? Ecco i dettagli.
Gli ideatori dell’AI: l’estinzione dell’umanità è realtà
Sam Altman, AD di OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind e Dario Amodei di Anthropic, sono tutti concordi: Intelligenza Artificiale ed estinzione dell’umanità è una realtà.
“Mitigare il rischio di estinzione dovuta all’Intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare“: è la dichiarazione pubblicata sul Center for AI Safety, un’organizzazione americana che riunisce esperti attivi nel settore.
Tra i firmatari anche Geoffrey Hinton, uno dei padri dell’IA, il fisico Roberto Battiston dell’Universitàdi Trento e Luca Simoncini, ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche.
Scopri come l’AI può essere pericolosa per l’uomo, cliccando qui.
Da cosa dipenderà l’estinzione dell’umanità?
Secondo il professor Battiston, l’estinzione dell’umanità non avverrà a causa di una guerra con una super intelligenza, ma a causa dell’uomo stesso che verrà sopraffatto dall’utilizzo dell’AI.
“Pensiamo alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione“, secondo Battiston non si può fare finta di nulla e non ci si può far trovare impreparati a queste situazioni.
Secondo il professor Simoncini, invece, l’uso allargato dell’AI impatterà in modo incontrollato su tanti settore: le fake news, l’economia, la finanza, la politica, l’etica. Con danni inenarrabili.
Con queste riflessioni non si vuole bloccare l’innovazione e l’evoluzione della tecnologia. Si sa che, se l’utilizzo avviene per scopi nobili e benefici, non c’è nulla di cui avere paura. Ma se così non fosse?
Questa denuncia, secondo Simoncini, è pari al manifesto nel quale Bertrand Russell e Albert Einstein nel 1955 denunciavano i rischi delle armi nucleari. Insomma verso l’AI bisogna avere la stessa attenzione che si avrebbe verso le armi nucleari.
Estinzione dell’umanità: la preoccupazione di OpenAI
La società Open AI, creatrice di Chat GPT è estremamente preoccupata dai potenziali pericoli dell’intelligenza artificiale (AI). Sta quindi riunendo una nuova squadra per prevenire queste minacce. Il team mira a garantire che i sistemi advanced di intelligenza artificiale funzionino a vantaggio delle persone e non contro di loro.
Open AI ha affermato: “Attualmente, non abbiamo alcuna soluzione per governare o controllare un’IA potentemente super intelligente e impedire che diventi una canaglia“, scrivono il co-fondatore di Open AI Ilya Sutskever e il co-responsabile del nuovo team Jan Leike sul loro blog.
Un’AI Super Intelligente potrebbe portare all’impotenza umana o addirittura all’estinzione umana, secondo gli stessi esperti.
Il nuovo team di ricerca di Open AI prevede di utilizzare il 20% del tempo e dell’energia per prevenire tale minaccia.
Anche altre importanti figure tecnologiche, tra cui Elon Musk, hanno lanciato l’allarme sulla regolamentazione dell’AI. Musk ha chiesto una pausa di sei mesi, ma da molti è stato visto come uno stratagemma per recuperare il ritardo.
Il CEO di Open AI, Sam Altman, ha chiesto a lungo a tutte le autorità governative di mettere al primo posto la regolamentazione dell’AI, dicendo: “Contenere il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale insieme ad altri rischi per la società come le pandemia e la guerra nucleare“.