Nel tecnologico mondo dell’Intelligenza Artificiale (IA), in costante evoluzione e rapido sviluppo, i rischi allarmano sempre di più l’utenza, in gran parte ignara dei veri pericoli con cui dovremo fronteggiare in futuro.

Tag24 ha avuto l’occasione di intervistare il Prof. Pierluigi Contucci, ordinario di Fisica-Matematica all’Università di Bologna e autore del libro Rivoluzione Intelligenza Artificiale: Sfide, Rischi e Opportunità, pubblicato da Dedalo.

Il professore ha offerto una prospettiva illuminante sui progressi tecnologici, esplorando le sfide etiche e i rischi connessi a questa rivoluzione digitale.

Intelligenza artificiale, quali sono i rischi? Fantascienza e realtà

D: Quali sono, i principali rischi associati allo sviluppo dell’ intelligenza artificiale? C’è una particolare diffidenza di alcune persone nei confronti dell’intelligenza artificiale, molti vedono ad un futuro completamente dominato dalle macchine o in cui l’umano non esercita più il suo intelletto, rischiamo davvero questo pericolo?

R: Di rischi ce ne sono di ordini diversi. C’è il rischio, tutto immaginato, sulla paura che le macchine ci distruggano, diventino coscienti, decidano di non spegnersi. Ecco, questi li chiamo i rischi fantascientifici. Sono scene che vediamo nei film di fantascienza e che certamente spaventano le persone che di AI non sanno nulla o sanno poco.

Un rischio come questo, del robot cattivo che si distrugge e non si spegne più, è un rischio che appartiene ad un futuro non immediato. Questo non lo calcolerei perché bisognerebbe essere “frate indovino” per rispondere a quanto effettivamente è reale.

Intelligenza artificiale: i problemi etici e privacy

Nell’intervista, cerchiamo di comprendere meglio le implicazioni dell’IA nella società odierna, focalizzandoci allora su quelli che sono i problemi effettivi, i pericoli realmente presenti. Il Prof. Contucci continua ad illustrare:

Ci sono poi dei rischi molto attuali, molto presenti. Sono di due ordini.

Per esempio, quello che l’utilizzo dell’intelligenza artificiale possa essere fatto con criteri non etici. In California è stata vietata la videosorveglianza automatica da intelligenza artificiale. Questo perché se tutte le telecamere collegate alle banche o agli incroci per vedere chi fa infrazioni fossero collegate a un cervello elettronico centrale che controlla tutte le facce, siccome tutte le facce possono essere riconosciute in automatico dall’intelligenza artificiale, sarebbe come andare in giro con uno di quei braccialetti da piede dei sorvegliati speciali, le persone in libertà vigilata.

Questo viola le regole attualmente presenti dei cittadini degli stati democratici. Il governo deve rispettare la nostra privacy, quindi noi non vogliamo che si sappia dove siamo anche se facciamo la nostra normale vita quotidiana.

Se l’AI venisse usata con scopi lesivi della nostra privacy, farebbe danno, perché non tutti i governi aderiscono alle stesse regole. Questo è uno dei rischi legato alla capacità dell’intelligenza artificiale di riconoscere le immagini e i volti.

Uno dei rischi, che è molto più recente, è emerso da quando è uscito ChatGpt, uno dei Large Language Model.

Quest’intelligenza artificiale in particolare è un amabile conversatore. Questi Large Language Language Model potrebbero essere addestrati non da una compagnia che vuole guadagnare come Open IA e vuole introdurre uno strumento utile all’uomo, potrebbero essere addestrati in modo malizioso, per esempio per diffondere disinformazione.

Allora, la disinformazione online che conosciamo è quella che arriva in rete causata dagli utenti o da qualche strumento automatico, ma di capacità limitate. Se invece il Large Language Model si mettesse a distribuire disinformazione, avrebbe un impatto talmente violento sulla società, potrebbe allarmare in modo così forte che metterebbe a rischio anche la tenuta democratica dei governi. Quindi questi due sarebbero i rischi più concreti.”

Intelligenza artificiale e posti di lavoro a rischio?

 Con il Prof. Contucci abbiamo anche approfondito una delle questioni più cruciali legate all’Intelligenza Artificiale: l’impatto sui posti di lavoro:

“C’è in realtà un terzo rischio: quello che l’intelligenza artificiale ci sostituisca. Per esempio, qualche anno fa si temeva che l’intelligenza artificiale avesse potuto portare alla guida autonoma in tempi molto brevi. In Europa, consideriamo che ci sono circa 10 milioni di autisti, persone che guidano autoveicoli di mestiere. E’ chiaro che se questi si ritrovassero dall’oggi al domani senza lavoro, non sarebbe una cosa facile. L’intelligenza artificiale è una rivoluzione, come quella del motore.

Il rischio della perdita di lavoro con l’intelligenza artificiale è un rischio presente che va controllato, tutelato, attutito. Anche qui però, l’allarmismo è più grande del reale impatto di queste macchine, perché in generale la macchina semplicemente agevola il lavoro dell’uomo, ma non lo sostituisce.

Nel campo dell’editoria c’è preoccupazione da parte di editori e giornalisti riguardo alla velocità con cui si possono scrivere articoli velocemente con ChatGpt. Si teme che questo possa far crollare l’offerta di lavoro verso questo mondo, provocando licenziamenti. Tuttavia, c’è da considerare che la macchina scrive, ma che questa non ha la responsabilità giuridica ed etica che ha l’essere umano.

Queste due restano comunque nelle mani di chi scrive, ovvero il giornalista, anche se si è fatto aiutare da Chatgpt. E’ responsabilità del giornalista controllare che le informazioni suggerite corrispondano al vero, se sono informazioni su fatti, perché sappiamo che queste macchine soffrono di allucinazioni: ogni tanto si inventano irreali.

Come funziona l’intelligenza artificiale?

D: La natura di questa intelligenza artificiale lei afferma nel libro Rivoluzione Intelligenza Artificiale: Sfide, Rischi e Opportunità che è diversa dalla nostra, in che senso, come lo definirebbe il loro modo di pensare?

R: Quando l’essere umano ha inventato il motore, è diventato possibile il volo che era stato un sogno dell’uomo per secoli. L’uomo non riesce a volare se non ha un motore, perché non ha una struttura corporea che glielo permette. Però quando il motore è arrivato, l’uomo è riuscito a volare con l’aereo, con l’elicottero, con tanti altri mezzi.

Il volo umano e quello degli uccelli sono diversi, anche se sono voli tutti e due. L’intelligenza umana e l’intelligenza artificiale sono profondamente e strutturalmente diverse, per adesso, nel senso che le macchine non sono riuscite a raggiungere quelle capacità, peculiari che l’evoluzione biologica ha permesso di raggiungere al cervello umano.

Un Large Language Model come ChatGpt è un chiacchierone. Sa un sacco di cose perché ha assorbito tantissimi documenti scritti dagli esseri umani, però non possiamo dire che li abbia veramente capiti e li abbia veramente sottoposti a un criterio dell’intelligenza umana: il criterio della logica e della sintesi è un qualcosa di unico. Sono due intelligenze diverse per loro natura.

Quali saranno le AI del futuro?

D: Quali tipi di AI saranno sempre più predominanti in futuro?

R: L’intelligenza che riconosce l’immagine e quella che è in grado di entrare nel linguaggio umano come ChatGpt saranno le due forme più presenti. Quella che si imporrà nel futuro sarà una sintesi delle due: Le macchine che riusciranno a riconoscere l’immagine e a parlare. Se noi pensiamo, ad esempio, ad un robot che ci aiuta nel fare i lavori domestici, allora quel robot dovrà essere in grado di capire le nostre istruzioni con la voce, le parole, ma anche riconoscere le immagini quando si muove per casa. Dovrà vedere dov’è il lavandino, dov’è lo straccio, l’aspirapolvere e così via.

Il Prof. Contucci ci ha guidato così in un viaggio illuminante e concreto nella comprensione approfondita dei pericoli concreti che accompagnano l’evoluzione tecnologica.

Scopri anche l’impatto delle AI sul sistema sanitario.