ChatGPT è stata una vera rivoluzione! Acclamata, adorata, utilizzata, lodata, guardata con pregiudizio, criticata, condannata. Fino a quando, in Italia, per problemi reali di privacy il Garante ha richiesto maggiori garanzie e l’azienda fondatrice ha deciso di interromperla fino a nuove decisioni.

Ed è maggiormente in questo periodo che molti si stanno chiedendo se l’AI può essere pericolosa per il futuro dell’uomo oppure no. Condizionati, forse, anche da qualche film distopico sull’argomento. Scopriamo di più nell’articolo.

L’AI può essere pericolosa per il futuro dell’uomo? Scopri cosa ha detto l’AD di Google

L’Amministratore Delegato di Google, Sundar Pichai, durante un’intervista a 60 Minutes e riportata dall’ANSA, si è lasciato andare ad una dichiarazione molto forte: per l’AI, secondo Pichai, servirebbero norme di regolamentazione simili a quelle usate per l’utilizzo delle armi nucleari.

Secondo l’AD di Google, la voglia di innovazione, di progresso, di competizione tecnologica nel campo dell’Intelligenza Artificiale, potrebbe far perdere di vista i timori per la sicurezza dell’umanità.

Ma perché Sundar Pichai e Google hanno questo timore? Perché pare che l’Intelligenza Artificiale abbia imparato una lingua straniera senza che gli ingegneri l’avessero programmata per farlo. Il fatto che l’AI abbia fatto qualcosa per la quale non è stata addestrata, fa sorgere dubbi e timori.

Il CEO di Google ha affermato che ci sono alcune cose misteriose sull’AI che nemmeno gli esperti e gli sviluppatori possono spiegare. “C’è un aspetto che chiamiamo la ‘scatola nera’ nel settore“, afferma Pichai nella stessa’intervista.

L’AI può essere pericolosa per il futuro dell’uomo perché fa cose per le quali non è stata addestrata

Come ha spiegato anche il Vice Presidente Senior di Google, James Manyika, all’AI sono state date alcune frasi in bengalese (senza che gli ingegneri l’avessero programmata alla comprensione di questa lingua) con il risultato che l‘Intelligenza Artificiale è stata improvvisamente in grado di tradurre interi testi in bengalese.

Queste cosiddette proprietà emergenti si verificano ripetutamente nelle intelligenze artificiali e continuano a rappresentare un enigma per gli sviluppatori, perché non sempre possono essere spiegate e comprese.

L’AI può essere pericolosa per il futuro dell’uomo? Forse può esserlo per queste caratteristiche

L’AI ha delle caratteristiche “pericolose” perché potrebbero finire fuori controllo. Vediamole.

  1. L’intelligenza artificiale non è empatica
    L’empatia è la capacità di comprendere e condividere i sentimenti di un’altra persona. Questa è un’abilità che l’AI non potrà mai avere;
  2. L’intelligenza artificiale può manipolare le persone e la tecnologia
    La manipolazione dei veicoli autonomi è una delle principali preoccupazioni pubbliche. Questo perché le tecnologie abilitate all’intelligenza artificiale sono imperfette e possono essere manipolate;
  1. Le tecnologie basate sull’intelligenza artificiale non sono in grado di comprendere il contesto o formulare giudizi in situazioni insolite, perché gli algoritmi sono spesso distorti.
  1. C’è una mancanza di trasparenza e responsabilità nel processo decisionale dell’AI e questo è un grosso problema;
  2. La questione dei problemi morali con l’IA è molto importante. La possibilità di armarsi autonomamente è un ottimo esempio. E se non ci fossero leggi o regolamenti per fermare lo sviluppo di queste armi? E possibile che i militari possano usarle per uccidere il nemico senza preoccuparsi di danni collaterali;
  1. L’intelligenza artificiale ha un impatto negativo sui posti di lavoro. Si stima che l’intelligenza artificiale occuperà più di un terzo di tutti i posti di lavoro entro il 2025. Non sorprende che le persone abbiano paura di questo;
  2. L’intelligenza artificiale pone rischi per la sicurezza. Gli algoritmi sono vulnerabili agli attacchi degli hacker. Ciò significa che gli hacker possono creare profili falsi sui social media o sulle app di chat per rubare informazioni a utenti ignari;
  1. Mancano linee guida etiche per garantire che questi sistemi possano essere usati in sicurezza. La mancanza di linee guida etiche per garantire che questi sistemi siano sicuri da usare è una delle principali preoccupazioni.

In conclusione l’AI offre numerose opportunità di miglioramento e di sviluppo, ma esistono anche delle sfide importanti da gestire. Il futuro dell’umanità dipenderà dalla capacità di trovare un equilibrio tra la sicurezza, l’etica e l’innovazione tecnologica.