Secondo alcuni ricercatori, ChatGPT può aiutare chi soffre di depressione. Questa condizione spesso porta a un profondo senso di isolamento e le persone che ne soffrono fanno fatica a comunicare i propri sentimenti.

ChatGPT può giocare un ruolo importante nel ridurre questo isolamento. Con la sua capacità di conversare in modo empatico e rispondere alle esigenze emotive, l’IA offre un canale di comunicazione costantemente disponibile per le persone che affrontano la depressione.

Scopriamo i dettagli di questa nuova ricerca.

In che modo ChatGPT può aiutare chi soffre di depressione?

I modelli linguistici che utilizzano l’intelligenza artificiale possono aiutare le persone in molti settori e, come hanno scoperto i ricercatori, possono influenzare positivamente anche la psiche.

Ovviamente ChatGPT non può in alcun modo sostituire un terapista umano e un percorso di terapia cognitivo-comportamentale, ma può aiutare. In che modo?

Ho appena avuto una conversazione personale piuttosto commovente con ChatGPT sullo stress e sull’equilibrio tra lavoro e vita privata“, ha scritto Lilian Weng, responsabile della sicurezza AI presso Open AI, sulla piattaforma X (ex Twitter) alla fine di settembre. “È interessante notare che mi sono sentito compreso e confortato. “Non avevo mai fatto terapia prima, ma probabilmente sarebbe qualcosa del genere“, ha affermato in fine Weng.

Gli esperti di psiche non sono molto d’accordo con quanto detto da Weng. L’obiettivo della psicologia è “migliorare la salute mentale, e questo è un compito difficile”, ribatte Cher Scarlett, sviluppatrice di software e attivista statunitense. Si può avere un rinforzo positivo da ChatGPT, ma non è una terapia.

Cosa hanno scoperto i ricercatori al riguardo?

A questo punto sono intervenuti alcuni ricercatori che hanno pubblicato il loro studio la scorsa settimana sulla rivista Nature Machine Intelligence.

L’idea di Weng di un aiuto psicologico da parte di un’intelligenza artificiale è realistica?

Gli scienziati del Massachusetts Institute of Technology ( MIT ) e dell’Arizona State University hanno diviso 300 soggetti del test in tre gruppi.

Ai soggetti del primo gruppo è stato detto che il loro interlocutore virtuale aveva empatia. Al secondo gruppo è stato detto che il programma era manipolativo e al terzo gruppo è stata presentata la loro controparte artificiale come neutrale.

Il risultato è stato che i soggetti del test che presumevano che il terapista dell’IA fosse empatico erano molto più propensi a valutare positivamente le loro esperienze con l’IA.

Cosa dimostra questo? Che se si è convinti che l’IA abbia benevolenza, empatia, cura, si è sottoposti ad un vero e proprio effetto placebo.

Abbiamo scoperto che i pregiudizi degli utenti determinano il modo in cui viene percepita l’intelligenza artificiale”, ha affermato Pat Pataranutaporn, coautore dello studio.

L’AI può essere pericolosa per l’uomo? Scoprilo cliccando qui.

È da anni che si studia l’Intelligenza Artificiale come aiuto per la salute mentale

Il primo interlocutore artificiale, un chatbot chiamato ELIZA, è stato sviluppato negli anni ’60 per simulare una sorta di psicoterapia. E già prima di ChatGPT sono arrivate sul mercato numerose app destinate ad aiutare la salute mentale, come ad esempio Replika.

Coloro che l’hanno utilizzata, però, si sono sempre lamentati del fatto che il programma era incentrato sul sesso e lo manipolava.

L’organizzazione no-profit statunitense Koko ha condotto a febbraio un esperimento con 4.000 pazienti a cui è stata fornita consulenza utilizzando l’AI GPT-3. Si è scoperto che le risposte automatizzate non erano adatte come terapia. “L’empatia simulata sembra strana e inutile”, ha scritto il co-fondatore di Koko Rob Morris sulla piattaforma X.

Questo significa che questa empatia finta, fittizia e lontana dall’umanità, non risolve i problemi di chi soffre di depressione.

Anche lo studio del MIT e dell’Arizona State è arrivato a risultati simili. Alcuni partecipanti si sentivano come se stessero “parlando con un muro”.

ChatGPT contro l’isolamento sociale

Avere delle conversazioni con ChatGPT può aiutare contro l’isolamento sociale?

Se così potrebbe sembrare in realtà, invece, la situazione potrebbe peggiorare.

In alcuni studi effettuati negli Stati Uniti, Taiwan, in Indonesia e in Malesia, è stata riscontrata una connessione spaventosa tra il lavoro frequente con i sistemi di intelligenza artificiale e la solitudine.

“I rapidi progressi nei sistemi di intelligenza artificiale stanno innescando una nuova rivoluzione industriale che sta rimodellando il posto di lavoro con molti vantaggi ma anche alcuni pericoli sconosciuti, inclusi effetti psicologici e fisici potenzialmente dannosi per i dipendenti“, afferma il leader dello studio Pok Man Tang dell’Università della Georgia, aggiungendo: “Gli esseri umani sono creature sociali e isolare il lavoro attraverso i sistemi di intelligenza artificiale può avere effetti dannosi sulla vita personale dei dipendenti“.

Uno studio condotto su ingegneri di un’azienda biomedica taiwanese e consulenti immobiliari indonesiani ha rivelato che l’interazione frequente con sistemi di intelligenza artificiale può avere un impatto significativo sul benessere emotivo.

I partecipanti che interagivano regolarmente con l’IA mostravano un aumento della solitudine, problemi di insonnia e un maggiore consumo di alcol dopo il lavoro. Tuttavia, questi stessi partecipanti dimostravano comportamenti utili e pronti ad aiutare nei confronti dei colleghi.

Gli esperimenti hanno suggerito che l’IA può portare a una sorta di isolamento emotivo. Mentre il leader dello studio, il Prof. Pok Man Tang, suggerisce di dotare l’IA di funzioni sociali per mitigare questi effetti negativi, rimangono domande su come bilanciare l’interazione umana con l’IA senza creare un ulteriore senso di solitudine.

È chiaro che, con la crescente diffusione dell’intelligenza artificiale, è necessario affrontare questo problema in modo proattivo per garantire il benessere delle persone coinvolte.