Intelligenza artificiale e salute mentale: tra rischi e opportunità

L’AI può aiutare nella cura psicologica, ma senza regole e supervisione rischia di diventare una minaccia per la salute pubblica

Foto di Donatella Ruggeri

Donatella Ruggeri

Psicologa

Psicologa, fondatrice di “Settimana del Cervello”. È una nomade digitale: lavora da remoto e lo fa viaggiando.

Pubblicato:

Negli ultimi mesi alcuni fatti di cronaca hanno acceso i riflettori su un fenomeno allarmante: persone che, in momenti di profonda fragilità, hanno parlato con sistemi di intelligenza artificiale prima di togliersi la vita. Si tratta per fortuna di episodi isolati, certo, che però innescano domande urgenti sul rapporto tra intelligenza artificiale e salute mentale.

In Italia e nel mondo, infatti, cresce il numero di chi si affida a chatbot e piattaforme digitali come “psicoterapeuti virtuali” per comodità, accessibilità o discrezione.

L’intelligenza artificiale si trova così in una posizione ambivalente: da una parte ne riconosciamo le grandi potenzialità, dall’altra non ne sappiamo ancora abbastanza da poterla integrare nella nostra vita in modo potenziante, senza che sia fonte di nuovi pericoli!

Psicoterapia e tecnologia

Grazie all’avvento delle piattaforme online e alla spinta del covid, negli ultimi anni sempre più persone hanno iniziato a sperimentare la psicoterapia online. Dal 2020 ad oggi si stima infatti che oltre 3 milioni di italiani abbiano fatto almeno una seduta di psicoterapia online.

È un cambiamento culturale, prima che tecnologico, che ci dice che sempre più persone percepiscono il digitale non come un “ripiego”, ma come un’ulteriore possibilità di prendersi cura di sé, spesso più economica e compatibile con la vita e il caos di tutti i giorni.

Stiamo però ancora parlando di sedute (seppur online) condotte da specialiste e specialisti sanitari con adeguata formazione ed esperienza. Per comprendere come si stanno evolvendo le preferenze e gli atteggiamenti verso le diverse modalità di trattamento psicologico, è utile guardare a uno studio condotto negli Stati Uniti e pubblicato su Nature nel 2019.

Questo studio ha analizzato le preferenze degli adulti confrontando:

  • la terapia tradizionale in presenza;
  • la terapia digitale guidata da esperti;
  • la terapia digitale auto-guidata.

I risultati mostrano che il 25.6% delle persone intervistate preferisce trattamenti digitali auto-guidati (ossia programmi terapeutici online o app che non coinvolgono alcun professionista in tempo reale) mentre il 19.7% predilige la terapia digitale guidata da esperti, cioè software sviluppati e supervisionati da professionisti della salute mentale ma senza un’interazione diretta e continua con il terapeuta umano.

Quindi la terapia tradizionale resta la scelta principale per la maggioranza, ma la disponibilità ad affidarsi all’intelligenza artificiale o ai programmi digitali è aumentata negli ultimi anni anche per motivi come immediato accesso, riservatezza e riduzione dell’imbarazzo.

ChatGPT, Gemini e “le altre”

Quando parliamo di intelligenza artificiale applicata alla salute mentale, è importante distinguere tra due tipologie di strumenti.

Da una parte ci sono intelligenze artificiali generaliste, ovvero chatbot come ChatGPT, Gemini o Claude, che sono accessibili tramite smartphone e che vengono usate in modo autonomo dall’utente; dall’altra ci sono le AI sviluppate e supervisionate da università e centri di ricerca specializzati, come quelle impiegate in studi clinici o in progetti di ricerca avanzati.

Per quanto riguarda le prime, ovvero le quelle generaliste, sembra che le persone le trovino utili per gestire momenti di ansia, stress o semplici dubbi, ma la mancanza di supervisione clinica può far sì che queste AI offrano consigli inappropriati o addirittura dannosi, facciano diagnosi errate o rinforzino comportamenti disfunzionali, ad esempio assecondando l’utente invece di sfidarne i pensieri.

Questo accade perché tali AI generano risposte basate su modelli statistici e pattern linguistici, senza una vera comprensione semantica o empatica; non hanno, ad esempio, la capacità di mettere in discussione le convinzioni disfunzionali. In terapia, al contrario, il percorso non mira a confermare ciò che si crede, ma a mettere in discussione e rielaborare i propri pensieri e comportamenti per promuovere cambiamenti positivi nella relazione con se stessi e gli altri.

Per questo motivo, affidarsi a chatbot generici senza supporto professionale può trasformarsi in una trappola, soprattutto nelle situazioni di fragilità emotiva o rischio.

Un rischio aggiuntivo è infatti che alcune persone già poco inclini ad accettare il processo terapeutico di messa in discussione possano irrigidire ulteriormente i propri pensieri e atteggiamenti.

L’interazione con i chatbot, infatti, può creare una sorta di “camera dell’eco” in cui le convinzioni disfunzionali vengono rinforzate. In questi casi, l’utente trova un’affermazione continua alle proprie idee e ciò può aggravare il disagio psicologico invece di alleviarlo. L’uso delle AI non supervisionate può quindi consolidare la resistenza al cambiamento e impedire l’avvio di un vero percorso terapeutico, che dovrebbe ambire alla crescita e alla trasformazione.

Dall’altra parte, dicevamo, ci sono invece le AI sviluppate e supervisionate da università e centri di ricerca specializzati, come quelle impiegate in studi clinici o in progetti di ricerca avanzati.

Sono AI meno note e probabilmente meno utilizzate, che sono state però appositamente progettate con rigorosi protocolli clinici e spesso validate con studi scientifici e sotto la supervisione di professionisti della salute mentale. Per esempio, alcuni sistemi utilizzano algoritmi di apprendimento automatico e analisi del linguaggio naturale sviluppati in ambito accademico per assistere nella diagnosi precoce o nella personalizzazione delle terapie, ma sempre in un contesto controllato e supervisionato.

Per questo, sono in grado di offrire un supporto più sicuro e personalizzato per la diagnosi e il trattamento.

Altri rischi delle AI

Oltre ai rischi legati ai chatbot generici, è necessario sapere che anche le AI sviluppate in ambito specialistico non sono ancora in grado di gestire efficacemente situazioni di crisi acuta come ideazione suicidaria o episodi psicotici, che richiedono un intervento umano immediato e qualificato.

L’uso intenso e isolato di AI può inoltre portare anche a distorsioni della percezione della realtà (“psicosi da AI”), con possibili effetti negativi soprattutto nelle persone vulnerabili.

A ciò si aggiungono preoccupazioni sulla privacy dei dati raccolti, spesso non sufficientemente tutelati, e il rischio che un uso eccessivo di intelligenza artificiale nella salute mentale possa de-personalizzare e automatizzare troppo il rapporto terapeutico, impoverendo la dimensione umana e relazionale insostituibile nella cura psicologica.

Per questi motivi, l’AI va considerata come uno strumento di supporto al professionista, non come un sostituto del percorso terapeutico umano.

Gli innegabili benefici delle AI

Se guardiamo solo ai rischi però non stiamo guardando con sincerità al quadro completo; oggi, infatti, sappiamo che:

  • gli algoritmi possono intercettare segnali precoci di disagio psicologico a partire da un’analisi del linguaggio, delle espressioni emotive o dei comportamenti online;
  • le app basate su AI mostrano riduzioni significative dei sintomi di depressione (circa 51%) e ansia (31%), con una buona percezione di alleanza terapeutica;
  • nei territori dove mancano psicologi, la tecnologia può garantire un supporto minimo e accessibile;
  • la cosiddetta emotional AI aiuta a leggere gli stati emotivi e a proporre esercizi mirati.

Per concludere, quindi, acquisendo una posizione critica e moderata possiamo dire che l’intelligenza artificiale in salute mentale non è né un nemico da combattere, né una bacchetta magica che risolve tutto.

È uno strumento diversificato, capace di aprire possibilità reali per la prevenzione, il supporto e la cura. Ma per non essere pericolosa serve investire nella ricerca, identificare delle regole e degli spazi di azione sicuri e, soprattutto, riconoscere che per il momento la presenza umana è ancora insostituibile.

Forse tra qualche tempo troveremo la strada, fino ad allora la cosa migliore è l’ibrido persona-macchina: una collaborazione in cui l’AI amplia le possibilità della cura, ma il cuore resta quello dell’incontro umano.