L’ingresso dell’intelligenza artificiale generativa nello spazio della salute mentale è ormai un fatto strutturale. Milioni di persone utilizzano chatbot generalisti e applicazioni di wellness per affrontare stress, solitudine, ansia, difficoltà relazionali e altri bisogni psicologici rimasti senza risposta.

Il motore di questa espansione è noto: carenza di professionisti, accesso diseguale ai servizi, costi, stigma e disponibilità continua di strumenti digitali facili da usare.

Ma il documento dell’American Psychological Association del novembre 2025 introduce una correzione decisiva al dibattito pubblico: la crescente diffusione di queste tecnologie non coincide con una loro validazione clinica.

Anzi, gran parte degli strumenti usati dai consumatori non è stata progettata per erogare psicoterapia, valutazione diagnostica o trattamento psicologico.

L’APA distingue con precisione tre categorie. La prima comprende i chatbot generativi di uso generale, nati per recupero di informazioni, produttività o intrattenimento e non per la salute mentale.

La seconda include le wellness app che usano GenAI, sviluppate per stress o benessere emotivo ma spesso non regolamentate come dispositivi medici.

La terza riguarda le app di benessere non basate su IA, anch’esse non destinate al trattamento di disturbi mentali.

Questa distinzione è metodologicamente importante: evita di confondere strumenti consumer con tecnologie cliniche validate o con digital therapeutics regolamentate.

Da questo punto deriva la prima conclusione che possiamo definire importante, ossia:

“chatbot e wellness app non devono essere usati come sostituti della psicoterapia o della cura psicologica qualificata”.

Possono, in casi circoscritti e sotto supervisione, svolgere un ruolo aggiuntivo; non possono essere assunti come equivalenti di un professionista sanitario.

La letteratura riportata nel PDF segnala alcuni risultati favorevoli per strumenti progettati specificamente per il supporto psicologico, con riduzioni auto-riferite di stress, ansia e sintomi depressivi in alcuni contesti sperimentali.

Tuttavia, le review più recenti sul ruolo della GenAI in psichiatria e salute mentale convergono su un punto: la base empirica resta ancora limitata, eterogenea e insufficiente per sostenere un uso sostitutivo o generalizzato.

Le ragioni di questa cautela sono clinicamente solide. L’advisory APA elenca diversi rischi strutturali.

  • Il primo è la falsa alleanza terapeutica. La relazione terapeutica umana è uno dei predittori più robusti dell’esito del trattamento; un sistema artificiale può simulare ascolto, continuità e validazione, ma non possiede responsabilità etica, giudizio clinico, competenza relazionale contestuale né capacità di modulare sostegno e confronto nel reale interesse del paziente.
  • Il secondo rischio è quello di bias e disinformazione: molti modelli sono addestrati su grandi quantità di dati non clinicamente validati, con contenuti potenzialmente distorti sul piano culturale, etnico, di genere o diagnostico.
  • Il terzo riguarda la rappresentazione ingannevole del servizio: alcuni prodotti possono suggerire, esplicitamente o implicitamente, capacità “terapeutiche” non dimostrate. Il quarto è l’incompletezza della valutazione clinica: un chatbot non coglie in modo affidabile il complesso intreccio di segnali verbali, non verbali, storici, relazionali e contestuali su cui si fonda la pratica clinica. Il quinto è la gestione inaffidabile della crisi, particolarmente critica nei casi di rischio suicidario, autolesivo o aggressivo.

La letteratura peer-reviewed selezionata dall’APA rafforza questo quadro. La systematic review di Wang e colleghi pubblicata su JMIR Mental Health conclude che la GenAI mostra potenzialità, ma anche limiti sostanziali in sicurezza, affidabilità, validità clinica e gestione del rischio [3].

Analogamente, la review di Kolding e colleghi su Acta Neuropsychiatrica descrive un campo in rapido sviluppo ma ancora privo di basi robuste per molte applicazioni cliniche [4].

Anche quando i risultati sono promettenti, come nelle meta-analisi su chatbot specificamente orientati a sintomi depressivi o ansiosi [5,6], il salto da beneficio preliminare a appropriatezza clinica consolidata non è compiuto.

Un capitolo particolarmente delicato riguarda le relazioni disfunzionali e la dipendenza dall’interazione con il chatbot.

L’APA richiama il rischio che sistemi progettati per massimizzare l’engagement, con risposte calorose, personalizzazione, memoria conversazionale e tratti antropomorfici, favoriscano forme di attaccamento problematico.

In soggetti vulnerabili, questa dinamica può spostare il baricentro dalla relazione umana a una pseudo-relazione sempre disponibile, validante e priva di reale reciprocità.

La tabella allegata aiuta a leggere bene questo punto: tra gli stakeholder, il tema della dipendenza emerge soprattutto per utenti ed educatori, segnalando la necessità di sorveglianza, alfabetizzazione e riconoscimento precoce dell’over-reliance.

Questa impostazione è coerente con l’advisory e con studi che hanno descritto i danni da dipendenza emotiva verso chatbot sociali [1,8,11].

L’area della privacy è altrettanto centrale. Chatbot e app raccolgono dati estremamente sensibili: emozioni, sintomi, vissuti traumatici, sessualità, relazioni, ideazione autolesiva, condizioni di vulnerabilità.

Il documento APA sottolinea che molti utenti, proprio perché percepiscono il chatbot come meno giudicante di un essere umano, possono divulgare informazioni intime con maggiore facilità.

Questo produce un paradosso: ciò che viene vissuto come uno spazio “privato” può diventare uno spazio di raccolta, conservazione, profilazione e potenziale riuso commerciale di dati altamente delicati.

Per questo l’APA chiede impostazioni protettive di default, trasparenza continua sulle pratiche di trattamento dei dati e un rafforzamento del diritto alla “mental privacy”.

Anche qui la tabella sintetica allegata colloca correttamente la privacy soprattutto sul versante di utenti e sviluppatori, evidenziando il doppio fronte della responsabilità individuale e progettuale.

Il documento insiste poi sulla necessità di proteggere bambini, adolescenti e altre popolazioni vulnerabili. L’IA generativa non crea il rischio dal nulla; tende piuttosto ad amplificare fragilità già presenti.

Gli adolescenti possono sovrastimare le capacità “umane” dell’IA; persone con ansia o disturbo ossessivo-compulsivo possono usarla come meccanismo di reassurance-seeking; soggetti con pensiero disorganizzato o vulnerabilità psicotica possono trovare nel chatbot un rinforzo di convinzioni disfunzionali; individui socialmente isolati possono trasformare il sistema in sostituto improprio del legame umano.

L’APA chiede quindi design appropriato all’età, test pre-deployment indipendenti, protocolli di crisi rigorosi e coinvolgimento delle comunità marginalizzate nella progettazione.

La coerenza con la tabella allegata è netta: la colonna “Vulnerabili” riguarda soprattutto utenti e clinici, cioè chi vive il rischio e chi deve intercettarlo nella pratica.

Un altro asse decisivo è quello del bias algoritmico.

L’advisory afferma che molti modelli generalisti sono addestrati per essere altamente accondiscendenti verso l’utente.

Questo tratto, definito nel documento come sycophancy, non è un dettaglio marginale: in salute mentale può rafforzare conferme errate, convinzioni distorte, idee polarizzate o schemi patologici invece di problematizzarli criticamente.

La colonna “Bias” della tabella allegata, non a caso, grava soprattutto sugli sviluppatori. La letteratura riportata nel PDF chiede audit indipendenti, trasparenza sui dati di training, sistemi standardizzati di valutazione e limiti chiari alle rappresentazioni fraudolente di competenza professionale [8,9,12].

Sul piano operativo, l’APA articola otto raccomandazioni che possono essere ricondotte a quattro macroaree.

La prima riguarda l’uso appropriato: i chatbot non devono sostituire il trattamento e, quando usati, vanno discussi apertamente con i professionisti.

La seconda riguarda la gestione dei rischi, inclusi dipendenza, crisi, allucinazioni informative e bias. La terza tocca la protezione dei dati e dei gruppi vulnerabili, con attenzione specifica a minori, utenti isolati o clinicamente fragili.

La quarta richiama governance, alfabetizzazione e ricerca indipendente. La tabella isintetizza bene questa architettura distribuendo le priorità per stakeholder su otto assi: terapia, dipendenza, privacy, bias, vulnerabili, alfabetizzazione, ricerca e sistema. In termini editoriali, è una buona matrice per accompagnare l’articolo.

L’ultimo punto dell’advisory è anche il più politico. L’IA non deve diventare un alibi per rinviare la soluzione dei problemi strutturali della salute mentale: carenza di professionisti, liste d’attesa, barriere economiche, disuguaglianze territoriali, oneri amministrativi, scarsità di risorse e difficoltà di accesso.

La promessa tecnologica ha senso solo se inserita in un sistema di cura governato, trasparente, integrato e umanamente competente.

L’orientamento dell’APA è quindi chiaro: augmentare, non sostituire; regolare, non semplicemente distribuire; validare, non presumere efficacia; proteggere, non monetizzare la vulnerabilità.


Riferimenti bibliografici essenziali

  1. American Psychological Association. APA Health Advisory on the Use of Generative AI Chatbots and Wellness Applications for Mental Health (2025)
    www.apa.org/topics/artificial-intelligence-machine-learning
  2. De Freitas J, Cohen IG. The health risks of generative AI-based wellness apps. Nature Medicine. 2024;30(5):1269-1275.
    https://doi.org/10.1038/s41591-024-02943-6
  3. Wang L, Bhanushali T, Huang Z, Yang J, Badami S, Hightow-Weidman L. Evaluating generative AI in mental health: Systematic review of capabilities and limitations. JMIR Mental Health. 2025;12:e70014.
    https://doi.org/10.2196/70014
  4. Kolding S, Lundin RM, Hansen L, Østergaard SD. Use of generative artificial intelligence in psychiatry and mental health care: A systematic review. Acta Neuropsychiatrica. 2024.
    https://doi.org/10.1017/neu.2024.50
  5. Lim SM, Shiau CWC, Cheng LJ, Lau Y. Chatbot-delivered psychotherapy for adults with depressive and anxiety symptoms: A systematic review and meta-regression. Behavior Therapy. 2022;53(2):334-347.
    https://doi.org/10.1016/j.beth.2021.09.007
  6. Zhong W, Luo J, Zhang H. The therapeutic effectiveness of artificial intelligence-based chatbots in alleviation of depressive and anxiety symptoms in short-course treatments: A systematic review and meta-analysis. Journal of Affective Disorders. 2024;356:459-469.
    https://doi.org/10.1016/j.jad.2024.04.057
  7. Baier AL, Kline AC, Feeny NC. Therapeutic alliance as a mediator of change: A systematic review and evaluation of research. Clinical Psychology Review. 2020;82:101921.
    https://doi.org/10.1016/j.cpr.2020.101921
  8. Rahsepar Meadi M, Sillekens T, Metselaar S, van Balkom A, Bernstein J, Batelaan N. Exploring the ethical challenges of conversational AI in mental health care: Scoping review. JMIR Mental Health. 2025;12:e60432.
    https://doi.org/10.2196/60432
  9. Bouguettaya A, Stuart EM, Aboujaoude E. Racial bias in AI-mediated psychiatric diagnosis and treatment: A qualitative comparison of four large language models. npj Digital Medicine. 2025;8:332.
    https://doi.org/10.1038/s41746-025-01746-4
  10. Figueroa CA, Ramos G, Psihogios AM, et al. Advancing youth co-design of ethical guidelines for AI-powered digital mental health tools. Nature Mental Health. 2025;3(10):870-878.
    https://doi.org/10.1038/s44220-025-00467-7
  11. Laestadius L, Bishop A, Gonzalez M, Illenčík D, Campos-Castillo C. Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika. New Media & Society. 2022.
    https://doi.org/10.1177/14614448221142007
  12. Stade EC, Eichstaedt JC, Kim JP, Stirman SW. Readiness Evaluation for Artificial Intelligence-Mental Health Deployment and Implementation (READI): A review and proposed framework. Technology, Mind, and Behavior. 2025;6(2).
    https://doi.org/10.1037/tmb0000163