L’evoluzione tecnologica ha introdotto nuove forme di interazione digitale che presentano caratteristiche sovrapponibili ai disturbi da dipendenza comportamentale. Dopo smartphone e piattaforme social, i chatbot basati su intelligenza artificiale rappresentano l’ultima frontiera di questo fenomeno emergente [1].
Una ricerca condotta dalla Drexel University di Philadelphia ha analizzato il rapporto tra adolescenti statunitensi e assistenti conversazionali come Character.AI, Replika e Kindroid, evidenziando segnali preoccupanti di attaccamento problematico [2].
Prevalenza d’uso e caratteristiche del campione
Le stime indicano che oltre la metà degli adolescenti negli Stati Uniti utilizza regolarmente chatbot alimentati da modelli linguistici di grandi dimensioni nella propria routine quotidiana [2].
Lo studio ha esaminato 318 post pubblicati sul forum Reddit da utenti che si sono autoidentificati nella fascia d’età 13-17 anni, focalizzandosi sulle loro esperienze con Character.AI, una delle piattaforme più diffuse che al momento della raccolta dati consentiva l’accesso ai minori di età [3].
L’analisi qualitativa ha rivelato che l’ingresso in queste interazioni avviene spesso per motivazioni legate al supporto emotivo, alla gestione di stati di isolamento sociale o alla ricerca di uno spazio non giudicante per l’espressione personale [3].
Una quota significativa dei post descriveva l’utilizzo del chatbot come meccanismo di coping per affrontare distress psicologico, solitudine o difficoltà relazionali offline [4].
Pattern di dipendenza comportamentale identificati
Mappando le narrazioni degli adolescenti sui sei componenti classici della dipendenza comportamentale, i ricercatori hanno riscontrato evidenze di tutti gli elementi distintivi: conflitto, salienza, astinenza, tolleranza, ricaduta e modificazione dell’umore [3].
Il conflitto emergeva quando i partecipanti riconoscevano l’eccessività del proprio utilizzo ma faticavano a interrompere l’interazione, sperimentando sensi di colpa o preoccupazione per le conseguenze sulla vita reale [4].
La salienza si manifestava attraverso un attaccamento emotivo crescente verso il chatbot, talvolta percepito come sostituto di relazioni interpersonali significative [3].
I sintomi di astinenza includevano tristezza, ansia o senso di incompletezza quando l’accesso alla piattaforma era interrotto [4]. La tolleranza si osservava nell’escalation progressiva dei tempi di utilizzo, con alcuni utenti che riportavano sessioni superiori alle 15 ore giornaliere [3].
Le ricadute descrivevano cicli ripetuti di disinstallazione e reinstallazione dell’applicazione, spesso innescati da momenti di stress o solitudine [4]. Infine, la modificazione dell’umore riguardava l’uso del chatbot come strumento per regolare stati emotivi negativi o ottenere sollievo temporaneo [3].
Conseguenze funzionali e impatto sulla vita quotidiana
I partecipanti hanno descritto effetti negativi concreti derivanti dall’uso problematico: disturbi del sonno, calo del rendimento scolastico, deterioramento delle relazioni familiari e amicali, e riduzione delle attività extracurriculari [2].
Alcuni adolescenti hanno riferito di aver sostituito progressivamente le interazioni umane con quelle digitali, limitando le opportunità di sviluppo di competenze sociali fondamentali per la crescita [4].
Un elemento distintivo rilevato dai ricercatori riguarda la natura interattiva e responsiva dei chatbot, che rende l’esperienza percepita più simile a una relazione che a uno strumento tecnico [3].
Questa caratteristica complica il processo di disimpegno, poiché interrompere l’uso può essere vissuto come una perdita affettiva piuttosto che come una semplice modifica comportamentale [4].
Fattori di disimpegno e strategie di riduzione
Non tutte le narrazioni descrivevano un peggioramento progressivo. Alcuni adolescenti hanno riferito di aver ridotto o interrotto l’utilizzo dopo aver riconosciuto gli impatti negativi sulla propria vita [3].
Altri hanno trovato sollievo attraverso il ripristino di connessioni sociali offline, l’avvio di nuove relazioni interpersonali o il cambiamento di priorità personali [4].
Fattori esterni hanno talvolta facilitato il disimpegno: aggiornamenti della piattaforma che limitavano determinate funzionalità, politiche di moderazione più restrittive o la percezione di una diminuita qualità dell’interazione [3].
Questi dati suggeriscono che l’overreliance non dipende esclusivamente dalle caratteristiche individuali, ma emerge dall’interazione tra bisogni emotivi non soddisfatti e design delle piattaforme [4].
Implicazioni per il design e la prevenzione
Gli autori dello studio propongono il framework CARE (Comprehensive Needs, Attachment-awareness, Respectful Empathy, Ease of Exit) come guida per lo sviluppo di sistemi che promuovano interazioni sane [3].
I principi includono: comprensione dei bisogni sottostanti che guidano l’uso, consapevolezza dei meccanismi di attaccamento, empatia rispettosa che non antropomorfizzi eccessivamente la tecnologia, e percorsi di uscita facilitati che consentano all’utente di disimpegnarsi autonomamente [4].
Raccomandazioni pratiche comprendono l’integrazione di strumenti di monitoraggio dell’utilizzo, prompt di check-in emotivo, limiti personalizzabili e funzionalità che incoraggino il trasferimento delle competenze relazionali apprese online verso contesti offline [3].
Il coinvolgimento di adolescenti e professionisti della salute mentale nei processi di progettazione è considerato essenziale per garantire che le soluzioni siano poi appropriate [4].
L’analisi delle esperienze autodescritte degli adolescenti fornisce evidenze preliminari di pattern di dipendenza comportamentale associati all’uso di chatbot companion.
Sebbene il disegno osservazionale non consenta inferenze causali, la coerenza dei risultati con modelli consolidati di addiction suggerisce la necessità di interventi preventivi e di ricerca longitudinale [2].
La responsabilità di mitigare i rischi ricade su progettisti, educatori, famiglie e policy maker, chiamati a collaborare per promuovere un utilizzo consapevole delle tecnologie emergenti [3].
Bibliografia
- OECD. AI companion addiction sparks youth mental health crisis. OECD.AI Policy Observatory. 2025. Available from: https://oecd.ai/en/incidents/2025-02-12-420f
- Namvarpour M, Brofsky B, Medina JY, Akter M, Razi A. Understanding Teen Overreliance on AI Companion Chatbots Through Self-Reported Reddit Narratives. CHI ’26: Proceedings of the 2026 CHI Conference on Human Factors in Computing Systems. 2026. Available from: https://dl.acm.org/doi/10.1145/3772318.3790597
- News-Medical. Study warns of rising teen dependency on AI companions. 2026. Available from: https://www.news-medical.net/news/20260413/Study-warns-of-rising-teen-dependency-on-AI-companions.aspx
- Cohen S. Rising dependence on AI chatbots sparks concern among teens. The Brighter Side of News. 2026. Available from: https://www.thebrighterside.news/post/rising-dependence-on-ai-chatbots-sparks-concern-among-teens/
- Griffiths M. A ‘components’ model of addiction within a biopsychosocial framework. J Subst Use. 2005;10(4):191-197. Available from: https://doi.org/10.1080/14659890500114359
- Common Sense Media. Talk, trust, and trade-offs: How and why teens use AI companions. 2025. Available from: https://www.commonsensemedia.org/research/talk-trust-and-trade-offs-how-and-why-teens-use-ai-companions
- Marcu G, Huh-Yoo J. Attachment-Informed Design: Digital Interventions That Build Self-Worth, Relationships, and Community in Support of Mental Health. DIS ’23: Proceedings of the 2023 ACM Designing Interactive Systems Conference. 2023:2453-2468. Available from: https://doi.org/10.1145/3563657.3596088
Foto di 👀 Mabel Amber, who will one day da Pixabay