Editoriale: Mental Health 4.0: il contributo dei modelli LLM nei processi di cura della salute mentale.
Pubblicato 14.03.2025
Parole chiave
- Intelligenza Artificiale in Psicoterapia,
- LLM,
- Relazione Paziente-Terapeuta
Come citare
Copyright (c) 2025 Valeria Cioffi

Questo lavoro è fornito con la licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Abstract
«Ci sono frontiere, dove stiamo imparando, e brucia il nostro desiderio di sapere. Sono nelle profondità più minute del tessuto dello spazio, nelle origini del cosmo, nella natura del tempo, nel fato dei buchi neri, e nel funzionamento del nostro stesso pensiero. Qui, sul bordo di quello che sappiamo, a contatto con l’oceano di quanto non sappiamo, brillano il mistero del mondo, la bellezza del mondo, e ci lasciano senza fiato».
Rovelli, C. (2014).
Sette brevi lezioni di fisica. Milano: Adelphi.
Negli ultimi anni, l’emergere dei Large Language Models (LLM) ha mostrato un notevole potenziale nell’analisi del linguaggio umano. Nell’ambito delle scienze psicologiche, questi strumenti hanno permesso lo sviluppo di domini di ricerca emergenti tra cui la psicologia, la psicopatologia e, più recentemente, anche la psicoterapia computazionale [1], facilitando il progresso della ricerca interdisciplinare in queste aree.
La diade terapeuta/paziente, così come la diade supervisionato/supervisore, costituisce un sistema complesso, le cui funzioni multidimensionali richiedono metodi statistici non lineari che ne consentano un’approfondita e accurata analisi.
Lo studio dei processi dei paradigmi psicoterapeutici si avvale, infatti, di un approccio interdisciplinare che integra le conoscenze della psicologia clinica con le tecnologie più avanzate dell’intelligenza artificiale (AI), aprendo, così nuovi scenari di studio e applicazione.
Se e in che modo l’AI possa essere di supporto alle funzioni abitualmente svolte dal genere umano, senza tuttavia rischiare di sostituirsi nel profondo processo di comprensione di quella che resta un’esperienza soggettiva e intersoggettiva, rappresenta un argomento molto articolato e complesso.
L’integrazione dell’AI nella psicoterapia resta, infatti, una sfida ancora aperta, specialmente alla luce del rapido progresso dell’efficienza dei LLM, che, negli ultimi due anni, ha attirato un’enorme attenzione e ha acceso il dibattito sulle sue applicazioni nell’ambito medico e in quello della salute pubblica [2,3].
Come tutte le rivoluzioni copernicane, avvicendatesi nel corso della storia dell’umanità, anche quest’ultima evoca un forte senso di incertezza, sollevando interrogativi da un lato e veementi timori dall’altro. La domanda che oggi nasce spontanea è non solo se effettivamente l’AI possa costituire un valido e funzionale strumento ausiliario per l’operatore della salute mentale, ma ci chiediamo anche e soprattutto se ci si può davvero immaginare un futuro nel quale una chatbot sia in grado di rimpiazzare completamente un operatore umano in questo settore.
ChatGPT (Chat Generative Pre-trained Transformer) [4] è un software che simula ed elabora conversazioni umane (scritte o parlate) basandosi sull’AI e sull’apprendimento automatico, sviluppato da OpenAI (un laboratorio di ricerca sull’intelligenza artificiale) e specializzato nella conversazione con un utente umano. La sua versione 3.5, implementata nel 2022, ha un enorme potenziale: è facile da usare e può conversare autenticamente in modo indistinguibile dalla comunicazione umana. Inoltre, considerando che ChatGPT è stato generato con un apprendimento supervisionato e di rinforzo, la qualità dei contenuti generati dalla chatbot può essere migliorata molto facilmente attraverso ulteriori addestramenti e ottimizzazioni [5].
Il dibattito sui potenziali usi di ChatGPT in psicoterapia è ancora agli inizi, pertanto, emergono notevoli preoccupazioni e discussioni etiche all’interno dell’intera comunità di esperti della salute mentale e dei diversi settori scientifico-disciplinari ad essa afferenti. Alcuni professionisti della salute mentale hanno descritto diversi utilizzi della chatbot, come, ad esempio, la sua utilità nel supportare gli psichiatri in compiti di routine quali la compilazione delle cartelle cliniche, la facilitazione della comunicazione medico-paziente e il miglioramento della comunicazione scritta e accademica [6]. Ultimamente, sono emersi anche scenari interessanti che hanno visto il lancio, da parte di alcune startup, di chatbot basate su GPT in grado di fornire un supporto psicologico di base. Ad ogni modo resta sospesa la questione relativa all’effettiva capacità di questi strumenti di garantire un supporto realmente efficace e completo al paziente, senza ridimensionare quella complessità, che intrinsecamente appartiene alla relazione terapeutica, ad una mera interazione algoritmica.
Numerosi sono i progressi futuri immaginabili delle chatbot a supporto della salute mentale, anche per altre attività: il riconoscimento delle emozioni, la valutazione della personalità e l’individuazione dei fattori di rischio, nonché la capacità di rilevare i segni premorbosi del disagio psicologico [7]. Diversi autori [8] hanno ipotizzato che in un prossimo futuro sarà possibile sviluppare un sistema di psicoterapia basato sulla tecnologia GPT e completamente automatizzato e addestrato a offrire una comunicazione esperta, in linea con uno specifico paradigma terapeutico. Gli studi hanno evidenziato numerosi vantaggi nell’utilizzo dei LLMs per la psicoterapia, individuando, tuttavia, anche eventuali problemi e imprecisioni.
Innanzitutto, ai fini di massimizzare i risultati e ridurre al minimo gli errori, è necessario un adeguato addestramento della chatbot attraverso l’uso di istruzioni appropriate [9, 10, 11, 12, 13].
Tale addestramento deve consentire la costruzione di protocolli di conversazione psicoterapeutica clinicamente validati, attraverso l’integrazione di elementi della pratica clinica consolidata e validata e delle potenzialità dello strumento tecnologico, tra cui la velocità di esecuzione dei processi valutativi e la sua disponibilità continua. In futuro dovranno essere integrati anche moduli di comprensione/generazione del parlato e algoritmi di discriminazione delle emozioni basati su espressioni facciali e input fisiologici provenienti da dispositivi in grado di rilevare input neuropsicofisiologici.
Probabilmente non siamo in grado di offrire una reale e completa risposta alla domanda con cui abbiamo iniziato questa riflessione, quanto piuttosto uno spunto riflessivo, che coadiuvato da un atteggiamento eticamente critico, riesce sicuramente ad immaginare il futuro della psicoterapia come notevolmente influenzato dall’intelligenza artificiale, ma al contempo è chiara quella che sarà la vera sfida, ovvero riuscire ad integrare l’utilizzo dell’AI senza compromettere la centralità della relazione umana.
Dunque, se da un lato l’AI offre strumenti potenti e innovativi, dall’altro resta il dubbio se potrà mai sostituire del tutto l’esperienza, l’empatia, la complessità e il “calore” dell’interazione terapeutica. Una visione romantica e fortemente umanistica, che profondamente muove il nostro gruppo di ricerca, aspira di poter affermare che più che una futuristica sostituzione, sarebbe auspicabile un bilanciato affiancamento tra tecnologia e professionisti della salute mentale, in un equilibrio che garantisca supporto agli operatori senza tuttavia perdere di vista quella che numerose evidenze scientifiche hanno stabilito sia la reale essenza della cura, ovvero l’umana relazione.
Riferimenti bibliografici
- Cioffi, V., Mosca, L. L., Moretto, E., Ragozzino, O., Stanzione, R., Bottone, M., Maldonato N. M., Muzii B., & Sperandeo, R. (2022). Metodi computazionali in psicoterapia: A Scoping Review. International Journal of Environmental Research and Public Health, 19(19), 12358.
- Patel, S. B., Lam, K., & Liebrenz, M. (2023). ChatGPT: friend or foe. Lancet Digit Health, 5(3), e102.
- Liebrenz, M., Schleifer, R., Buadze, A., Bhugra, D., & Smith, A. (2023). Generating scholarly content with ChatGPT: ethical challenges for medical publishing. Lancet Digital Health, 5(3), e105-e106.
- Pierucci, P. Introduzione a Chat GPT: cos’è, vantaggi e casi studio, su www.digitaldictionary.it. URL consultato il 27 novembre 2023.
- Alkaissi, H., & McFarlane, S. I. (2023). Allucinazioni artificiali nella ChatGPT: implicazioni nella scrittura scientifica. Cureus, 15(2).
- Cheng, S. W., Chang, C. W., Chang, W. J., Wang, H. W., Liang, C. S., Kishimoto, T., Chang J. P., Kuo J. S., & Su, K. P. (2023). Il presente e il futuro della ChatGPT e della GPT in psichiatria. Psichiatria e neuroscienze cliniche, 77(11), 592-596.
- Farhat, F. (2023). La ChatGPT come risorsa complementare per la salute mentale: una manna o una rovina. Annali di Ingegneria Biomedica, 1-4.
- Raile, P. (2024). L’utilità della ChatGPT per psicoterapeuti e pazienti. Comunicazioni di scienze umane e sociali, 11(1), 1-8.
- Eshghie, M., & Eshghie, M. (2023). ChatGPT come assistente terapeuta: uno studio di idoneità. arXiv preprint arXiv:2304.09873.
- Ajlouni, A., Almahaireh, A., & Whaba, F. (2023). La percezione degli studenti sull’uso della chatgpt nell’educazione alla consulenza e alla salute mentale: I benefici e le sfide. International Journal of Emerging Technologies in Learning (iJET), 18(20), 199-218.
- Singh, O. P. (2023). L’intelligenza artificiale nell’era della ChatGPT-Opportunità e sfide nella cura della salute mentale. Indian Journal of Psychiatry, 65(3), 297-298.
- Vowels, L. M., Francois-Walcott, R., & Darwiche, J. (2023). Ai nella consulenza relazionale: Valutazione dell’efficacia terapeutica della chatgpt nel fornire consulenza relazionale.
- Alanezi, F. (2024). Valutare l’efficacia della ChatGPT nel fornire supporto alla salute mentale: uno studio qualitativo. Journal of Multidisciplinary Healthcare, 461-471.