RIVISTA DI CULTURA INFORMATICA EDITA DA

L’intelligenza artificiale e la psicoterapia: sostituire o arricchire il futuro della salute mentale?

Sommario

Recenti sviluppi nell’integrazione dell’intelligenza artificiale (AI) nella psicoterapia stanno trasformando il panorama della salute mentale, offrendo nuove opportunità ma anche sollevando interrogativi. Questo studio esplora il potenziale dell’AI nell’ambito della psicologia clinica e della psicoterapia, con particolare attenzione al suo impatto sulla diagnosi, sulla personalizzazione del trattamento e sulla relazione terapeutica. Attraverso un test esperienziale in cui l’AI è stata coinvolta in una simulazione di seduta di psicoterapia, i risultati mostrano che, pur fornendo strumenti utili per il miglioramento delle cure, emergono questioni etiche e relazionali significative. In particolare, viene sottolineata l’importanza di mantenere la connessione umana, fondamentale per il successo terapeutico, evitando che l’innovazione tecnologica comprometta le dinamiche interpersonali. Lo studio conclude che l’AI dovrebbe essere vista come un supporto alla pratica terapeutica, piuttosto che come una sua sostituzione.

Abstract

Recent developments in the integration of artificial intelligence (AI) in psychotherapy are transforming the mental health landscape, offering new opportunities while also raising concerns. This study explores the potential of AI in clinical psychology and psychotherapy, focusing on its impact on diagnosis, treatment personalization, and the therapeutic relationship. Through an experiential test where AI was involved in a simulated psychotherapy session, the results indicate that, while providing useful tools for improving care, significant ethical and relational issues emerge. In particular, the study highlights the importance of maintaining human connection, which is crucial for therapeutic success, and warns against allowing technological innovation to undermine interpersonal dynamics. The study concludes that AI should be viewed as a support to therapeutic practice, rather than as a replacement.

Parole Chiave

Intelligenza artificiale nella salute mentale; Psicoterapia guidata dall’IA; Diagnosi assistita dall’IA; Alleanza terapeutica e IA; Implicazioni etiche dell’IA nella psicoterapia.

Keywords

artificial intelligence in mental health; AI-driven psychotherapy; AI-assisted diagnosis; therapeutic alliance and AI; ethical implications of AI in psychotherapy

1. Introduzione

Negli ultimi anni, il panorama della psicoterapia ha vissuto una trasformazione radicale. L’avvento delle tecnologie digitali ha segnato una svolta particolarmente importante nel suo processo di evoluzione (Vilaza & McCashin, 2021). In parallelo allo sviluppo costante e inarrestabile che sta vivendo il campo dell’intelligenza artificiale, il suo possibile utilizzo nell’ambito della salute mentale sta ricevendo una sempre maggiore attenzione. Questa revisione narrativa si propone di fornire una panoramica dell’integrazione dell’AI all’interno dei domini della psicologia clinica e della psicoterapia, esplorando il suo impatto sulla diagnosi, il trattamento e la relazione terapeutica. Negli ultimi decenni, la psicoterapia è passata da sessioni tradizionali di persona a un panorama più diversificato che incorpora strumenti e tecnologie digitali. Con l’avvento dell’AI, il potenziale di migliorare vari aspetti dell’assistenza alla salute mentale è diventato sempre più tangibile.

L’intelligenza artificiale in molti sensi è un campo multiforme, in rapida evoluzione e si è fatta strada nel dominio dell’assistenza alla salute mentale. L’integrazione di sistemi basati sull’AI ha il potenziale di rivoluzionare la maniera in cui i clinici affrontano la diagnosi, la pianificazione del trattamento, persino la relazione terapeutica stessa. I progressi nell’AI, in particolare nelle aree dell’apprendimento automatico e del processamento del linguaggio naturale, hanno reso possibile lo sviluppo di algoritmi sofisticati capaci di analizzare enormi quantità di dati per assistere nella diagnosi accurata dei disturbi psicologici. Inoltre, gli strumenti guidati dall’AI possono aiutare nell’identificazione di segnali emotivi e cognitivi, migliorando potenzialmente la precisione delle valutazioni cliniche e portando ad approcci terapeutici più personalizzati (Limone & Toto, 2021).

Il campo della psicoterapia ha subito una trasformazione significativa negli ultimi decenni, passando dal tradizionale modello di incontri individuali a un’ampia gamma di approcci e tecnologie. L’integrazione di strumenti digitali, come le piattaforme di telemedicina, le applicazioni mobili e la realtà virtuale, ha ampliato l’accessibilità e la flessibilità dell’assistenza alla salute mentale, consentendo interventi remoti e personalizzati. Questa rivoluzione tecnologica ha aperto la strada all’introduzione dell’intelligenza artificiale nel regno della psicologia clinica e della psicoterapia.

Man mano che il panorama del supporto alla salute mentale continua ad evolversi, l’applicazione di sistemi basati sull’AI è diventata sempre più rilevante. Gli algoritmi dell’intelligenza artificiale hanno il potenziale di assistere i clinici in diagnosi, pianificazione del trattamento e perfino nella stessa relazione terapeutica.

Tradizionalmente, la psicoterapia si è basata fortemente sul rapporto interpersonale tra terapeuta e paziente, con l’expertise e l’empatia del terapeuta che fungono da principali motori del successo terapeutico. Fondamentale la creazione della relazione terapeutica ed il mantenimento della stessa durante l’intero percorso di psicoterapia, proprio come strumento di lavoro. Tuttavia, l’avvento delle tecnologie digitali, come le piattaforme di terapia online, le applicazioni mobili e la realtà virtuale, hanno introdotto nuove modalità di assistenza che sfidano i confini convenzionali della relazione terapeutica (Yang et al., 2020). Anche se questi progressi tecnologici hanno il potenziale di migliorare l’accessibilità, la comodità e la personalizzazione dei servizi di salute mentale, sollevano anche interrogativi sull’impatto sull’alleanza terapeutica e sul ruolo del clinico in questo panorama in evoluzione (Patil & Rasave, 2021).

L’intelligenza artificiale è un termine ampio che comprende una gamma di tecnologie che consentono alle macchine di eseguire compiti tradizionalmente richiesti all’intelligenza umana, come la risoluzione di problemi, la presa di decisioni e il riconoscimento di schemi. All’interno del dominio della salute mentale, l’AI ha il potenziale di migliorare l’accuratezza della diagnosi, la personalizzazione del trattamento e l’ottimizzazione degli interventi terapeutici.

Una delle aree chiave in cui l’AI viene applicata nell’assistenza alla salute mentale è nel regno del fenomeno digitale, o l’uso di dati sensoriali e di utilizzo provenienti da dispositivi digitali personali per dedurre le caratteristiche comportamentali e psicologiche di un individuo. Analizzando i dati provenienti da smartphone, dispositivi indossabili e altri dispositivi connessi, i sistemi basati sull’AI possono identificare schemi e anomalie che possono essere indicative di condizioni di salute mentale, consentendo ai clinici di fornire assistenza più mirata e personalizzata.

L’intelligenza artificiale ha il potenziale di migliorare vari aspetti della psicologia clinica e della psicoterapia, dalla diagnosi alla pianificazione del trattamento e alla relazione terapeutica stessa (Vilaza & McCashin, 2021) (D’Alfonso, 2020) (Yang et al., 2020) (Aktan et al., 2022). I sistemi basati sull’AI possono sfruttare algoritmi di apprendimento automatico per analizzare grandi dataset di informazioni cliniche, storie dei pazienti e modelli di sintomi, consentendo diagnosi più accurate e personalizzate dei disturbi psicologici.

Il processamento del linguaggio naturale, un sottocampo dell’AI, ha reso possibile lo sviluppo di strumenti basati sull’AI capaci di analizzare appunti clinici, dialoghi tra pazienti e fornitori di assistenza e persino contenuti sui social media per rilevare segni precoci di problemi di salute mentale. Gli algoritmi di AI sintetizzano informazioni provenienti da una vasta gamma di fonti per scoprire schemi comportamentali individuali e identificare potenziali anomalie nelle condizioni psicologiche, assistendo così i clinici nel processo diagnostico. Inoltre, gli strumenti guidati dall’AI possono aiutare nell’identificazione di segnali emotivi e cognitivi, migliorando potenzialmente la precisione delle valutazioni cliniche e portando a approcci terapeutici più personalizzati.

Sebbene l’integrazione dei sistemi basati sull’AI nella psicoterapia presenti promettenti opportunità, introduce anche un nuovo insieme di considerazioni etiche e sfide. L’impatto dell’AI sulla relazione terapeutica, in particolare, richiede un’analisi attenta per garantire che la connessione interpersonale unica tra il clinico e il paziente non venga compromessa (Chen et al., 2024).

Una delle principali applicazioni dell’AI nella psicologia clinica e nella psicoterapia è il suo potenziale di migliorare l’accuratezza dei processi diagnostici. Gli algoritmi di apprendimento automatico possono essere addestrati su grandi dataset di informazioni cliniche, comprese le storie dei pazienti, i modelli di sintomi e i criteri diagnostici, per sviluppare modelli predittivi che possono assistere i clinici nell’identificazione dei disturbi psicologici.

I progressi nel processamento del linguaggio naturale hanno reso possibile lo sviluppo di sistemi basati sull’AI capaci di analizzare appunti clinici, dialoghi tra pazienti e fornitori di assistenza e persino contenuti sui social media per rilevare segni precoci di problemi di salute mentale. Sfruttando queste tecnologie, i clinici possono ottenere una comprensione più completa dello stato psicologico di un individuo, portando potenzialmente a un intervento più precoce e a piani di trattamento più efficaci. Tuttavia, l’integrazione dell’AI nella relazione terapeutica introduce un nuovo insieme di considerazioni e sfide. Man mano che gli strumenti guidati dall’AI diventano più diffusi nel campo dell’assistenza alla salute mentale è fondamentale esaminare attentamente il loro impatto sulla relazione terapeutica, tradizionalmente caratterizzata da una profonda connessione interpersonale tra il clinico e il paziente.

Una delle aree chiave in cui l’AI ha compiuto significativi progressi è nel campo dell’accuratezza diagnostica. Gli algoritmi di apprendimento automatico hanno dimostrato la capacità di analizzare una vasta gamma di dati clinici, compresi modelli linguistici, espressioni facciali e segnali fisiologici, per identificare indicatori sottili di disturbi psicologici con un alto grado di precisione. Questo promette un intervento più precoce e approcci terapeutici più mirati, portando infine a migliori risultati per i pazienti.

2. Metodologia

È stata effettuata una simulazione sperimentale di terapia tramite ChatGPT, volta a esplorare l’applicazione e l’efficacia dell’intelligenza artificiale nei contesti di salute mentale. La revisione della letteratura ha mirato a fornire una panoramica aggiornata dei progressi nello sviluppo delle tecnologie AI, in particolare nel loro utilizzo per la consulenza psicologica, la psicoterapia e altre pratiche di cura della salute mentale. Parallelamente, è stata condotta una simulazione di terapia utilizzando ChatGPT, con l’obiettivo di replicare conversazioni terapeutiche tra un consulente virtuale basato su AI e un paziente simulato. Questa simulazione ha permesso di analizzare in profondità come l’AI potrebbe contribuire agli interventi terapeutici, offrendo supporto emotivo, strategie per la risoluzione dei problemi e risposte empatiche, ricreando scenari tipici di consulenza reale.

Dopo la simulazione, i dati testuali generati durante le sessioni di terapia gestite dall’AI sono stati analizzati utilizzando strumenti di analisi testuale attuate con Python. L’analisi si è concentrata sull’estrazione di informazioni significative dalle conversazioni simulate, segmentando il testo in sezioni rilevanti, conducendo una sentiment analysis per valutare il tono emotivo delle risposte fornite sia dal paziente che dall’AI, e identificando le tecniche terapeutiche chiave utilizzate dall’AI durante l’interazione. Per migliorare ulteriormente la qualità dei dati testuali, è stata eseguita un’estrazione dei token utilizzando la tecnologia Wolfram, eliminando le stop words (parole comuni come “il,” “e,” “è”) e isolando i termini e gli elementi conversazionali più importanti, specifici del dialogo terapeutico. Questo processo di pulizia ha permesso un’analisi più focalizzata sul linguaggio utilizzato dall’AI e sui principali marcatori conversazionali che indicano un coinvolgimento terapeutico.

La revisione della letteratura è stata condotta attraverso una ricerca dettagliata su banche dati accademiche come PubMed, Scopus e Google Scholar, utilizzando parole chiave predefinite come “AI nella salute mentale,” “salute mentale digitale,” “terapia AI” e “realtà virtuale per la terapia.” La ricerca ha incluso pubblicazioni provenienti da riviste scientifiche e atti di conferenze rilevanti, con particolare attenzione a studi di alta qualità e articoli peer-reviewed. Sono stati applicati filtri per garantire la rilevanza degli studi, considerando la data di pubblicazione (con un focus sugli studi più recenti per riflettere i progressi attuali), lo status di revisione paritaria e la lingua (sono stati considerati solo articoli in inglese). Di seguito è riportata una tabella riassuntiva dei risultati della letteratura scientifica suddivisi in base all’area tematica (Tabella1).

Per garantire la validità metodologica, sono stati definiti con attenzione criteri di inclusione ed esclusione. Gli studi sono stati inclusi se soddisfacevano i seguenti criteri:
(1) Si concentravano sull’uso dell’AI in contesti terapeutici o di salute mentale, come chatbot AI per la consulenza o terapie in realtà virtuale.
(2) Discutere l’applicazione pratica degli strumenti AI, dimostrando come questi siano stati utilizzati in contesti clinici reali o simulati per affrontare problematiche legate alla salute mentale.
(3) Fornire risultati di ricerche originali, meta-analisi o revisioni approfondite che contribuissero a comprendere l’impatto dell’AI sulla cura della salute mentale.
(4) Essere pubblicati in riviste peer-reviewed o in atti di conferenze scientificamente riconosciuti per garantire il rigore scientifico.

Gli studi sono stati esclusi se:
(1) Non si focalizzavano principalmente sulla salute mentale o sull’applicazione diretta delle tecnologie AI in questo campo, anche se l’AI era un tema centrale.
(2) Mancavano di solidità metodologica, come articoli di opinione o editoriali privi di dati empirici o analisi strutturate.
(3) Non erano disponibili in versione completa, il che limitava la possibilità di una valutazione approfondita dei risultati dello studio.
(4) Si concentravano esclusivamente sullo sviluppo tecnico degli algoritmi AI senza esplorarne l’applicazione nei contesti terapeutici, poiché l’obiettivo della revisione era sottolineare le applicazioni pratiche e cliniche orientate ai pazienti.

La simulazione di terapia con ChatGPT è stata cruciale per comprendere il potenziale dell’AI negli interventi di salute mentale. Le interazioni generate durante la simulazione sono state catturate come dati testuali e sottoposte ad un’analisi dettagliata utilizzando Python. Le tecniche di segmentazione del testo hanno permesso di suddividere la conversazione in unità significative, facilitando una valutazione strutturata del dialogo. L’analisi del sentiment ha contribuito a valutare il tono emotivo e l’adeguatezza delle risposte fornite dall’AI, garantendo che l’AI offrisse un feedback empatico e costruttivo, in linea con gli standard terapeutici umani. L’estrazione delle frasi chiave ha consentito di individuare gli interventi terapeutici più rilevanti, fornendo indicazioni sulla capacità dell’AI di impegnarsi in ascolto riflessivo, riformulazione cognitiva e validazione emotiva, tutte componenti centrali di una terapia efficace.

Inoltre, il processo di estrazione dei token mediante la tecnologia Wolfram è stato determinante per migliorare la chiarezza dell’analisi. Eliminando parole irrilevanti o ridondanti e isolando i termini terapeutici chiave, l’analisi è stata focalizzata sulla comprensione dei modelli linguistici emersi durante le interazioni AI-paziente. Ciò ha consentito un’analisi più profonda del linguaggio utilizzato dall’AI, della sua coerenza nel rispondere alle preoccupazioni dei pazienti e della sua efficacia complessiva nel simulare il comportamento dei terapeuti umani. L’integrazione di questi metodi analitici ha fornito informazioni preziose sul ruolo che l’AI, in particolare sotto forma di agenti conversazionali come ChatGPT, può svolgere nel supportare la cura della salute mentale e il trattamento terapeutico.

3. Analisi dei dati

La simulazione è stata organizzata in un setting accuratamente controllato per garantire la massima coerenza e qualità dei dati raccolti. Le sessioni si sono svolte in un luogo tranquillo e privo di distrazioni, un ambiente ideale per facilitare un’interazione fluida tra il sistema di intelligenza artificiale e il paziente simulato. Ogni sessione di simulazione è stata preimpostata per durare 45 minuti, in modo da garantire uniformità e consentire un’analisi comparativa tra i diversi casi. Questo limite temporale ha assicurato che l’AI e il paziente potessero sviluppare una conversazione significativa, ma mantenendo la durata a un livello gestibile per l’analisi successiva.

L’analisi delle interazioni si è concentrata globalmente sulla relazione tra il “terapeuta” (il modello AI) e il paziente, tenendo conto delle dinamiche comunicative emerse spontaneamente durante le conversazioni simulate. A differenza di un setting clinico tradizionale in cui si potrebbe seguire un preciso orientamento terapeutico, la trascrizione delle conversazioni è stata considerata nel suo insieme. Non è stato definito un indirizzo terapeutico specifico, come la terapia cognitivo-comportamentale o la terapia psicodinamica, proprio per mantenere una flessibilità che permettesse di esplorare il potenziale di un colloquio psicologico generale. Questo approccio ha consentito all’intelligenza artificiale di interagire con il paziente in modo ampio, rispondendo a domande e problemi senza seguire uno schema terapeutico prestabilito.

Per la selezione dei token, è stata utilizzata la tecnologia avanzata di Wolfram per effettuare una pulizia accurata del corpus di dati testuali generati dalle conversazioni. Il dataset iniziale conteneva circa 15.000 token, una combinazione di parole chiave, frasi e frammenti di testo. Dopo un processo di filtraggio che ha incluso la rimozione delle stop words (parole comuni prive di significato contestuale come articoli o congiunzioni), sono stati selezionati 1.205 token considerati rilevanti per l’analisi. Questi token hanno costituito la base per le successive fasi di valutazione delle interazioni terapeutiche simulate.

Le analisi sui dati testuali sono state condotte utilizzando diversi approcci metodologici:

  • Sentiment Analysis: Questa analisi ha valutato il tono emotivo delle interazioni, classificando le risposte del modello AI e del paziente in base al loro contenuto emotivo, che poteva essere positivo, negativo o neutrale. Questa valutazione ha aiutato a comprendere come l’AI rispondeva emotivamente alle diverse situazioni e se riusciva a fornire supporto empatico.
  • Content Analysis: L’analisi dei contenuti ha permesso di esaminare i temi principali emersi durante le conversazioni, concentrandosi su come l’AI affrontava determinati problemi, quali tecniche comunicative utilizzava e su quali argomenti si concentrava maggiormente durante il colloquio.
  • Cloud Analysis: Questa ha contribuito a visualizzare le parole chiave più ricorrenti e rilevanti all’interno del dataset. Le parole maggiormente utilizzate durante le interazioni sono state identificate per capire quali concetti o problematiche erano centrali nelle conversazioni tra AI e paziente.
  • Analisi Markoviana: Infine, è stata applicata un’analisi markoviana per studiare le sequenze linguistiche utilizzate dall’AI. Questo metodo ha permesso di comprendere la struttura e la prevedibilità delle risposte dell’AI, valutando se le risposte seguivano modelli coerenti o se vi erano elementi di casualità nelle interazioni.

I risultati di queste diverse analisi hanno fornito un quadro dettagliato del funzionamento dell’AI come possibile supporto terapeutico, non solo dal punto di vista delle emozioni e dei contenuti, ma anche delle sequenze e dei modelli linguistici utilizzati durante il colloquio. Di seguito sono riportati i risultati emersi da queste indagini, che offrono spunti significativi su come l’AI può essere impiegata in contesti di consulenza psicologica e terapeutica. Per questioni connesse alla privacy del soggetto saranno riportati esclusivamente i dati relativi al trascritto del colloquio psicologico.

4. Risultati

Le interazioni emerse durante la simulazione hanno rivelato una ricca complessità di emozioni, temi ricorrenti e meccanismi di adattamento emotivo. Per introdurre questa analisi, sono stati esaminati attentamente i token principali raccolti dalle sessioni, cercando di comprendere in che modo il linguaggio e le parole scelte potessero riflettere lo stato d’animo del paziente, nonché le sue difficoltà e aspirazioni. L’obiettivo era identificare non solo i temi più frequenti, ma anche capire come questi si legassero tra loro, costruendo una narrativa emotiva che caratterizza il dialogo terapeutico.

La sentiment analysis (Medhat et al., 2014) condotta sulle interazioni simulate ha fornito risultati che evidenziano una forte predominanza di emozioni negative durante il colloquio. In particolare, i dati raccolti mostrano come le tre porzioni testuali (“chunk”; tabella 2) siano state tutte classificate come negative, con punteggi di confidenza molto alti, confermando un’atmosfera emotiva di disagio che pervade l’interazione.

Il Chunk 1 ha ottenuto un punteggio di 0.979, indicando un’alta certezza nel classificare il contenuto come negativo. Questo suggerisce che le parole e le frasi analizzate in questa parte della conversazione erano fortemente connotate da emozioni di sofferenza, tristezza o insoddisfazione. Allo stesso modo, il Chunk 3, con un punteggio molto simile di 0.974, conferma nuovamente una forte presenza di sentimenti negativi, con un livello di confidenza quasi identico al primo blocco. Entrambi i punteggi rivelano un quadro emotivo carico di pesantezza e negatività, evidenziando la preponderanza di pensieri o stati d’animo negativi durante queste sezioni della simulazione.

Anche il Chunk 2, pur presentando un punteggio di confidenza leggermente inferiore (0.787), resta fortemente orientato verso una classificazione negativa. Sebbene in questa parte dell’interazione ci sia una minore intensità rispetto agli altri due chunk, il risultato suggerisce comunque che il paziente stava esprimendo emozioni difficili, anche se forse in maniera meno marcata.

Questi risultati sono coerenti con le osservazioni precedenti, dove termini come “infelice”, “vuoto”, “tristezza”, e “insoddisfatta” erano tra i più ricorrenti. La predominanza di sentimenti negativi sembra indicare una fase del colloquio in cui il paziente sta esprimendo la sua sofferenza in modo esplicito, con poca o nessuna indicazione di miglioramento emotivo. Questo potrebbe rappresentare un momento critico della terapia, dove emergono con forza le difficoltà personali e i conflitti emotivi, che sono il punto di partenza per un percorso di guarigione e crescita.

La sentiment analysis prosegue con ulteriori conferme della prevalenza di emozioni negative, come mostrato dal risultato della classificazione testuale fornita dall’algoritmo di Hugging Face (Jain, 2010). Il testo analizzato, che includeva termini come “psicoterapia”, “terapeuta”, “iniziare”, “esplorare”, e “difficile”, è stato classificato come NEGATIVE con un punteggio di 0.984. Questo dato rappresenta una certezza molto alta (circa il 98%) che il contenuto del dialogo fosse intriso di emozioni negative.

Il punteggio particolarmente elevato indica che l’algoritmo ha identificato elementi chiave che evidenziano uno stato di sofferenza e difficoltà all’interno del processo terapeutico. Parole come “difficile” e “esplorare” riflettono il tentativo del paziente di navigare tra emozioni complesse, probabilmente legate a sfide interne non ancora risolte. Questo conferma l’idea che il colloquio fosse focalizzato sulla scoperta e sull’elaborazione di sentimenti di disagio, un aspetto comune nelle prime fasi della terapia quando il paziente esprime i propri conflitti e le proprie vulnerabilità (Armstrong, 2000).

Come mostrato nella figura sottostante (figura 1) la cloud analysis (Heimerl et al., 2014) ha messo in luce due temi principali: felicità e vuoto, che rappresentano i poli opposti del conflitto emotivo del paziente. Da un lato, c’è il desiderio di raggiungere la felicità; dall’altro, il senso di vuoto, sia fisico che emotivo, che domina il vissuto del paziente. Un secondo tema centrale è il cibo, spesso associato alle emozioni, suggerendo che l’alimentazione viene utilizzata come un meccanismo di gestione emotiva, soprattutto nei momenti di disagio o insoddisfazione.


Le parole legate ai momenti e alle emozioni mostrano una riflessione costante su eventi specifici e sulle fluttuazioni emotive, con un’oscillazione tra sentimenti positivi e negativi. Questo evidenzia un percorso di auto-consapevolezza in cui il paziente cerca di comprendere e gestire queste emozioni contrastanti (Figura 2).

L’analisi markoviana (Régnier & Szpankowski, 1998) delle transizioni lessicali evidenzia come la parola “felicità” venga spesso seguita da termini che ne modificano o ridimensionano il significato. Dalla grafica emerge chiaramente che “momenti” è la parola che segue con maggiore frequenza “felicità”, suggerendo che il paziente associa questa emozione a esperienze temporanee, vissute in circostanze specifiche e limitate. La felicità, quindi, non appare come uno stato stabile o continuo, ma come qualcosa che viene sperimentato in frammenti di tempo, durante “momenti” isolati.

Questa idea si rafforza ulteriormente con la frequenza della parola “ultima”, che lascia intendere una riflessione sul passato. 

Parallelamente, termini come “provo” e “vuoto” descrivono una contraddizione interna: da un lato c’è lo sforzo consapevole di provare la felicità, ma dall’altro emerge il senso di vuoto che accompagna o segue questo tentativo. Questa sequenza evidenzia una difficoltà nel mantenere uno stato di felicità duraturo, con il vuoto che sembra insinuarsi subito dopo i tentativi di provare emozioni positive. L’accostamento frequente di questi termini suggerisce che, per il paziente, la felicità è qualcosa che viene costantemente minata da un sottofondo di mancanza o insoddisfazione.

Un altro elemento interessante è la presenza del termine “cibo” in stretta associazione con “felicità”. Questo collegamento rafforza quanto già emerso nelle analisi precedenti: il cibo è percepito dal paziente come una fonte di conforto o come un modo per colmare il vuoto emotivo. La felicità viene spesso legata al cibo, il che potrebbe indicare che il paziente associa momenti felici con l’atto di mangiare, vedendolo come una via per provare sollievo temporaneo dalle emozioni negative.

L’analisi markoviana su 1205 (di seguito tabella 3 riassuntiva delle top 20 interaction) token ha evidenziato diverse transizioni significative, che delineano le principali dinamiche emotive del paziente. 

Una delle transizioni più rilevanti è quella tra “andare” e “momenti”, che suggerisce come il paziente percepisca il progresso personale o emotivo come qualcosa di frammentario e disgiunto. I miglioramenti sembrano avvenire in “momenti” isolati, piuttosto che in un flusso continuo, riflettendo forse una difficoltà nel mantenere stabilità emotiva o un senso di avanzamento nel percorso di crescita personale. Un’altra transizione interessante è quella tra “felicità” e “annoiata”, che rivela un contrasto tra il desiderio di essere felice e un sottostante senso di vuoto o insoddisfazione. Questa associazione suggerisce che il paziente fatica a mantenere uno stato di felicità, con la noia o l’insoddisfazione che emergono rapidamente. Ciò potrebbe indicare aspettative non realistiche sulla felicità o una difficoltà a provare emozioni positive in modo stabile.

La transizione tra “strategia” e “stressata” evidenzia come il paziente sia consapevole del proprio stato di stress e stia cercando di mettere in atto strategie per gestirlo. Tuttavia, questa consapevolezza potrebbe non essere ancora accompagnata da un’efficacia completa nel mettere in pratica tali strategie, il che richiede un approfondimento in terapia per sviluppare metodi più adeguati e sostenibili.

Infine, la transizione tra “te” e “aspettative” riflette il peso delle aspettative personali o relazionali. Il paziente sembra percepire forti pressioni, sia interne che esterne, che potrebbero contribuire a stati di stress o insoddisfazione. Queste aspettative possono essere legate a come il paziente crede di dover essere o agire, creando conflitti con la sua realtà emotiva e relazionale.

In sintesi, l’analisi markoviana mette in luce un conflitto interiore tra il desiderio di miglioramento e il persistere di emozioni di frustrazione, insoddisfazione e stress. Le transizioni rivelano aree chiave su cui il percorso terapeutico dovrebbe concentrarsi: stabilizzare le emozioni, gestire meglio le aspettative personali e sviluppare strategie di coping più efficaci. Questi risultati possono fornire una guida per un intervento terapeutico mirato, che aiuti il paziente a trasformare le sue esperienze emotive e a trovare un equilibrio più duraturo.


Per concludere l’analisi markoviana (vedi figura 2) evidenzia che il cibo ha un ruolo centrale nel tentativo del paziente di gestire i propri stati emotivi. Esso viene utilizzato come meccanismo di coping per affrontare lo stress, il vuoto e la tristezza, ma questa strategia sembra offrire solo sollievo temporaneo, spesso accompagnato da una rapida ricaduta in sentimenti negativi (Randler et al., 2017).

5. Discussione

I risultati delle diverse analisi – sentiment analysis, cloud analysis e analisi markoviana – forniscono un quadro complesso e approfondito delle difficoltà emotive del paziente, delineando temi centrali che meritano attenzione terapeutica.
La sentiment analysis ha evidenziato una prevalenza di emozioni negative, con punteggi molto alti, indicando uno stato di sofferenza predominante. Parole come vuoto, tristezza e insoddisfazione dominano il discorso, suggerendo che il paziente si trovi in una fase critica del suo percorso emotivo, in cui prevalgono sentimenti di disagio e malessere. Questo è tipico delle prime fasi di una terapia, quando i problemi più profondi iniziano a emergere con chiarezza (Pennebaker, 2011).
Dalla cloud analysis emerge una dicotomia tra felicità e vuoto, che riflette un conflitto interiore significativo. La felicità è percepita come transitoria, legata a momenti fugaci, mentre il vuoto sembra essere una sensazione più persistente e radicata (Watson & Clark, 1999). Questo dualismo indica che, sebbene il paziente desideri raggiungere la felicità, è spesso ostacolato da una profonda sensazione di vuoto emotivo, che tende a riemergere.
Il cibo appare come un tema centrale nel discorso del paziente, spesso legato a emozioni come stress e tristezza. Dalla markoviana emerge che il cibo viene utilizzato come un meccanismo di coping per gestire sentimenti di vuoto e disagio (Polivy & Herman, 2002). Tuttavia, questa strategia sembra fornire solo un sollievo temporaneo, con la felicità legata al cibo che si rivela essere di breve durata. Il paziente, infatti, sembra entrare in un ciclo in cui il cibo colma momentaneamente il vuoto emotivo, ma non risolve il problema alla radice, portando rapidamente a una ricaduta nel disagio emotivo (Sassaroli & Ruggiero, 2005).
Un altro aspetto rilevante è la percezione delle aspettative, spesso collegate a termini come te e stress. Questo suggerisce che il paziente avverte una pressione significativa, forse derivante da aspettative personali o relazionali che non riesce a soddisfare (Bandura, 1997). Queste aspettative elevate possono contribuire al suo stato di insoddisfazione e al senso di fallimento, aggravando ulteriormente il suo malessere (Deci & Ryan, 2000).
Questi risultati offrono spunti chiave per il percorso terapeutico. In primo luogo, è necessario lavorare sulla stabilizzazione emotiva, trasformando i momenti di felicità fugace in esperienze più durature (Linehan, 1993). Parallelamente, sarà importante esplorare e ristrutturare il ruolo del cibo come meccanismo di coping, introducendo strategie alternative e più salutari per la gestione delle emozioni (Hayes et al., 1999).
Un altro obiettivo sarà rivedere le aspettative personali del paziente, aiutandolo a ridurre la percezione di pressioni esterne o interne e a coltivare un senso di accettazione di sé (Rogers, 1961). Infine, l’elaborazione della dicotomia tra felicità e vuoto richiederà un approfondimento per aiutare il paziente a riconoscere le proprie emozioni, a gestirle e a costruire un equilibrio emotivo più stabile e positivo (Greenberg & Safran, 1989).
L’analisi complessiva indica che il paziente è impegnato in una lotta tra il desiderio di felicità e la costante presenza di vuoto emotivo. Il percorso terapeutico dovrà concentrarsi su questi temi fondamentali, aiutando il paziente a sviluppare una maggiore stabilità emotiva e a trovare strumenti più efficaci per affrontare il proprio malessere.

  1. Punti di forza e punti critici dell’utilizzo dell’AI in Psicoterapia: due facce della stessa medaglia.

Attraverso un test esperienziale, è stato chiesto a ChatGPT di condurre una seduta di psicoterapia, al fine di valutare la sua capacità di comprendere e rispondere efficacemente alle richieste di un possibile paziente, o quantomeno di un essere umano in difficoltà. Così facendo è stato possibile rilevare punti di forza e punti critici dell’utilizzo dell’AI, in tale situazione oltre che in un’ottica più generale.
Uno dei maggiori vantaggi dell’utilizzo dell’AI nei percorsi di psicoterapia  è l’abbattimento dei costi. Ogni essere umano potrebbe facilmente connettersi in rete attraverso l’uso di un PC o di uno smartphone, senza alcun costo specifico,  per effettuare un colloquio clinico. Basterebbe avviare una conversazione con ChatGPT chiedendogli testualmente: “Saresti in grado di simulare con me una seduta di psicoterapia in cui tu sei il mio terapeuta?” ed avresti come risposta: “Posso assolutamente simulare una seduta di psicoterapia con te.” Questo è certamente un vantaggio dal punto di vista economico, in quanto chiunque, a qualunque età, in qualsiasi contesto ed in qualsiasi situazione, potrebbe connettersi con un terapeuta virtuale, ma potrebbe essere anche un limite. Riprendendo la risposta iniziale di ChatGPT, ovvero “Posso assolutamente simulare una seduta di psicoterapia con te.”, appare chiaro che il terapeuta virtuale non condivide con il suo interlocutore le corrette informazioni per l’avvio di un percorso di psicoterapia, così come farebbe uno psicoterapeuta, a prescindere dal suo approccio di riferimento. In una fase di accoglienza, in cui la creazione di una relazione  basata sulla fiducia, appare essere l’obiettivo primario, il terapeuta è tenuto a riportare al paziente le corrette informazioni circa la messa in opera di un percorso di psicoterapia; prima di avviare la psicoterapia infatti, ammesso che sia necessario farlo, lo psicoterapeuta informa il paziente sulle modalità di svolgimento dei colloqui, sui vantaggi e gli svantaggi che lo stesso potrebbe avere, sulla possibile durata, generalmente difficile da prevedere a priori e soprattutto definisce le corrette aspettative di tale percorso, spesso non aderenti al piano di realtà, secondo quanto riferito dai pazienti, in fase iniziale (Wells, A. 1999). Questo lavoro terapeutico non viene messo in pratica da ChatGPT. Pertanto, queste informazioni mancanti, evidenziano una differenza sostanziale tra la psicoterapia in vivo e la psicoterapia virtuale. La non presenza di alcuna differenza temperamentale di risposta, a prescindere che si chieda una cosa piuttosto che un’altra a ChatGPT, non permetterebbero al terapeuta virtuale di “comportarsi” alla stregua di uno psicoterapeuta in carne ed ossa. 
Un aspetto interessante, in merito a quanto appena evidenziato è la formulazione della domanda. Se viene chiesto a ChatGPT di simulare un colloquio psicoterapeutico, risponde subito in modo positivo senza aggiungere alcuna informazione aggiuntiva, come ad esempio quelle sopracitate; se invece si chiedono informazioni in merito all’esistenza di psicoterapeuti virtuali, risponde testualmente: “Sì, esistono diverse piattaforme e applicazioni basate sull’intelligenza artificiale che offrono supporto psicologico virtuale. Questi strumenti non sostituiscono completamente la terapia con un professionista umano, ma possono fornire supporto complementare.”. Questo aspetto fa emergere un dato importante: è fondamentale saper formulare richieste a ChatGPT; una domanda stimolo poco chiara, confusa o semplicemente mal articolata secondo il pensiero presente nella nostra testa, potrebbe non permettere all’AI di rispondere adeguatamente, o come ci si aspetterebbe, tralasciando aspetti di fondamentale importanza, come evidenziare che le chat virtuali non possono sostituire uno psicoterapeuta umano. Questo è di certo un limite sia dell’intelligenza artificiale che dell’essere umano. Quante persone sono a conoscenza di come funziona praticamente l’intelligenza artificiale e quindi di quale sia la modalità corretta di fare una domanda alla stessa? Ipotizzando una risposta, probabilmente poche persone sarebbero in grado di farlo. 
Di certo però, formulare una domanda a ChatGPT, di qualsivoglia naturale, è accessibile a chiunque, a prescindere dalla modalità di formulazione della stessa, e questo risulta essere un vantaggio. Avere “qualcuno” a cui poter domandare le cose più svariate, apparentemente senza dover dare nulla in cambio, risulta essere sicuramente un punto di forza, o quantomeno qualcosa che potrebbe compiacere la maggior parte delle persone.
Un altro evidente vantaggio è la disponibilità che l’AI dimostra di avere rispetto a degli scenari in vivo. In molti casi l’AI, così come la VR (virtual reality) possono essere buone alternative per prepararsi ad una esposizione in vivo (es. nelle fobie specifiche con piccoli animali; parlare in pubblico; prepararsi ad un colloquio di lavoro). Lo scenario virtuale, inoltre, permette di poter ripetere il livello di esposizione temuto tante volte quanto possa essere necessario per un superamento della fobia, senza limiti specifici (Meyerbroker, & Morina. 2021). Tale vantaggio però potrebbe decadere in termini di sicurezza, in quanto durante una possibile esposizione ad uno scenario ansiogeno o comunque di carattere negativo, il soggetto sarebbe da solo, o meglio in compagnia di una macchina intelligente e non all’interno di uno studio, affiancato da un terapeuta. Tale sostanziale differenza potrebbe precludere la buona riuscita dell’esposizione e di conseguenza il superamento dello stimolo fobico e/o della fobia in toto.
Ancora, l’AI parla come un libro già stampato, come un articolo già scritto, come un programma già editato, ecc.; riporta ogni volta frasi o interi paragrafi di libri, di articoli, di qualsivoglia materiale “studiato” ed immagazzinato, come se fosse una banca dati chiusa in qualche cassetto. Questo aspetto è un punto di forza oppure no? 
Se si è alla ricerca di dati, informazioni, materiale di studio, certamente si, ma se lo scopo è trovare qualcuno che faccia sentire l’io accolto, ascoltato e compreso quasi sicuramente, no. 
Appare chiaro quindi, quanto gli stessi punti, possano avere sia una valenza positiva che negativa. Come dovremmo comportarci con l’AI allora? L’attenzione dovrebbe rimanere focalizzata sullo sviluppo di possibili strumenti atti a facilitare e migliorare gli elementi umani della psicoterapia, così da rendere il percorso psicoterapeutico sempre più efficiente ed efficace . Non si dovrebbe tendere quindi ad eliminare e sostituire l’essere umano e quanto di sua competenza. L’obiettivo non è quindi quello di rendere i terapisti obsoleti, ma di arricchire ed aumentare i mezzi a loro disposizione, garantendo a tutti gli esseri umani un accesso adeguato al supporto psicologico necessario

6. Conclusioni

L’AI porta con sé un alto potenziale di utilizzi e di possibilità di applicazioni sia terapeutiche che di ricerca scientifica. Molti però sono ancora gli aspetti che dovrebbero essere indagati a riguardo. Uno tra questi è l’utilizzo dell’AI in ambito terapeutico anche in relazione a bambini ed adolescenti. Questi ultimi, che generalmente hanno più dimestichezza rispetto agli adulti con dispositivi come PC e smartphone e con qualsivoglia strumento inerente alle nuove tecnologie, potrebbero utilizzare l’AI in modo consapevole e critico se fosse data loro questa possibilità, soprattutto come strumento di informazione e prevenzione. Un altro aspetto che sarebbe molto utile investigare potrebbe essere l’effetto che l’uso dell’AI può avere rispetto alla creazione della relazione tra terapeuta e paziente e di conseguenza all’alleanza terapeutica. L’utilizzo del dispositivo non si sostituisce alla figura del terapeuta che comunque è fondamentale per la programmazione e per la conduzione del piano di intervento terapeutico.
L’utilizzo di strumenti AI offre importanti opportunità per migliorare la diagnosi, monitorare i progressi e personalizzare i trattamenti. Attraverso l’analisi di dati complessi e su larga scala, l’AI ha il potenziale di identificare schemi comportamentali e segnali predittivi che possono sfuggire all’osservazione clinica, rendendo possibile una maggiore precisione diagnostica e una gestione più mirata delle condizioni di salute mentale. Inoltre, la capacità dell’AI di ridurre i costi e migliorare l’accessibilità dei servizi psicoterapeutici è particolarmente rilevante per quelle popolazioni che attualmente hanno un accesso limitato alle cure psicologiche (Patil & Rasave, 2021).
Tuttavia, nonostante queste promettenti applicazioni, l’AI presenta anche limiti sostanziali che non possono essere trascurati. Uno dei maggiori ostacoli all’adozione estesa dell’IA nella psicoterapia riguarda la mancanza di empatia e comprensione umana. La psicoterapia tradizionale si basa in larga parte sulla relazione interpersonale tra paziente e terapeuta, un’interazione che coinvolge non solo l’elaborazione cognitiva ma anche una profonda connessione emotiva e intuitiva. L’intelligenza artificiale, per quanto sofisticata, non è in grado di replicare completamente l’empatia umana, la capacità di comprendere le sfumature emotive o di rispondere adeguatamente ai cambiamenti del tono o del linguaggio non verbale del paziente (Grodniewicz & Hohol, 2023). Questa carenza sottolinea l’importanza di mantenere il terapeuta umano al centro del processo terapeutico, affidando all’AI solo funzioni ausiliarie. In aggiunta, l’uso dell’AI nella psicoterapia solleva rilevanti questioni etiche. Le piattaforme digitali che utilizzano AI raccolgono e processano una vasta quantità di dati personali, il che comporta potenziali rischi per la privacy dei pazienti. È cruciale che vengano implementate misure di sicurezza avanzate per proteggere questi dati e che vi sia piena trasparenza sugli algoritmi utilizzati per garantire che i pazienti comprendano come le loro informazioni vengono gestite e utilizzate (Meyerbroker, & Morina. 2021). Inoltre, la possibilità che l’AI sostituisca il terapeuta umano in alcuni contesti solleva interrogativi su come verranno affrontati gli aspetti più delicati della cura, come l’interpretazione delle emozioni o la costruzione dell’alleanza terapeutica.
Nonostante questi limiti, l’intelligenza artificiale rappresenta una risorsa preziosa se utilizzata in maniera complementare alla pratica clinica tradizionale. In futuro, è plausibile immaginare un modello di psicoterapia ibrido, in cui l’AI supporta i terapeuti umani migliorando la loro capacità di monitorare e personalizzare i trattamenti, senza però sostituirli. Un tale modello potrebbe integrare l’efficienza e la precisione analitica della tecnologia con la capacità umana di comprendere il vissuto emozionale e relazionale dei pazienti. L’AI potrebbe, ad esempio, essere utilizzata per eseguire valutazioni preliminari, monitorare i progressi tra una seduta e l’altra o identificare aree problematiche specifiche che richiedono un intervento più approfondito da parte del terapeuta (Aktan et al., 2022).

In conclusione, l’AI ha il potenziale di rivoluzionare la psicoterapia, rendendola più efficiente e accessibile. Tuttavia, per realizzare appieno questo potenziale, è essenziale che venga utilizzata come strumento di supporto e non come sostituto del terapeuta umano. Le implicazioni etiche, relazionali e pratiche devono essere attentamente considerate e integrate nello sviluppo di queste tecnologie. Il futuro della psicoterapia richiede un approccio equilibrato che sfrutti i vantaggi dell’innovazione tecnologica, pur mantenendo al centro il valore della relazione umana. Solo in questo modo sarà possibile garantire che l’AI contribuisca a migliorare la qualità della cura e il benessere dei pazienti, senza compromettere l’essenza della pratica psicoterapeutica.

Bibliografia

  • Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior133, 107273D’Alfonso, S. (2020, June 3). AI in mental health. Elsevier BV, 36, 112-117. https://doi.org/10.1016/j.copsyc.2020.04.005
  • Armstrong, P. S. (2000). Opening gambits: The first session of psychotherapy. Jason Aronson, Incorporated.
  • Bandura, A. (1997). Self-efficacy: The exercise of control. W.H. Freeman.
  • Chen, T., Ou, J., Li, G., & Luo, H. (2024). Promoting mental health in children and adolescents through digital technology: a systematic review and meta-analysis. Frontiers in Psychology15, 1356554.
  • Deci, E. L., & Ryan, R. M. (2000). The “what” and “why” of goal pursuits: Human needs and the self-determination of behavior. Psychological Inquiry, 11(4), 227-268. https://doi.org/10.1207/S15327965PLI1104_01
  • Greenberg, L. S., & Safran, J. D. (1989). Emotion in psychotherapy: Affect, cognition, and the process of change. Guilford Press
  • Grodniewicz, J. P., & Hohol, M. (2023). Waiting for a digital therapist: three challenges on the path to psychotherapy delivered by artificial intelligence. Frontiers in Psychiatry14, 1190084.
  • Hayes, S. C., Strosahl, K. D., & Wilson, K. G. (1999). Acceptance and commitment therapy: An experiential approach to behavior change. Guilford Press.
  • Heimerl, F., Lohmann, S., Lange, S., & Ertl, T. (2014, January). Word cloud explorer: Text analytics based on word clouds. In 2014 47th Hawaii international conference on system sciences(pp. 1833-1842). IEEE
  • Jain, S. M. (2022). Hugging face. In Introduction to transformers for NLP: With the hugging face library and models to solve problems (pp. 51-67). Berkeley, CA: Apress.
  • Limone, P., & Toto, G. A. (2021). Psychological and emotional effects of Digital Technology on Children in Covid-19 Pandemic. Brain Sciences11(9), 1126.
  • Linehan, M. M. (1993). Cognitive-behavioral treatment of borderline personality disorder. Guilford Press.
  • Luxton, D. D. (2016). An introduction to artificial intelligence in behavioral and mental health care. In Artificial intelligence in behavioral and mental health care (pp. 1-26). Academic Press. 
  • Medhat, W., Hassan, A., & Korashy, H. (2014). Sentiment analysis algorithms and applications. Ain Shams engineering journal5(4), 1093-1113.
  • Meyerbroker, & Morina. (2021). the use of virtual reality in assessment and treatment of anxiety and related disorders. Clin Psychol Psychother.
  • Patil, S., & Rasave, A. (2021, May). Artificial intelligence chat bot for counselling therapy. In Proceedings of the 4th International Conference on Advances in Science & Technology (ICAST2021).
  • Patil, S., & Rasave, A. (2021, May). Artificial intelligence chat bot for counselling therapy. In Proceedings of the 4th International Conference on Advances in Science & Technology (ICAST2021)
  • Pennebaker, J. W. (2011). The secret life of pronouns: What our words say about us. Bloomsbury Press.
  • Polivy, J., & Herman, C. P. (2002). Causes of eating disorders. Annual Review of Psychology, 53, 187-213. https://doi.org/10.1146/annurev.psych.53.100901.135103
  • Randler, C., Desch, I. H., im Kampe, V. O., Wüst-Ackermann, P., Wilde, M., & Prokop, P. (2017). Anxiety, disgust and negative emotions influence food intake in humans. International Journal of Gastronomy and Food Science7, 11-15.
  • Régnier, M., & Szpankowski, W. (1998). On pattern frequency occurrences in a Markovian sequence. Algorithmica22, 631-649.
  • Riva, G. (2002). Virtual reality for health care: the status of research. Cyberpsychology & Behavior5(3), 219-225..
  • Rogers, C. R. (1961). On becoming a person: A therapist’s view of psychotherapy. Houghton Mifflin.
  • Sassaroli, S., & Ruggiero, G. M. (2005). The role of stress in the association between low self-esteem, perfectionism, and worry, and eating disorders. Eating Behaviors, 6(3), 225-240. https://doi.org/10.1016/j.eatbeh.2004.12.002
  • Vilaza, G. N., & McCashin, D. (2021). Is the automation of digital mental health ethical? Applying an ethical framework to chatbots for cognitive behaviour therapy. Frontiers in Digital Health3, 689736.
  • Watson, D., & Clark, L. A. (1999). The PANAS-X: Manual for the positive and negative affect schedule-expanded form. University of Iowa.
  • Wells, A. (1999). Trattamento cognitivo dei disturbi d’ansia. McGraw-Hill.
  • Yang, F., Han, T., Deng, K., & Han, Y. (2020, October). The application of artificial intelligence in the mental diseases. In Proceedings of the 2020 Conference on Artificial Intelligence and Healthcare (pp. 36-40). 
+ posts

Andreana Lavanga è psicologa abilitata. Ha conseguito un Master in Risorse Umane e ha lavorato come tutor per studenti universitari con disabilità, oltre ad avere esperienza nel campo della pedagogia speciale e della formazione. Attualmente dottoranda di ricerca presso l'Università di Foggia, ha pubblicato ricerche sull’apprendimento basato su giochi digitali, sull'importanza del rinforzo positivo nella relazione insegnante-studente, sulle differenze pedagogiche nelle dinamiche educative e sul tema della costruzione del sé e le prospettive psico-educative nel metaverso.

Alessandro De Santis è un dottorando di ricerca, psicologo clinico e psicodiagnosta, con una specializzazione nell'analisi statistica dei test psicometrici. Nel corso della sua carriera accademica e professionale, ha sviluppato una competenza avanzata nell'applicazione di tecniche quantitative per la valutazione psicologica. Cultore dell'analisi statistica utilizza correntemente strumenti avanzati come MATLAB e Wolfram per elaborare e interpretare dati complessi, contribuendo alla ricerca scientifica attraverso l'integrazione tra psicologia e innovazione tecnologica.

Roberta Baldini è psicologa, tecnico ABA e psicoterapeuta cognitivo comportamentale.
Borsista di ricerca presso il dipartimento degli studi umanistici dell'Università di Foggia, ha pubblicato ricerche nel campo della formazione e dell'apprendimento e sul tema della costruzione del se' e le prospettive psico educative nel metaverso. Presso l'università di Foggia è anche tutor per gli studenti che svolgono il tirocinio durante il corso di laurea in scienze e tecniche psicologiche.

spot_imgspot_img

Articoli Correlati

wpChatIcon