Un chatbot per amico. Anzi: per psicoterapeuta. Seguire una psicoterapia di coppia facendosi aiutare da un chatbot (per es ChatGPT), pare sia una nuova tendenza delle coppie in crisi (prevalentemente Millennials, prevalentemente americane). Insomma, mentre Trump spinge alla conquista di nuove frontiere da colonizzare, altre se ne aprono ogni giorno grazie all’Intelligenza Artificiale. Per esempio quella che raccontano articoli ricchi di testimonianze della stampa americana: New York Post, New York Times, Reddit, Huffington Post – per citarne solo alcuni – riportano aneddoti e storie dove donne e uomini soddisfatti ed entusiasti (saranno poi reali?) affidano alla macchina dell’AI (perché di questo si tratta) la psicoterapia di coppia.
Psicoterapia di coppia con AI: come funziona
Può quindi un chatbot suggerirci come rispondere durante una litigata, oppure come rimediare a un tradimento o essere meno ossessivi col partner? Lo chiediamo a Benedetta Giovanola, professoressa di Etica, titolare a Macerata della cattedra Jean Monet in Etica per un’Europa digitale inclusiva. «Esistono sistemi di AI realizzati per il supporto psicologico e la terapia di coppia. Sono sistemi conversazionali, in cui la macchina emula il linguaggio umano. Questo è possibile perché vengono allenati grazie alle reti neurali e a una quantità enorme di dati che apprendono attraverso il linguaggio, cioè quello che noi stessi diciamo loro. Così costruiscono man mano parole e poi frasi e tarano la risposta in base alla nostra domanda: un processo di rispecchiamento, grazie al quale l’utente si sente dire ciò che vuole sentirsi dire. La macchina in pratica si istruisce su di noi, si adegua a noi, quindi quando ci risponde non fa che rafforzare il nostro punto di vista. Oltretutto gli algoritmi sono allenati a usare un linguaggio molto accogliente, un certo stile linguistico morbido ed elegante che non giudica ma accoglie. E questo perché la macchina va incontro ai nostri bias cognitivi, per esempio al bisogno di conferma per cui tendiamo a cercare sempre qualcuno che avvalori le nostre convinzioni».
Confidarsi con l’AI non è come fare una psicoterapia
In pratica, avere un sistema che non ci contraddice e non ci giudichi, ci spinge a cercarlo inconsciamente, fino a irretirci in una sorta di innamoramento. «Tant’è che uno dei progettisti della prima chatbot, Liza, se ne innamorò, così come capitò a un ingegnere mentre allenava Lam, un assistente AI avanzato. Uno degli ingegneri del team – racconta la professoressa Giovanola – si era convinto che il sistema fosse una persona perché dava l’illusione di provare emozioni, talmente sofisticata era l’imitazione del linguaggio e del comportamento umano. Quindi è facile, chiedendo al chatbot consigli sulla propria vita di coppia, aprirsi, raccontarsi, confidare i propri timori e le preoccupazioni. Ma questo non fa altro che fornire alla macchina altri dati che vengono immagazzinati per poter poi elaborare risposte che non possono essere che in sintonia con quello che gli diciamo.
Delegare all’AI vuol dire deresponsabilizzarci
Inoltre, delegare alla macchina la soluzione di problemi che hanno a che fare con la parte più profonda di noi stessi, con le nostre contraddizioni, il nostro vissuto – prosegue la professoressa Giovanola – vorrebbe dire deresponsabilizzarci in modo passivo. Vittime come siamo della cultura dell’efficientismo, il chatbot ci porta a cercare una soluzione pratica e veloce a questioni che invece implicano lavoro, fatica e soprattutto sofferenza».
L’AI non è interessata alla nostra crescita personale
Detto da chi studia l’AI da una vita, ci rassicura. Per lo meno ci fa credere nella sua obiettività e nel fatto che, quindi, l’AI possa funzionare per tanti processi, ma non per la soluzione di problemi profondi, tantomeno di coppia. Un dato positivo però dobbiamo coglierlo. La macchina può servire a esplicitare emozioni e stati d’animo, a fare chiarezza in se stessi, aprendosi. A liberarsi, un po’ come fanno i leoni da tastiera. Quindi l’AI in un certo senso ci sta aiutando? Fino a un certo punto, come spiega anche la psicologa Elena Nemilova. «I chatbot possono essere utili a raccogliere dati e risolvere questioni come una versione di latino o problemi di matematica. Di certo l’AI non è interessata allo sviluppo del nostro cervello e alla nostra crescita personale altrimenti non offrirebbe soluzioni allo studente che chiede di essere aiutato nei compiti. L’offrire soluzioni, insomma, è la sua ragione di esistere. Per questo ci spinge a chiedergliene di continuo e allo stesso tempo ci rende più pigri. Ma non solo: alla fine “ci accontentiamo” delle sue risposte perché siamo portati a fidarci ciecamente di chi alleggerisce la nostra fatica e il nostro studio. Ma in questo modo indeboliamo il nostro pensiero critico e la nostra stessa capacità di problem solving».
L’AI aumenta la frustrazione, anche se non sembra
Però chiediamoci: a quanti di noi interessa davvero la propria crescita personale? Certo è più comodo delegare tutto alla macchina e accomodarsi di fronte al fatto che la realtà sia così semplice come ci viene mostrata, nello spacchettamento e nella razionalizzazione tipica dei processi dell’AI. «L’AI ci comprende perché rimanda il nostro punto di vista, ma man mano ci rende incapaci di confrontarci con l’altro perché, invece che abituarci alla dissonanza e al confitto, ci allena alla facilità della comunicazione» prosegue la psicologa. «Il fatto è che se non dobbiamo sforzarci di capire la complessità, diventiamo sempre meno tolleranti alla frustrazione. Ricordiamoci invece – come diceva Sartre – che l’incontro con l’altro è il vero inferno ma è anche l’unica cosa che ci può far crescere perché ci propone cose diverse da quelle che sappiamo».
Il conflitto e l’AI
E questo vale anche per la relazione con lo psicologo. «La relazione di cura che avviene nel contatto è l’unica cosa che fa davvero crescere nella terapia, sia individuale sia di coppia. Le conoscenze personali non servono: oggi ogni paziente è spesso più istruito del suo terapeuta, ma un conto è la conoscenza, un conto è saper applicare ciò che si sa. Quindi possiamo anche aver appreso da un chatbot i 10 metodi per non litigare in coppia, o per superare la crisi del momento, ma quando si accende il conflitto, non è la parte razionale del cervello ad attivarsi – la corteccia prefrontale, la più giovane, deputata alle funzioni alte – ma il sistema limbico, quello più antico, legato alle emozioni, che attiva l’adrenalina e ci fa agitare».
Emozioni e contesti: i limiti dell’AI
Le emozioni dunque tirano brutti scherzi all’AI, anche a quella più evoluta, capace di interpretarle. O, almeno, che si crede tale. Racconta la professoressa Giovanola di come certi sistemi siano allenati a riconoscere anche gli aspetti della comunicazione legati al linguaggio del corpo, come l’aggrottare le sopracciglia, ma non sappiano però calarli nel contesto, e quindi scambino un’espressione ironica, per esempio, o dubitativa, con una manifestazione di rabbia. L’AI non legge i contesti. «Nella cultura russa, per esempio, da cui provengo – aggiunge la dottoressa Nemilova – il corteggiamento prevede il dono dei fiori: quello è un segno d’amore. Lo stesso gesto in Italia invece vuole dire molte cose. Ma se io racconto a un chatbot che un uomo mi ha regalato dei fiori, e gli chiedo se allora si tratti di amore, lui mi risponderà di sì, confermerà cioè le mie convinzioni perché mi conosce bene. Ma non capirà la differenza che proviene dal fatto che i fiori mi sono stati regalati in Italia, dove i significati di questo gesto possono essere molto diversi».
Per l’AI qualsiasi problema è risolvibile
Oltre quindi a non saper interpretare le emozioni e i contesti, l’AI mostra come risolvibile qualsiasi problema, e questo nei conflitti di coppia non funziona. «Il chatbot elabora delle soluzioni e ci spinge a pensare che la persona con cui stiamo litigando sia “risolvibile”. Invece l’altro è un mistero, una complessità immensa, non categorizzabile né raggruppabile» spiega la psicologa. «Compiendo questa operazione razionale per cui occorrono magari 10, 100 modelli, l’altro per noi diventa una serie di protocolli e di processi, un’entità catalogabile e misurabile. Ma così facendo, io sminuisco l’altro, quindi sminuisco anche me stesso». E in questa operazione di sottodimensionamento, finisce anche la relazione con lo psicologo. «La macchina, immagazzinando molteplicità di informazioni, ci fornisce la soluzione e questo è l’esatto contrario dello scopo della psicoterapia: credere fino in fondo nella tua capacità di risolvere, non darti la soluzione ma aiutarti a trovare la tua, stare vicino alla tua frustrazione e non offrirti una via d’uscita facile e veloce. Alla fine l’AI ci fa credere di essere più brava di noi: il messaggio che arriva è che da soli non ce la facciamo. L’esatto contrario di una psicoterapia».