
Intelligenza artificiale e fragilità umana
Possiamo chiedere tutto a un algoritmo. Ma non possiamo aspettarci che ci abbracci.
C’è una voce crescente nel mondo della psicologia – e forse anche un po’ nella mia testa – che mi sussurra: “Attenzione. L’intelligenza artificiale sta arrivando anche qui. Anche nella stanza della terapia. Anche nel luogo dove credevamo che l’umano fosse sacro e inviolabile”.
E in effetti è così. Sempre più spesso incontro persone che, prima di decidere di intraprendere un percorso psicologico, si sono affidate a chatbot, applicazioni, simulatori di ascolto. Hanno cercato conforto in un algoritmo. E non posso biasimarle. Perché l’IA è rapida, non ti mette in imbarazzo, non ti guarda negli occhi mentre confessi le tue vergogne. È anonima. Ti risponde subito, non si stanca mai. Ed è gratuita, o quasi. Ma ecco il nodo: non è umana. Nel mio lavoro, io vivo di dettagli.
Di toni di voce che cambiano.
Di pause che parlano.
Di respiri trattenuti.
Di occhi che si abbassano mentre le parole provano a uscire.
Vivo delle crepe, dei tremolii, delle esitazioni che solo la presenza reale sa cogliere. E penso: come può un’intelligenza artificiale – per quanto avanzata – cogliere tutto questo? Come può una macchina, per quanto ben addestrata, comprendere il peso che ha per una persona dire “non ce la faccio più”?
L’IA può offrirti strategie. Può indicarti tecniche. Può persino imitare l’empatia. Ma non ha corpo. Non ha storia. Non ha cuore. E soprattutto non ha coscienza di te. Non sa cosa ti succede quando ti svegli alle tre del mattino e senti il vuoto tirarti giù dal letto. Non sa cosa provi quando il passato ti stringe alla gola. Non sa cosa significhi, davvero, avere bisogno.
Quello che mi preoccupa, allora, non è l’intelligenza artificiale in sé. È la solitudine che ci porta a rifugiarci in essa. È la cultura dell’efficienza che ha contagiato anche la cura. È l’idea che “basta parlare” – anche con un software – per stare meglio. È la rimozione del dolore autentico a favore di una sua versione semplificata, addomesticata, ripulita da ogni traccia di disperazione vera.
Perché diciamolo: la sofferenza non è sempre elegante. A volte è scomposta, a volte grida, a volte non sa spiegarsi. E la terapia – quella vera – non è una serie di suggerimenti da applicare. È un incontro. Un tempo condiviso. Uno spazio che sa aspettare, anche quando non succede nulla. È l’arte dell’esserci senza fretta, senza soluzioni già pronte.
La verità è che abbiamo sempre meno pazienza per i tempi della psiche. Vogliamo risposte veloci anche per le nostre ferite. Vogliamo guarire in fretta, possibilmente senza doverci esporre troppo. Ma la psicologia non è un tutorial. È una relazione. E la relazione, quella profonda, ha bisogno di due umani – non di un umano e un codice binario.
Eppure non voglio demonizzare la tecnologia. Io stesso uso strumenti digitali nel mio lavoro. Piattaforme, app, strumenti per monitorare l’andamento della terapia. L’IA può essere un valido supporto per i professionisti, un alleato, un aiuto nella prevenzione, nel primo orientamento. Ma non può sostituire il contatto umano. Non può reggere il peso del dolore umano. Perché il dolore ha bisogno di essere condiviso, non solo interpretato.
Penso spesso a una frase di Winnicott: “È nel contatto reale con un altro essere umano che impariamo a esistere davvero.” È questo che rischiamo di perdere, se deleghiamo tutto alla macchina: la possibilità di esistere pienamente attraverso la relazione. Di essere riconosciuti, non solo letti. Di essere compresi, non solo processati.
Il mio invito è semplice: usate pure l’intelligenza artificiale, se vi aiuta a orientarvi.
Ma non fermatevi lì.
Non rinunciate alla complessità di un incontro vero.
Non barattate la profondità con la velocità.
La cura – quella autentica – ha bisogno di tempo, di fatica, di fiducia.
E soprattutto ha bisogno di qualcuno che ci sia. Con tutto sé stesso.
Fonte foto: Matthew Menendez (@__mxtthxw) | Unsplash Photo Community