Umberto Galimberti “Ma ChatGpt non può curare la nostra anima”
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
3 Settembre 2025
Sostituendo lo psicologo con l’intelligenza artificiale rischiamo di rinunciare alla complessità della vita. Perché nessuno è riducibile a un modello matematico.
Si può affidare all’intelligenza artificiale la cura dell’anima? Il tentativo è stato fatto, con un certo
entusiasmo, dallo psicologo clinico Harvey Lieberman che, come lui stesso riferisce in un articolo
del New York Times pubblicato su Repubblica (lo scorso 28 agosto), nella sua lunga carriera ha
formato centinaia di medici e diretto programmi e servizi di salute mentale. A 81 anni, Lieberman
scopre ChatGpt, basata sull’intelligenza artificiale, dotata di apprendimento automatico e
specializzata nella conversazione con l’utente umano. Dopo averla frequentata con una certa
soddisfazione, l’ha trovata molto utile fino a definirla «una protesi cognitiva, un’estensione attiva
del proprio pensiero».
Questa sperimentazione immagino incuriosisca molti psicologi, in quest’epoca in cui, se non ti
entusiasmi delle novità tecnologiche, sei semplicemente uno che vuol rimanere ancorato al passato,
spaventato da un progresso che non riesce a controllare e da cui, per questo, si difende. Non temo di
essere annoverato in questa categoria, perché non credo che l’intelligenza artificiale sia in grado di
superare quel limite ben segnalato nel V secolo a. C. da Eraclito, secondo cui: «Per quanto tu
cammini, anche percorrendo ogni strada, non raggiungerai mai i confini dell’anima, tanto è
profonda la sua vera essenza».
È possibile affidare la propria anima – e più in generale la conduzione della propria vita – alla
valutazione di dispositivi algoritmici, per quanto avanzati, come quelli utilizzati dall’intelligenza
artificiale? Aristotele non conosceva gli algoritmi, ma nell’ Etica Nicomachea (Libro VI) dice che,
siccome la vita degli uomini è per molti aspetti imprevedibile, per governarla non ci si può affidare
a una scienza esatta come la matematica. È invece necessaria quella virtù, la saggezza (phronesis ),
che non parte da premesse anticipate in grado di giungere a conclusioni inconfutabili, come nel caso
dei teoremi matematici.
L’intelligenza artificiale rinuncia alla “saggezza” aristotelica perché la ritiene uno strumento
approssimativo e insufficiente per la conoscenza dei vissuti e dei comportamenti umani, anche se
questi variano da individuo a individuo e, all’interno dello stesso individuo, nelle diverse stagioni
della sua vita. Per questa ragione, attraverso la raccolta di una gran quantità di informazioni che gli
algoritmi elaborano, l’IA ritiene di poter apprendere e generare conoscenze capaci di interpretare
vissuti e comportamenti umani, sia nella loro norma che nella loro devianza, in modo da poterli
confermare o correggere con risposte adeguate.
L’intento è quello di superare il limite delle tradizionali psicoterapie che – per quanto utili e in molti
casi vantaggiose – soffrono comunque di quell’approssimazione che sempre accompagna ogni
interpretazione umana. Eppure da Socrate, che proclamava la propria “dotta ignoranza”, a
Nietzsche, che metteva in guardia quanti non accettano che ci sia qualcosa che non sia conoscibile,
emerge una consapevolezza diversa. Nietzsche scrive infatti in Al di là del bene e del male : «Creda
pure finché vuole il volgo, che conoscere sia un conoscere esaustivo». L’intelligenza artificiale – o
meglio, la fiducia acritica che gli entusiasti assegnano alle capacità di questa intelligenza – ritiene
invece di poter superare questo limite.
Ma quale nevrosi si nasconde dietro questa fiducia? La “paura dell’incalcolabile”, direbbe sempre
Nietzsche. È la stessa paura che egli scorge in quanti spingono a oltranza la loro esigenza di una
conoscenza perfetta, priva di dubbi, approssimazioni e lacune. Scrive in un frammento del 1885:
«Quello di cercar la regola è il primo istinto di chi conosce, mentre naturalmente, per il fatto che sia
trovata la regola, niente ancora è conosciuto. Vogliono la regola, perché essa toglie al mondo il suo
aspetto pauroso. La paura dell’incalcolabile come istinto segreto della scienza».
Eppure, scrive Harvey Lieberman: «Col tempo ChatGpt ha cambiato il mio modo di pensare. Sono
diventato più preciso con il linguaggio, più curioso nei miei schemi comportamentali. Il mio
monologo interiore ha iniziato a rispecchiare le risposte di ChatGpt: calmo, riflessivo, abbastanza astratto da aiutarmi a riformulare le cose».
A questo punto mi verrebbe da chiedere a Lieberman: dove sono finiti i sentimenti e le emozioni, le
proiezioni e gli investimenti affettivi che immagino caratterizzavano la sua attività di psicologo
clinico nella sua relazione con il paziente? Non erano forse queste le grandi macchine, per quanto
approssimative e non perfette, che portavano –se non alla guarigione – al miglioramento delle
condizioni di vita dei suoi pazienti? Non è sfiorato dal dubbio che questi aspetti non rientrano nella
logica “lineare” con cui procedono i calcoli algoritmici avanzati di cui si serve l’intelligenza
artificiale, perché, se presi in considerazione, disturberebbero il sistema?
Mi domando: se si diffondesse su vasta scala questo uso dell’intelligenza artificiale per la cura
dell’anima, i fruitori – spinti dal bisogno di ottenere subito soluzioni e risposte – non finirebbero
con l’assumere un’attitudine passiva, accettando che la propria vita sia gestita da qualcosa di
esterno a loro? E tutto ciò senza una vera consapevolezza, anzi con la persuasione che la decisione
resti nelle loro mani, perché sono loro che hanno deciso di farsi guidare dall’IA. Peccato che la
logica “lineare”, propria delle macchine, non consente di riflettere la “complessità” dell’esistenza,
che appare semplice, non perché lo sia, ma perché l’intelligenza artificiale non è in grado di
rappresentarla.
Se il mondo digitale ha come obiettivo la prevedibilità e la calcolabilità – tale è il pensiero della
“macchina pensante (Denkmaschine )” di cui parlava Heidegger in Identità e differenza (1957) –
allora non può prescindere dal mondo-della- vita di husserliana memoria. Un mondo dove
l’individuo, immerso in un ambiente caratterizzato da una complessità, dovuta alla sua variabilità,
diversità ed evoluzione, non solo non è né prevedibile, né calcolabile, ma sfugge a ogni
modellizzazione. Negare che esista una realtà più complessa al di fuori del modello digitale è forse
solo indice di una smodata pigrizia intellettuale. Solo una mente pigra può pensare che
l’intelligenza umana sia riducibile ai responsi di quella che oggi chiamiamo – forse con un po’ di
esagerazione – “intelligenza” artificiale.
Se si consegna l’intelligenza umana a quella artificiale, se si evita di pensare con la propria testa per
affidarsi ai responsi dell’IA, i rischi possono essere anche tragici. Come è accaduto all’adolescente
californiano di 16 anni Adam Raine, che si era ritirato dalla vita sociale per consegnarsi alla
sindrome giapponese hikikomori , chiuso nella propria cameretta senza mai uscire, nutrito dai
familiari e in esclusiva comunicazione con il proprio computer e con le chat gestite dall’IA.
All’inizio Raine interrogava la macchina per risolvere i compiti scolastici, poi per controllare
l’ansia sociale, e infine per chiedere come costruire un cappio con cui suicidarsi.
Non è un caso isolato, se è vero che solo in Italia nel 2023, uno studio del Cnr stimava circa 54.000
casi tra gli studenti in ritiro sociale, mentre un’indagine dell’Iss ne contava 66.000.
Con questo non vogliamo demonizzare l’intelligenza artificiale, ma evitiamo di affidarci senza
riserve alle sue risposte. Perché, familiarizzando con l’utente, l’IA, autogenerando risposte dalle
competenze acquisite, può indurre i più giovani – proprio come è capitato al sedicenne californiano
– a percorsi a rischio o addirittura a gesti estremi.