0 risultati
video suggerito
video suggerito
20 Maggio 2025
11:30

Preferiamo confidarci con Chatgpt invece che parlare con uno psicologo: ecco perché

Sempre più persone si rivolgono a chatbot come ChatGPT per ricevere conforto emotivo, riflettendo una società che cerca cura rapida, accessibile e solitaria. Questo fenomeno solleva domande su come cambiano le relazioni, la soggettività e il modo in cui affrontiamo la sofferenza.

210 condivisioni
Preferiamo confidarci con Chatgpt invece che parlare con uno psicologo: ecco perché
chatgpt supporto emotivo

È in crescita, soprattutto tra i giovani, la tendenza a usare chatbot come ChatGPT per ottenere supporto emotivo e psicologico. Molti utenti, infatti, utilizzano l'intelligenza artificiale come spazio di ascolto, conforto e dialogo, a volte preferendola a un confronto con esseri umani, anche professionisti, perché non propone punti di vista scomodi, non ha memoria personale e non è una presenza viva. Questo fenomeno solleva domande profonde su come stiano cambiando le forme della cura, il ruolo degli esperti, e il bisogno di relazione nella contemporaneità. Cosa significa oggi cercare supporto da un algoritmo? E cosa ci dice questo sul modo in cui costruiamo il nostro "sé" e gestiamo la sofferenza?

ChatGPT come psicoterapeuta: mutamenti nella relazione d'aiuto

La relazione terapeutica tradizionale si fonda su presupposti chiave: fiducia, empatia, riconoscimento reciproco, spazio relazionale. Secondo Carl Rogers, è la relazione in sé a produrre effetti trasformativi. Ma cosa accade quando a sostituire l'umano è un algoritmo? ChatGPT offre un'interazione istantanea, non divergente, sempre disponibile: l'effetto rassicurante è reale, ma il rischio è quello di neutralizzare la dimensione affettiva dell'ascolto.

Il sociologo Anthony Giddens parlava di “fiducia astratta” per descrivere la fiducia che riponiamo in sistemi che non conosciamo direttamente, come banche, ospedali, aerei. Oggi possiamo dire che funziona così anche con l’intelligenza artificiale: ci fidiamo di qualcosa che non capiamo fino in fondo, e che non ci conosce davvero, ma che ci sembra affidabile perché funziona e risponde. Eva Illouz parla della psicologia come di una lingua culturale diffusa: l'uso di ChatGPT è coerente con una società che ha interiorizzato la terapia come strumento per vivere meglio. Questa dinamica si inserisce nella più ampia "cultura dell'automiglioramento", in cui ogni difficoltà emotiva viene letta come occasione per lavorare su sé stessi, con strumenti sempre più accessibili, standardizzati e tecnologici. In questo senso, l'IA non è una “minaccia”, ma la semplice estensione di una cultura terapeutica che chiede risposte rapide, accessibili, personalizzate.

Soggetti soli in cerca di ascolto

Il fatto che in molti si rivolgano a un chatbot per essere ascoltati rivela anche un altro aspetto: una solitudine diffusa, quasi normalizzata. In un contesto culturale segnato dall’individualismo neoliberale, anche la cura è diventata un compito personale, ci si cura da soli, magari dialogando con un’app. Il sociologo Ulrich Beck ha parlato di “individualizzazione” per descrivere una società in cui gli individui devono affrontare da soli le proprie crisi. ChatGPT si inserisce perfettamente in questo scenario, come strumento di auto-aiuto mediato dalla tecnologia. Nikolas Rose definisce tutto ciò con il termine “psicopolitica”: oggi, il modo in cui pensiamo a noi stessi, ci valutiamo e agiamo è sempre più influenzato dal linguaggio della psicologia; impariamo a misurarci in base al nostro stato emotivo, alla nostra stabilità e produttività, come se fossero parametri da tenere sotto controllo. In questo contesto, ChatGPT diventa uno specchio digitale: ci tranquillizza, ci fa sentire ascoltati, ma ci spinge anche a gestire e “monitorare” le nostre emozioni.

Molte persone, oggi, si trovano da sole a prendersi cura della propria salute mentale, il supporto umano spesso manca, viene evitato o è ancora soggetto a stigma. Così si cercano alternative nel digitale, i chatbot offrono risposte semplici, rassicuranti, sempre disponibili. Ma questo dimostra anche quanto profondamente abbiamo interiorizzato l’idea di dovercela cavare da soli, mantenendoci efficienti ed emotivamente autosufficienti. Come scrive Byung-Chul Han, il bisogno di parlare non è solo desiderio di confronto: è un modo per confermare che esistiamo, che sentiamo, che stiamo “funzionando”.

Perché ci rivolgiamo a un algoritmo per parlare delle nostre fragilità

ChatGPT non ci propone punti di vista scomodi, non ha memoria personale, non è una presenza viva, e per questo viene percepito come "più sicuro". Secondo Sherry Turkle, ci stiamo abituando a preferire relazioni "senza la complessità dell'altro umano": i robot sociali, i chatbot, i sistemi empatici artificiali vengono usati nonostante la consapevolezza che non siano davvero coscienti. Judith Butler ha spiegato che per costruirsi come soggetti non basta parlare: bisogna essere riconosciuti. Ma con l’intelligenza artificiale, il riconoscimento è automatico e simmetrico: ogni emozione è validata, ogni frase presa sul serio. Ne deriva un effetto-specchio: l’IA non ci interroga, non ci mette in discussione, ma riorganizza ciò che diciamo, restituendocelo in modo ordinato, e questo produce sollievo. Luciano Floridi ha descritto la nostra come una “società dell’infosfera”, in cui umani e macchine si co-producono, convivendo in un ecosistema informativo. Non si tratta solo di usare ChatGPT: stiamo cambiando il nostro modo di pensare la relazione, la cura, la soggettività, ibridandoci con la tecnologia.

Confidarsi con un algoritmo non è una moda passeggera, è il sintomo di una trasformazione profonda: la cura è diventata istantanea, privata, mediata dalla tecnologia. La vera domanda non è se questo sia giusto o sbagliato, ma cosa ci sta dicendo di noi, delle nostre solitudini, delle nostre aspettative, del modo in cui vogliamo essere ascoltati. La risposta, forse, non è negli algoritmi, ma nella società che li ha resi così desiderabili.

Fonti
Sfondo autopromo
Cosa stai cercando?
api url views