0 risultati
video suggerito
video suggerito
9 Gennaio 2026
6:00

Usare ChatGPT può alimentare le psicosi? Cosa dicono gli studi e la risposta di OpenAI

Interazioni prolungate e immersive con ChatGPT sono state associate a casi di psicosi e paranoia, talvolta anche in persone senza precedenti di malattia mentale. Alcuni studi suggeriscono che derivino dall’interazione tra i bias psicologici umani e il funzionamento dei chatbot. OpenAI sta sviluppando strategie di prevenzione.

Ti piace questo contenuto?
Usare ChatGPT può alimentare le psicosi? Cosa dicono gli studi e la risposta di OpenAI
thumb-ai-psicosi

OpenAI, l’azienda che sviluppa ChatGPT, sta assumendo un “Head of Preparedness” (“Responsabile della preparazione”), una figura incaricata di anticipare e ridurre i rischi legati all’impatto dell'intelligenza artificiale di OpenAI sulla salute mentale degli utenti. Come mostrano un numero crescente di studi ed evidenze empiriche, infatti, interazioni prolungate e “immersive” con ChatGPT possono contribuire all’insorgenza di episodi psicotici. In un report pubblicato a fine ottobre 2025 dalla stessa OpenAI, è emerso che lo 0,07% degli utenti attivi in una settimana e lo 0,01% dei messaggi inviati a ChatGPT presentano segnali di “emergenza di salute mentale” associati a psicosi o paranoia.

A prima vista queste percentuali possono sembrare molto basse, ma, considerando che ChatGPT conta circa 800 milioni di utenti ogni settimana, corrispondono a circa 560mila utenti settimanali che inviano messaggi potenzialmente riconducibili a episodi psicotici o paranoici. I meccanismi attraverso cui questi episodi verrebbero scatenati o amplificati – anche negli adolescenti – non sono ancora del tutto chiari, ma alcuni studi li collegano alla tendenza dell’AI ad assecondare l’utente, finendo per validare o amplificare i deliri di persone già particolarmente fragili.

I casi di psicosi dall’interazione con l'intelligenza artificiale

Quando si parla di “psicosi” (e di “psicosi da AI”), si intendono condizioni psicopatologiche in cui diventa difficile distinguere tra ciò che è reale e ciò che non lo è, con possibili deliri (convinzioni false ma vissute come certe) e, talvolta, esperienze percettive alterate.

Negli ultimi due anni, i media hanno riportato decine di segnalazioni di “psicosi da AI”. Queste segnalazioni sono state raccolte e analizzate da un gruppo di ricerca del King’s College di Londra, che ha individuato pattern e filoni ricorrenti: esperienze di “rivelazione” o di missione spirituale, convinzioni secondo cui l’AI sarebbe senziente o divina e deliri romantici. I ricercatori descrivono anche un andamento tipico: l’utente parte da un uso pratico e innocuo di ChatGPT; col tempo si instaura un legame di fiducia, le conversazioni si fanno sempre più lunghe e si passa da domande di tipo pratico a questioni più personali ed esistenziali; a quel punto può avviarsi una spirale che allontana progressivamente l’utente dalla realtà e rafforza convinzioni paranoiche.

È il caso, ad esempio, di un uomo di poco più di 40 anni, senza precedenti di malattia mentale, che aveva appena iniziato un nuovo lavoro molto stressante e si era affidato a ChatGPT come forma di supporto. In meno di dieci giorni ha sviluppato manie di persecuzione e di grandezza, arrivando a convincersi che il mondo fosse in pericolo e che fosse suo dovere salvarlo, ritenendo che vite umane (comprese quelle della moglie e dei figli) fossero in grave pericolo. A seguito di questi episodi, l’uomo è stato preso in cura da un ospedale psichiatrico.

Alcune ipotesi su come l’uso di ChatGPT alimenti le psicosi

Sia lo studio del King’s College sia un nuovo studio dell’Università di Oxford, attualmente in fase di revisione, hanno analizzato i possibili meccanismi alla base delle cosiddette “psicosi da AI”. Tali meccanismi sembrano in larga parte riconducibili all’interazione tra i bias psicologici umani e il funzionamento dei chatbot. In particolare, emergono tre criticità principali nel comportamento di questi sistemi:

  1. Tendenza ad assecondare l’utente. I chatbot sono progettati per essere accomodanti e dare spesso ragione all’interlocutore. Questo può innescare una spirale di auto-validazione, in cui credenze distorte vengono progressivamente rafforzate attraverso risposte rassicuranti.
  2. Adattamento al contesto e al tono. I chatbot tendono a rispecchiare (entro certi limiti) lo stile comunicativo dell’utente. Dalle simulazioni presentate nello studio dell’università di Oxford è emerso che un linguaggio fortemente paranoico può generare risposte sempre più paranoiche, dando luogo a una dinamica di amplificazione reciproca tra utente e sistema.
  3. Conservazione delle informazioni. La capacità di ricordare e utilizzare dati condivisi dall'utente può far sì che informazioni personali vengano riprese e integrate nelle risposte. Questo può alimentare l’impressione di interagire con un’entità onnisciente e infallibile, creando una sorta di “illusione di divinità” e favorendo una fiducia eccessiva nell’AI.

Nel complesso, queste caratteristiche possono risultare problematiche per chiunque, ma diventano particolarmente rischiose per utenti vulnerabili o con una rete sociale limitata, meno in grado di fungere da ancoraggio alla realtà.

La risposta di OpenAI per ridurre i rischi

Per rispondere a queste problematiche, negli ultimi mesi OpenAI ha sviluppato una rete globale di medici, composta da 300 professionisti, per contribuire alla ricerca sulla sicurezza. Oltre 170 di questi medici (in particolare psichiatri, psicologi e medici di base) hanno contribuito alla scrittura di risposte ideali a prompt relativi alla salute mentale e alla valutazione della sicurezza delle risposte fornite da modelli diversi. Secondo le stime di OpenAI, grazie a questa collaborazione, il nuovo modello GPT‑5 ha raggiunto un punteggio di conformità al comportamento desiderato del 92%, contro il 27% del precedente modello.

Alla luce della gravità delle psicosi che possono essere scatenate o amplificate, l’azienda sembra intenzionata a concentrarsi sempre di più sull’anticipazione e sulla riduzione dei rischi legati all’uso di ChatGPT per la salute mentale degli utenti, tanto da aver aperto una posizione dedicata a un “Responsabile della preparazione”. Resta però da capire se queste misure saranno sufficienti a limitare le interazioni più pericolose con l’aumento continuo del numero di utenti.

Sfondo autopromo
Cosa stai cercando?
api url views