ChatGPT è una delle applicazioni di intelligenza artificiale più usata e conosciuta al mondo, con più di 200 milioni di utilizzatori settimanali e in grado di generare e tradurre testi e di interagire con gli umani sembrando quasi intelligente, capace di pensare e comunicare come un essere umano. In verità, c'è chi dice che ChatGPT sia "poco più di un pappagallo in grado di superare il test di Turing". I principali critici di ChatGPT, infatti, lo chiamano "pappagallo stocastico", un'espressione che può sembrare complessa, ma che spiega bene come funziona. Un pappagallo ripete le frasi che sente senza capire cosa significano. ChatGPT fa qualcosa di simile, ma invece di ripetere esattamente ciò che ha "sentito" (cioè i dati con cui è stato addestrato), crea risposte combinando le parole che sono statisticamente più probabili insieme. Questo significa che genera frasi nuove, basandosi su ciò che ha imparato, in modo che sembri naturale e coerente. Proprio perché sceglie le parole basandosi sulle probabilità – da cui "stocastico", cioè randomico e probabilistico – a volte può creare risposte che sembrano corrette ma non lo sono davvero: le cosiddette "allucinazioni".
Cosa significa che ChatGPT è un pappagallo stocastico
L'espressione "pappagallo stocastico" si riferisce al modo in cui ChatGPT genera le frasi e risponde alle nostre richieste. Per capire meglio cosa significhi, partiamo da un esempio: se qualcuno dice "Rosso di sera", probabilmente continuerà la frase dicendo "bel tempo si spera" e non "devo andare a ritirare i panni". Ci aspettiamo che la frase continui in questo modo perché abbiamo sentito ripetere molte volte questo detto e abbiamo imparato che la parola più probabile dopo "Rosso di sera" è "bel" e non "devo". Siamo stati capaci, quindi, di predire la parola più probabile dopo una sequenza di parole conosciute.
ChatGPT funziona in maniera analoga. Usa un modello di intelligenza artificiale chiamato Transformer (da cui la T in ChatGPT), che è stato addestrato su una quantità enorme di dati testuali. Usando tutti questi testi, ha "imparato" le relazioni tra le parole e quali siano le sequenze di parole più probabili. Quando deve rispondere ad una richiesta generando del testo, ChatGPT osserva le parole già presenti e, come un pappagallo, ripete la parola successiva che ha visto più spesso nei testi. Questa parola non è scelta casualmente, ma è, appunto, la più probabile. È quindi più di un pappagallo: è un pappagallo probabilistico (o “stocastico”).
Questo meccanismo di predizione funziona molto bene per generare testo che sembra fluido e coerente. Il risultato finale è una simulazione credibile del linguaggio umano, ma senza una comprensione profonda o coscienza di ciò che viene detto.
Però, proprio perché non ha comprensione di ciò che dice e si basa su meccanismi probabilistici, è possibile che generi allucinazioni, cioè frasi che sembrano realistiche, ma non lo sono affatto.
Perché ChatGPT genera allucinazioni e sbaglia nelle domande che richiedono ragionamento
Nel contesto dell'intelligenza artificiale, con "allucinazione" intendiamo la generazione di una risposta che sembra corretta, ma è completamente inventata o priva di fondamento nei dati reali.
La tendenza a produrre allucinazioni è uno dei limiti principali di ChatGPT ed è una conseguenza diretta del modo in cui funziona. Ogni sua affermazione è basata sulle probabilità apprese dai dati con cui è stato addestrato e non ha un meccanismo intrinseco che verifichi le informazioni che produce. Anche quando il sistema non ha una risposta “sicura” – cioè una frase che ha visto molte volte nel suo addestramento – ad una determinata domanda, cerca comunque di dare una risposta alla domanda, generando quindi una frase che sembra plausibile, ma che può essere completamente falsa.
La stessa OpenAI, società che ha sviluppato ChatGPT, ci avvisa di questa possibilità scrivendo nella parte bassa di ogni schermata di ChatGPT: “ChatGPT can make mistakes. Check important info”, cioè “ChatGPT può fare errori. Controlla le informazioni importanti”. Se vogliamo sperimentare in prima persona le allucinazioni di ChatGPT possiamo provare a chiedere: “Quante r ci sono in ramarro e in che posizione si trovano nella parola?”. La risposta che otterremo sarà probabilmente errata (ad Ottobre 2024), perché una risposta corretta necessiterebbe di una capacità di ragionamento che, ad ora, non possiede. Noi stessi abbiamo provato a chiederlo al software, che ha sì azzeccato il numero di r, ma sbagliato la loro posizione:
I modelli AI come ChatGPT sono perfetti per imitare lo stile di qualcun altro
Insomma, ChatGPT per sua natura non è affidabile in contesti in cui è richiesta precisione e accuratezza, ma è perfetto per scrivere canzoni come farebbe Jovanotti, poesie come farebbe Dante o biglietti di auguri come farebbe Batman. Grazie alla sua natura di "pappagallo stocastico", eccelle nel riprodurre e imitare stili di scrittura diversi. Questo lo rende particolarmente utile per fare brainstorming in ambiti creativi o per chi desidera generare testi con toni diversi in base al contesto. Può velocizzarci la scrittura di mail, documenti formali e creazione di contenuti per i social.
È quindi uno strumento estremamente potente per la generazione creativa di testo, ma non è l'opzione migliore se si richiede precisione nelle informazioni.