0 risultati
video suggerito
video suggerito
18 Novembre 2025
6:00

Perché abbiamo la sensazione che ChatGPT sia meno intelligente di prima

Molti utenti percepiscono un peggioramento di ChatGPT dopo l'avvento di GPT-5. Tra le possibili spiegazioni c'è l'uso di un modello di routing non ancora ottimale e aspettative elevate sull’AGI non ancora concretizzate.

Ti piace questo contenuto?
Perché abbiamo la sensazione che ChatGPT sia meno intelligente di prima
chatgpt peggiorato

ChatGPT è peggiorato? Questa è la sensazione che molti utenti hanno sperimentato dopo il rilascio del modello GPT-5, avvenuto lo scorso agosto. Risposte più brevi, imprecisioni varie, sviste clamorose…  segnali che non sono passati inosservati agli utenti, che hanno espresso il proprio disappunto sui social pubblicando commenti e feedback negativi sull'apparente downgrade del celeberrimo chatbot di OpenAI. Ma perché abbiamo la sensazione che ChatGPT sia meno intelligente di prima? Una parte del problema nasce dalla struttura stessa del nuovo sistema, che non è un unico modello, ma un insieme coordinato da un meccanismo che decide quale “cervello artificiale” usare a seconda della domanda posta dall'utente. Se questo selettore automatico – chiamato router – fa i suoi calcoli in modo imperfetto, l'utente potrebbe ottenere risposte qualitativamente basse, anche nel corso della stessa conversazione.

Alla questione tecnica si sommano anche delicati interrogativi sulla sicurezza: una ricerca del CCDH (Center for Countering Digital Hate) indica che GPT-5, nei test su temi sensibili come suicidio e autolesionismo, avrebbe offerto indicazioni pericolose più spesso rispetto al modello GPT-4o. Questo avviene mentre milioni di utenti usano ChatGPT ogni giorno per scopi disparati, inclusi quelli emotivamente delicati, aumentando il rischio di interazioni che rafforzano convinzioni distorte o comportamenti dannosi. E poi c'è il tema delle aspettative alimentate da OpenAI: dopo mesi di annunci sull'arrivo di un'intelligenza artificiale sempre più performante, ciò che molti vedono oggi appare più come un passo intermedio che come una vera e propria rivoluzione.

Il motivo principale è il router: cosa significa

Uno dei punti chiave della sensazione che ChatGPT sia peggiorato dopo l'avvento di GPT-5 riguarda l'uso del cosiddetto router. Invece di ricorrere sempre al modello più potente per fornire le risposte ai quesiti posti dagli utenti, GPT-5 prova a capire quanto la vostra richiesta sia complessa e seleziona un modello più leggero quando la domanda è semplice. In teoria, questo dovrebbe produrre risposte in tempi più rapidi, con costi contenuti e permettendo un accesso universale alla versione più evoluta del modello solo quando serve davvero. In pratica, però, se il router sbaglia valutazione e vi risponde un modello meno preparato per il tipo di problema che avete posto, avrete la sensazione che ChatGPT si meno "intelligente" rispetto a prima. Secondo alcuni studiosi, come Jiaxuan You dell'Università dell'Illinois, talvolta pezzi della stessa richiesta vengono affidati a modelli diversi e poi ricombinati, generando contraddizioni. Alla rivista Fortune, You ha infatti spiegato.

Il model router a volte invii parti della stessa query a modelli diversi. Un modello più economico e veloce potrebbe fornire una risposta, mentre un modello più lento e incentrato sul ragionamento ne fornirebbe un'altra, e quando il sistema unisce queste risposte, si verificano sottili contraddizioni. L'idea del routing dei modelli è intuitiva ma farla funzionare davvero è molto complicato.

Il motivo per cui You usa il condizionale va ricercato nel fatto che non ha potuto dimostrare la sua teoria. Oltre alla questione tecnica del model routing, ci sono anche questioni legate alla sicurezza dei contenuti. Secondo i test del CCDH (Center for Countering Digital Hate), GPT-5 avrebbe risposto in modo problematico su temi come suicidio o disturbi alimentari più spesso di GPT-4o. Nella fattispecie, GPT-5 avrebbe prodotto contenuti dannosi in 63 risposte su 120, ovvero nel 53% dei casi, rispetto a 52 su 120 per GPT-4o, ovvero il 43% dei casi. Se il precedente modello tendeva a rifiutare le richieste dannose, quello nuovo in alcuni casi ha fornito informazioni dettagliate e potenzialmente rischiose. OpenAI ha replicato sostenendo che lo studio non considererebbe gli aggiornamenti rilasciati a ottobre, incluse misure di sicurezza aggiuntive come controlli parentali e un miglior rilevamento del disagio psicologico. È però evidente che i sistemi di protezione possano essere aggirati con facilità da utenti esperti, e il settore sta ancora cercando soluzioni efficaci e stabili.

Le aspettative disattese sull'AGI

A incidere sulla sensazione che ChatGPT sia meno intelligente rispetto a prima ci sono anche le aspettative disattese sull'AGI, l'intelligenza artificiale generale che sarebbe capace di superare l'intelligenza umana in molteplici contesti. Si è parlato di GPT-5 come di un passo gigantesco in questa direzione, ma il risultato si è rivelato più modesto del previsto. La verità, almeno per il momento, è che non esiste un'AI definitiva: GPT-5 è un sistema in fase di transizione (e le correzioni apportate al modello, rilasciate con GPT-5.1 nei giorni scorsi, ne sono la conferma). Per tutti questi motivi, se ChatGPT vi sembra meno intelligente rispetto a prima è perché state interagendo con un'AI che sta evolvendo e cambiando struttura. E finché questo cambiamento non sarà completato, l'impressione di un calo potrebbe rimanere parte dell'esperienza.

Sfondo autopromo
Cosa stai cercando?
api url views