;Resize,width=638;)
L’intelligenza artificiale sta raggiungendo la nostra intelligenza? No, ma negli ultimi anni ha fatto passi da gigante. I modelli di linguaggio (LLM) come ChatGPT, Gemini e Claude hanno dimostrato capacità sorprendenti nella comprensione del testo, risoluzione di problemi e generazione di contenuti. La potenza di questi modelli ha riacceso un dibattito decennale sull’intelligenza artificiale generale (AGI), ossia un sistema capace di pensare e imparare come un essere umano, affrontando compiti complessi e trasferendo competenze tra contesti diversi. Attualmente, per quanto i modelli di linguaggio stiano diventando sempre più bravi nel risolvere problemi strutturati, mancano ancora della capacità di astrazione e generalizzazione necessaria per arrivare all’AGI.
Cos’è l’Intelligenza Artificiale Generale (AGI) e perché se ne parla
L’AGI rappresenta il “Sacro Graal” dell’AI: un sistema in grado di ragionare, pianificare e imparare in modo autonomo, come un essere umano. Proprio come il Sacro Graal, finora è stato più leggenda che realtà e le aziende fanno a gara per chi riuscirà a raggiungerla prima. Il termine AGI è entrato nel dibattito pubblico intorno al 2007 e, negli ultimi anni, i progressi nei modelli di linguaggio di grandi dimensioni (LLM) hanno portato alcuni ricercatori a considerare seriamente l'idea che una forma di AGI potrebbe essere imminente e potrebbe arrivare proprio dagli LLM. Diversamente dall’AI attuale, che è specializzata in compiti specifici – come giocare a scacchi o generare testo – l’AGI potrebbe affrontare una vasta gamma di problemi senza bisogno di istruzioni dettagliate. Questo traguardo non è solo una curiosità scientifica: l’AGI potrebbe rivoluzionare settori come la medicina, la lotta al cambiamento climatico e la gestione di pandemie utilizzando un’AI in grado di “ragionare”.
Ma a che punto siamo con la capacità di ragionamento degli LLM?

ChatGPT è migliorato molto nella risoluzione di problemi complessi
L’ultimo modello alla base di ChatGPT rilasciato da OpenAI, ChatGPT o1, ha risolto correttamente l’83% dei problemi in una gara di matematica statunitense (l’AIME), mentre quello precedente, GPT-4o, ne aveva risolti solo il 13%. Il prossimo modello, ChatGPT o3, non ancora rilasciato al grande pubblico, sembrerebbe averne risolti il 96,7%. Questo netto miglioramento è dovuto all’integrazione all’interno dei modelli di un approccio chiamato chain-of-thought prompting (CoT), che consiste nel mostrare a un LLM un esempio di come scomporre un problema in passaggi più piccoli per risolverlo o nel chiedergli di affrontare il problema passo dopo passo.
Tuttavia, nonostante questi miglioramenti, o1 ha i suoi limiti e non costituisce ancora un'AGI. Due diversi gruppi di ricerca hanno evidenziato che non è ancora capace di risolvere problemi pianificando soluzioni con molti passaggi e che non riesce ad astrarre e generalizzare problemi visivi. Entrambi questi test sono stati costruiti proprio per valutare i progressi verso l’AGI. Ci si aspetta, infatti, che un’AGI sia in grado di risolvere problemi pianificando soluzioni con un gran numero di passaggi (ad ora le prestazioni diminuiscono quando ci sono più di 20 passaggi) e che riesca a dedurre una regola astratta da alcuni esempi e applicarla a nuovi casi, un’attività che gli esseri umani svolgono con relativa facilità.
Per astrarre bisogna costruire un “modello del mondo”
Secondo le neuroscienze, l'intelligenza umana deriva dalla capacità del cervello di creare un "modello del mondo", una rappresentazione dell'ambiente circostante che permette di pianificare, ragionare e immaginare scenari futuri. Per raggiungere l'AGI, i modelli di AI dovranno sviluppare questa capacità, permettendo di generalizzare competenze apprese e affrontare nuove sfide simulando possibilità e prevedendo conseguenze.

Diversi studi hanno suggerito l'emergere di “modelli del mondo” rudimentali all'interno dei LLM, che però non sono sempre affidabili o non vengono usati per prendere decisioni. Ad esempio, un gruppo di ricerca di Harvard ha addestrato un modello di AI a prevedere le svolte dei taxi sui percorsi di New York ottenendo ottimi risultati. Analizzando il modello del mondo creato dall’AI, però, si è visto che conteneva strade con orientamenti fisicamente impossibili e cavalcavia sopra altre strade. Quando i ricercatori hanno provato ad inserire deviazioni impreviste, il modello non è riuscito a prevedere la svolta successiva, suggerendo che non fosse in grado di adattarsi a nuove situazioni.
Per l'AGI potrebbero volerci ancora almeno dieci anni
L’arrivo dell’intelligenza artificiale generale è ancora incerto e le stime degli esperti variano notevolmente. Secondo alcuni, potremmo essere a pochi anni dal raggiungimento di questo obiettivo, mentre altri ritengono che ci vorranno almeno dieci anni o più. La mancanza di consenso riflette la complessità del problema e le molteplici sfide ancora da affrontare.
Quello che è certo, però, è che oltre a ricercare come costruire l’AGI, è anche necessario integrare la sicurezza nella progettazione e nella regolamentazione dei sistemi di AI. La ricerca deve concentrarsi sull'addestramento di modelli in grado di garantire la sicurezza dei propri comportamenti, ad esempio calcolando la probabilità che il modello violi determinati vincoli di sicurezza e rifiutando azioni potenzialmente pericolose.