;Resize,width=638;)
ChatGPT, Gemini, Claude e DeepSeek sono i protagonisti assoluti degli ultimi anni. L’intelligenza artificiale infatti è diventata parte della vita quotidiana grazie ai modelli linguistici di grandi dimensioni (in inglese Large Language Models, LLM). Ma cosa sono esattamente e come funzionano? Gli LLM sono sistemi di intelligenza artificiale capaci di interpretare e generare testo, rendendo possibile interagire con loro parlando normalmente, come faremmo con una persona: sono in grado di sostenere conversazioni, scrivere testi e riassumere documenti, ma, nonostante le loro capacità, possono commettere errori e non hanno una reale comprensione delle risposte che generano. Dobbiamo, quindi, usarli con consapevolezza.
Cosa sono gli LLM e a cosa servono
Un Large Language model (LLM) è un’intelligenza artificiale progettata per interpretare, processare e generare testo scritto. Gli LLM fanno parte del campo del Natural Language Processing (NLP), cioè processamento del linguaggio naturale, che si occupa di insegnare ai computer come interpretare il linguaggio umano. Per questo, possiamo interagire con questi modelli semplicemente parlando o scrivendo in modo naturale.

Questi strumenti sono usati in tantissimi contesti diversi: possono scrivere email, tradurre testi, rispondere a domande, riassumere articoli, generare contenuti creativi o supportare nello studio e nella programmazione. Ci sono anche sperimentazioni in ambito medico, in cui i modelli si affiancano a dottori e dottoresse per la formulazione di una diagnosi a partire dai sintomi.
Esistono molti modelli diversi, ognuno con le sue caratteristiche. I più noti sono ChatGPT e DeepSeek, utili per scrivere, tradurre e riassumere contenuti. Gemini e Claude sono un po’ meno conosciuti, ma anche loro sono altrettanto flessibili e adatti a compiti diversi. In particolare, Gemini è efficace nella gestione di testi lunghi, mentre Claude si distingue nella generazione di codice. Nonostante le differenze, tutti questi modelli condividono alcune basi comuni. Vediamo ora, in modo intuitivo, come funzionano.
Come fa l'intelligenza artificiale a imparare
Gli LLM sono in grado di interpretare le nostre richieste e di generare delle frasi che sembrano scritte da umani. Ma come fanno a sapere quali sono le parole giuste da usare e come strutturare le frasi? Per riuscirci, si raccolgono e si usano enormi quantità di testo contenenti miliardi di parole. Il modello impara poi in tre fasi principali:
- Nella prima, chiamata Pre-Training (da cui la “P” in Chat-GPT), il modello impara a copiare e ripetere l'enorme quantità di testo che gli viene fornita. Questa fase consiste sostanzialmente nel far completare al modello frasi con parole mancanti, in modo da fargli apprendere le strutture e le regole del linguaggio, senza insegnamenti espliciti. È un po’ come un bambino che impara a parlare ascoltando e ripetendo.
- La seconda fase è l'Instruction Fine-Tuning. Qui si chiede al modello non solo di completare frasi, ma anche di seguire un’istruzione precisa (come “scrivi una mail formale” o “spiega la fotosintesi a un bambino”) e generare una risposta utile e pertinente.
- Nella terza fase, il Reinforcement Learning from Human Feedback, il modello viene ulteriormente migliorato grazie ai feedback di valutatori umani che vedono più possibili risposte alla stessa domanda e indicano quale preferiscono.

Come gli LLM interpretano quello che gli scriviamo e generano le risposte
Nel concreto, cosa succede quando scriviamo una richiesta a ChatGPT e ci arriva una risposta? Quando scriviamo una richiesta ad un LLM, il modello prende la frase e la scompone in “token”, cioè piccoli blocchi di caratteri che contengono un’informazione. Un token può essere una parola intera, una sillaba, ma anche un singolo carattere. Ad esempio, se chiediamo a ChatGPT: “Spiegami perché l'inflazione fa aumentare i prezzi, ma fallo come se fossi un amico al bar.” la frase viene scomposta in token come vediamo qui.

In questo caso, “come” è un token, ma lo è anche il punto da solo. Questo perchè il punto ci sta dando un’informazione: ci dice che la frase è finita.
Ogni token viene poi convertito in un numero e analizzato da un Transformer, il cuore degli LLM (è da qui che arriva la “T” di ChatGPT). I Transformer sono reti neurali introdotte da Google nel 2017, che hanno rivoluzionato l’interpretazione del linguaggio grazie a un meccanismo chiamato self-attention. Nella frase di prima, noi umani capiamo subito che “fallo” si riferisce a “Spiegami”. Per un algoritmo, invece, questa connessione non è immediata. Grazie alla self-attention, però, il modello riesce a stabilire legami anche tra parole lontane nella frase e a capire il significato delle parole in base al contesto. In questo modo, riesce a interpretare correttamente anche richieste complesse.
Una volta “capita” la richiesta, il modello deve produrre una risposta. Per farlo, calcola passo dopo passo qual è il token più probabile da inserire, basandosi su tutto ciò che ha appreso durante il Pre-Training. Per questo motivo, si dice che gli LLM sono pappagalli stocastici: ripetono ciò che hanno imparato, ma con una certa dose di casualità. Questa "casualità" è diversa per ogni modello e viene definita da un parametro chiamato temperatura. Un LLM con una temperatura bassa genererà risposte più prevedibili e più legate alle fonti di partenza, mentre uno con temperatura alta creerà risposte più creative, ma meno affidabili. Proprio per questo motivo, non possiamo affidarci ciecamente alle risposte di un LLM: le frasi che produce potrebbero suonare plausibili, ma essere false.