0 risultati
28 Gennaio 2026
18:30

Il cervello umano consuma molti meno watt dell’AI per funzionare

Il cervello umano consuma circa 20 watt continui, pur svolgendo in parallelo controllo motorio, percezione, memoria e decisioni. Sistemi di intelligenza artificiale come ChatGPT richiedono invece enormi infrastrutture di calcolo e data center energivori. La differenza nasce dall’architettura: nel cervello memoria e calcolo coincidono, rendendo l’elaborazione estremamente efficiente.

Ti piace questo contenuto?
Il cervello umano consuma molti meno watt dell’AI per funzionare
Consumo del cervello THUMB-CLEAN

Il cervello umano è uno dei sistemi di elaborazione dell’informazione più efficienti mai osservati, consuma solo 20 watt per alimentare 86 miliardi di neuroni, gestendo compiti cognitivi di altissima complessità.
A fronte di una massa di circa 1,3–1,4 kg, pari a poco più del 2% del peso corporeo, il cervello umano consuma circa il 20% del metabolismo basale dell’organismo. In termini di potenza, questo corrisponde a ~20 watt medi continui.

Un valore sorprendentemente basso se rapportato alla quantità di operazioni che il cervello svolge in parallelo: controllo motorio, integrazione sensoriale, regolazione autonomica, apprendimento, memoria e decision-making. Il confronto con i moderni sistemi di intelligenza artificiale mette in evidenza una differenza fondamentale: l’efficienza energetica non dipende solo da cosa si calcola, ma da come l’informazione è rappresentata e trasformata.

Quanto consuma davvero il cervello umano

Il consumo energetico del cervello è sorprendentemente stabile. Che siamo sdraiati sul divano, concentrati su un problema di matematica o immersi in una conversazione, la potenza assorbita rimane intorno ai 20 watt.
Questo accade perché il cervello non “accende” nuove parti quando pensiamo di più: è sempre attivo, e il lavoro cognitivo corrisponde soprattutto a una riorganizzazione dei pattern di attività neuronale, non a un aumento drastico dei consumi. Dal punto di vista del consumo energetico del cervello, i processi più dispendiosi sono:

  • Mantenimento dei gradienti ionici (Na⁺, K⁺, Ca²⁺) attraverso le membrane neuronali.
  • Trasmissione sinaptica, in particolare il rilascio e il riciclo dei neurotrasmettitori.
  • Propagazione dei potenziali d’azione lungo gli assoni.

Il carburante principale è il glucosio e stime sperimentali indicano che la maggior parte dell’energia è spesa per mantenere il sistema pronto a rispondere, cioè in uno stato dinamico vicino all’equilibrio funzionale. Mantenere una rete pronta a rispondere in ogni istante ha un costo di base che non può essere eliminato, ma che l’evoluzione ha reso estremamente efficiente.
Un aspetto cruciale è che:

  • il cervello è event-driven: i neuroni consumano energia principalmente quando trasmettono segnali;
  • l’attività è sparsa e asincrona, non tutti i neuroni sono attivi contemporaneamente;
  • l’elaborazione è massicciamente parallela.

Questo spiega perché il consumo totale rimane quasi costante tra riposo e compiti cognitivi complessi.

Quanto consuma l’intelligenza artificiale

Se spostiamo l’attenzione sull’intelligenza artificiale, il quadro cambia radicalmente. Sistemi come ChatGPT sono implementati su computer digitali e basati su reti neurali artificiali profonde. Dal punto di vista computazionale, il funzionamento di questi modelli è una lunga sequenza di operazioni matematiche esplicite: moltiplicazioni e somme tra numeri, organizzate in strati. Ogni volta che il modello genera una risposta, queste operazioni devono essere eseguite nuovamente.

Immagine

Ogni singola operazione ha un costo energetico ben definito, perché richiede lo spostamento fisico di carica elettrica nei transistor. A differenza del cervello, che sfrutta dinamiche fisiche già presenti nella rete neurale, l’intelligenza artificiale deve ricalcolare tutto passo dopo passo. Il consumo di una singola risposta può essere relativamente contenuto, ma il punto chiave è che questo costo si ripete per ogni richiesta, senza mai annullarsi.

Il peso nascosto dell’infrastruttura

Il vero consumo energetico dell’intelligenza artificiale emerge quando si guarda oltre la singola risposta. I grandi modelli vengono addestrati su cluster di migliaia di processori per settimane o mesi, con potenze dell’ordine dei megawatt. L’energia totale spesa in questa fase può arrivare a centinaia di migliaia o milioni di kilowattora. A questo si aggiunge il costo permanente dei data center: server sempre accesi, sistemi di raffreddamento, ridondanza e affidabilità. Anche quando nessuno sta interrogando il modello, l’infrastruttura resta operativa. È un consumo continuo, che non dipende direttamente dall’uso istantaneo.

Architettura: dove nasce davvero la differenza

La differenza fondamentale tra cervello e intelligenza artificiale non è solo quantitativa, ma strutturale. Nei computer digitali, memoria e calcolo sono separati. I dati devono essere continuamente trasferiti dalla memoria alle unità di calcolo e viceversa. Questo spostamento di informazione nello spazio è una delle operazioni più costose dal punto di vista energetico. Nel cervello umano, invece, memoria e calcolo coincidono.

Le informazioni sono incorporate nelle sinapsi e nell’organizzazione della rete. Apprendere significa modificare localmente le connessioni, non spostare dati da un archivio centrale. Dal punto di vista fisico, questo riduce drasticamente il costo energetico dell’elaborazione.
Questa differenza diventa ancora più evidente se consideriamo l’apprendimento: l’intelligenza artificiale impara soprattutto durante una fase dedicata, l’addestramento, che è separata dall’utilizzo ed estremamente energivora. Una volta concluso l’addestramento, il modello viene usato, ma l’apprendimento vero e proprio è già avvenuto.
Il cervello umano, al contrario, impara continuamente mentre funziona. Non esiste una fase in cui smette di operare per addestrarsi.
Se facciamo una stima molto grossolana e consideriamo un consumo medio di 20 watt per i primi 20 anni di vita, otteniamo un’energia totale dell’ordine di 3.500 kilowattora. Un valore paragonabile al consumo elettrico di un appartamento per pochi mesi.

Alla base di tutto questo c’è una differenza di storia. Il cervello umano è il risultato di milioni di anni di evoluzione, durante i quali l’efficienza energetica è stata una pressione selettiva fondamentale. Lo spazio e l’energia erano risorse limitate.
L’intelligenza artificiale, invece, è il prodotto di pochi decenni di sviluppo tecnologico, in cui l’energia è stata spesso trattata come una risorsa scalabile: se serve più potenza, si aggiungono nuovi server.
Il confronto tra cervello umano e intelligenza artificiale non ci dice che uno sia “più intelligente” dell’altra. Ci mostra qualcosa di più profondo: l’intelligenza è sempre incarnata in una struttura fisica, e il suo costo energetico dipende da come quella struttura è fatta.

L’intelligenza artificiale è uno strumento potentissimo, ma paga la sua potenza con un consumo energetico elevato. Il cervello umano, invece, rappresenta un compromesso straordinario tra capacità computazionale, robustezza ed efficienza.

Sfondo autopromo
Cosa stai cercando?
api url views