0 risultati
4 Febbraio 2025
18:30

DeepSeek ha stravolto il mondo: gli aspetti tecnologici, economici e geopolitici del nuovo chatbot AI cinese

L'entrata in scena di DeepSeek-R1, il nuovo chatbot di intelligenza artificiale cinese dotato di un modello di reasoning, ha dato uno scossone mondiale a tecnologia, economia ed equilibri geopolitici. Con un costo molto inferiore, è riuscito ad eguagliare le prestazioni di ChatGpt o1, riportando la Cina al pari degli Stati Uniti sul fronte tecnologico.

22 condivisioni
DeepSeek ha stravolto il mondo: gli aspetti tecnologici, economici e geopolitici del nuovo chatbot AI cinese
deepseek

La Cina ha lanciato il suo ChatGpt, DeepSeek, il chatbot di intelligenza artificiale che sfida OpenAI, e sta stravolgendo il mondo non solo da un punto di vista tecnologico. Negli Stati Uniti sono crollate in borsa le aziende big tech. E non sono mancate le critiche: DeepSeek è stata accusata di aver “rubato” da ChatGpt, di non rispondere correttamente alle domande sulla Cina e in Italia è già arrivato un blocco da parte del Garante della Privacy.

Ma cosa significa? Lo vediamo in questo articolo, dove analizziamo gli aspetti tecnologici, economici e geopolitici di DeepSeek.

DeepSeek-R1: il modello di reasoning capace di imitare il ragionamento umano

Che cos’è DeepSeek, o più precisamente DeepSeek-R1? È il nuovo chatbot di intelligenza artificiale cinese che è riuscito a raggiungere gli stessi livelli del più famoso ChatGpt o1 dell’azienda americana OpenAI. Infatti entrambi i modelli fanno qualcosa di estremamente simile ai nostri ragionamenti: la cosiddetta Chain of Thought. In poche parole, prima di rispondere a una domanda, la spezzettano in piccoli problemi da risolvere e fanno una serie di passi intermedi prima di rispondere.
Ma DeepSeek lo fa con un grande vantaggio: è costato molto meno e questa cosa ha avuto un enorme impatto a livello mondiale sia da un punto di vista tecnologico che economico.

deepseek promt

Ma cosa vuol dire che questa tecnologia è costata meno? Sia ChatGpt che DeepSeek sono degli LLM, cioè Large Language Model, letteralmente modelli linguistici di grandi dimensioni. Sono cioè intelligenze artificiali capaci di rispondere usando il nostro linguaggio. Ma mentre noi per ragionare usiamo il nostro cervello che si è allenato negli anni studiando e con l’esperienza, gli LLM vengono allenati attraverso tantissimi dati che vengono dati in pasto a dei modelli matematici. E per insegnare a queste intelligenze artificiali a risponderci, vengono fatti tantissimi calcoli grazie a dei supercomputer, che usano delle schede grafiche, dette GPU, che non sono altro che dei circuiti elettronici, dei chip, capaci di elaborare miliardi di calcoli al secondo.

Perché DeepSeek è rivoluzionario: come il modello cinese ha abbattuto i costi

Mentre per allenare l’ultima versione di ChatGpt o1 si stima che siano state necessarie circa 30.000 GPU, per DeepSeek-R1 – cioè il corrispettivo cinese – è stato dichiarato che ne sono servite poco più di 2.000, quindi un quindicesimo. Ma non solo, ChatGpt è stato allenato con schede grafiche più potenti di quelle usate per allenare DeepSeek.

E grazie a questo abbattimento dei costi computazionali, l’azienda cinese che ha finanziato il progetto – la High-Flyer – ha dichiarato di aver speso “solo” 5-6 milioni per addestrare DeepSeek-R1, in confronto ai 100 milioni spesi per ChatGpt o1.

chip Nvidia

Ma com’è possibile che DeepSeek-R1 abbia gli stessi risultati di ChatGpt o1 se ha usato molte meno GPU e pure meno potenti? Perché Liang Wenfeng – fondatore di DeepSeek – e i suoi ricercatori si sono inventati un nuovo modello matematico rivoluzionario che ha bisogno di molta meno potenza di calcolo e che sta aprendo le porte alla ricerca nel campo dell’intelligenza artificiale.

E la cosa più impressionante è che questo modello rivoluzionario è nato da un’esigenza. Infatti nel 2022 l’allora presidente degli Stati Uniti Biden ha imposto all’azienda americana Nvidia – che produce le schede grafiche – di non esportare in Cina le GPU con l’intento dichiarato dei motivi di sicurezza. La tecnologia infatti è fortemente usata in ambito militare e gli Stati Uniti, ostacolando lo sviluppo tecnologico della Cina, si volevano proteggere preventivamente dalla minaccia militare.

Wenfeng però nel 2021 aveva fortunatamente (per lui) comprato qualche migliaio di H800, delle schede Nvidia abbastanza potenti. E aveva solo quelle a disposizione. Ed è per questo motivo che si è dovuto ingegnare: diciamo che aveva un computer più debole e doveva farselo bastare.

E come ha fatto? Cerchiamo di capirlo in poche parole.

Il nuovo modello matematico: l'uso massiccio del Reinforcement Learning

Il modello usato per allenare ChatGpt si basa fortemente su una metodologia chiamata Supervised Fine Tuning o SFT che sostanzialmente funziona così. Si parte sempre da una libreria molto vasta, cioè da una serie di testi e fonti ufficiali da cui il modello impara a parlare. Questa libreria viene inizialmente lavorata e divisa in esempi etichettati, così che il modello impari più o meno quale risposta corrisponda a quale domanda. Questa è la parte principale, che poi viene perfezionata grazie al cosiddetto Reinforcement Learning, cioè apprendimento per rinforzo, che nell’addestramento di ChatGpt viene fatto da degli esseri umani. Vengono cioè valutate le risposte ottenute tramite SFT e se sono buone il revisore umano gli dà un punteggio alto, se invece non sono precise, gli dà un punteggio basso. Tramite questi punteggi, il modello piano piano si assesta sulle risposte che massimizzano il punteggio. E questo modello funziona perfettamente.

SFT di Chatgpt

I ricercatori di DeepSeek si sono però chiesti cosa sarebbe successo se il modello si fosse basato fortemente sul Reinforcement Learning. Quindi l’addestramento di DeepSeek non parte da dati supervisionati come ChatGpt, ma inizia direttamente a dare punteggi alle risposte così da indirizzarle piano piano verso la risposta giusta, tramite premi che valutano quanto una domanda sia corretta e quanto sia stata utile. E lo fa valutando più risposte contemporaneamente, che vengono confrontate tra loro. Poi anche in questo modello viene usato il Supervised Fine Tuning, ma per rifinire le risposte, abbattendone così il costo computazionale.

Questo cambio di prospettiva ha consentito a DeepSeek di essere molto più leggero. Mentre il modello ChatGpt o1 ha un trilione di parametri, DeepSeek-R1 ne ha “solo” 671 miliardi, e in più non li usa tutti insieme, ma a ogni domanda attiva solo i parametri che gli servono. Questa metodologia è detta Mixture of Expert.

Rl di DeepSeek

Tutto questo ha dato uno scossone all’economia degli Stati Uniti, soprattutto all’azienda Nvidia, che ha perso 600 miliardi in borsa. Ma come mai?

L'impatto sull'economia mondiale di DeepSeek

Come abbiamo detto, ChatGpt, ma anche gli altri LLM come Copilot, hanno avuto bisogno di migliaia e migliaia di GPU per il loro addestramento. Poi è arrivato DeepSeek-R1 e ha mostrato che ne bastavano molte meno, cosa che ha portato a una forte svalutazione sul mercato delle GPU, o meglio della sua azienda produttrice, Nvidia.

I creatori di DeepSeek hanno anche dichiarato che bastano solo 6 milioni per creare il modello. E questo ha dato uno scossone alle big tech americane come OpenAI, Google, Microsoft e Meta, perché ha dimostrato che anche le aziende più piccole possono permettersi di creare un modello del genere. In più DeepSeek-R1 è gratuito, mentre ChaGpt o1 è a pagamento, o meglio, lo è stato fino a qualche ora fa! Infatti OpenAI, che aveva messo la sua versione più sofisticata utilizzabile tramite abbonamento, l'ha ora resa gratuita per rimanere competitivo con DeepSeek.

chatgpt o3

Ma la cosa più importante è che DeepSeek è open source, che significa che il codice che è stato usato per programmare il modello e allenarlo è pubblico, chiunque lo può consultare e usare per allenare un nuovo LLM. E infatti a pochi giorni dall’uscita di R1, ci sono già decine di nuovi Chatbot di AI.

Quello di cui stiamo parlando non è solo uno scossone economico, ma anche geopolitico. La Cina, proprio a pochi giorni dall’insediamento del nuovo presidente Trump, che sta spingendo tantissimo sullo sviluppo dell’intelligenza artificiale, è riuscita a dimostrare di essere al pari della più grande potenza occidentale. E ha anche dimostrato di riuscire a sormontare i limiti dettati dagli Stati Uniti, come il blocco sugli export di GPU. Sono in molti a chiamare questo momento uno “Sputnik Moment”, paragonando questo successo cinese a quando nel ‘57 l’Unione Sovietica mandò in orbita il primo satellite, mandando così in frantumi l’idea di una superiorità tecnologica degli Stati Uniti.

Ci sono però una serie di considerazioni che vanno fatte.

Le zone d'ombra di DeepSeek: dal furto di informazioni ai problemi di privacy

Primo tra tutti, DeepSeek ha usato molta meno potenza di calcolo per essere allenato, ma ogni volta che lo interroghiamo, vengono fatti dei calcoli. Quindi il problema delle limitazioni di export di schede grafiche, rimane impattante per la Cina.

Poi, c’è un tema di Privacy, cioè che cosa succede ai dati che inseriamo nel chatbot. E qui arriviamo all’Italia, dove DeepSeek è stato bloccato dal Garante della Privacy italiano, il GPDP. Attenzione, questo non vuol dire che non funzioni eh, il chatbot continua a funzionare, ma è stata bloccata la raccolta dei dati che inseriamo. Questo perché i dati raccolti da DeepSeek vengono salvati su server che stanno sul suolo cinese e questo va contro le regole del GPDP sulla protezione dei nostri dati.

DeepSeek blocco privacy dati italia
Comunicazione del GPDP riguardo al blocco dei dati immagazzinati da DeepSeek in Italia

C’è poi il tema delle risposte politiche: DeepSeek non può rispondere a una serie di domande, cioè quelle che vanno contro il Partito. Se chiedete per esempio al chatbot cosa successe nel 1989 in piazza Tienanmen a Pechino, dove ci fu una protesta studentesca contro il regime che si concluse con una carneficina degli studenti, il chatbot web di DeepSeek si blocca, dice semplicemente che non risponde a domande del genere. Ma questo non ci deve sorprendere: essendo una tecnologia cinese, il chatbot pubblico ha delle regole per cui non dice cose contro il regime, non possiamo aspettarci la nostra stessa libertà di stampa.

Infine c’è il grande tema delle bugie e del “furto”. Sono in tanti a credere che 6 milioni di spesa dichiarati siano troppo pochi, che quindi l’azienda abbia mentito sulle cifre anche per dare lo scossone all’economia mondiale di cui abbiamo parlato. E la stessa cosa vale per le GPU: c’è chi afferma che DeepSeek sia in verità in possesso di molte più GPU e di potenza elevata.

C’è poi il sospetto che DeepSeek abbia rubatoda ChatGpt, cioè che sia stato allenato sulle risposte di ChatGpt. Ma lo stesso ChatGpt è da anni accusato di aver rubato da giornali come il New York Times, piattaforme video come YouTube. Insomma non si sa ancora la verità e potrebbe non sapersi mai, vero è che OpenAI accusa DeepSeek di “rubare”, ma è lei stessa accusata di furto. Un cane che si morde la coda.

Avatar utente
Maria Bosco
Creator
Classe 1993, sono laureata in Matematica e Ingegneria Matematica, con la grande convinzione che sia possibile rendere la matematica divertente e comprensibile. Ex-pallanuotista, amante dello sport, dopo aver lavorato nella consulenza informatica, in piena crisi dei trent’anni sono finita a lavorare in televisione per poi finalmente approdare in Geopop.
Sfondo autopromo
Cosa stai cercando?
api url views