OpenAI o1-preview e OpenAI o1-mini sono due nuovi modelli basati sull'intelligenza artificiale che, seppur sono ancora in una fase di sviluppo, hanno dimostrato di risolvere i problemi posti in modo più proattivo e “ragionato” rispetto a GPT-4o. Al momento, comunque, l'utilizzo di quest'ultimo risulta consigliato nella stragrande maggioranza degli utilizzi. I nuovi modelli della famiglia OpenAI o1, che fanno parte del progetto Strawberry, sono disponibili per tutti gli utenti abbonati alla versione Plus e Team di ChatGPT e in futuro anche gli utenti free potranno utilizzare il modello o1-mini. Al momento le paure degli utenti verso AI così intelligenti risultano infondate, visto che questi modelli hanno superato tutti i test del caso, almeno stando a quanto affermato da OpenAI.
OpenAI o1: come funzionano i nuovi modelli e per chi sono pensati
OpenAI non ha lanciato un nuovo modello di intelligenza artificiale, bensì una famiglia di modelli che, per usare le parole dell'azienda diretta da Sam Altman, sono «progettati per dedicare più tempo alla riflessione prima di rispondere» e «possono ragionare su attività complesse e risolvere problemi più difficili rispetto ai modelli precedenti in scienza, programmazione e matematica».
A differenza dei modelli precedenti, infatti, OpenAI o1-preview e OpenAI o1-mini sono progettati per dedicare più tempo alla “riflessione” prima di generare delle risposte. Questa nuova capacità di “ragionamento”, a detta di OpenAI, rende i modelli più efficaci in ambiti come la matematica, la scienza e la programmazione, settori in cui la risoluzione di problemi complessi richiede analisi approfondite e strutturate.
Sempre stando a quanto dichiarato dall'azienda, attraverso l'addestramento questi modelli imparano ad affinare il loro processo di “ragionamento” imparando a riconoscere anche i loro errori. Dai test che sono stati condotti i modelli OpenAI o1 si comportano in modo simile agli studenti di dottorato nella risoluzione di compiti riguardanti materie scientifiche, tra cui fisica, chimica e biologia, nonché matematica e coding. Tanto per citare uno di questi test, in un esame di qualificazione per l'IMO (International Mathematics Olympiad), il modello GPT-4o ha risolto in modo corretto il 13% circa dei problemi contro l'83% circa di successo della nuova famiglia OpenAI o1.
OpenAI ammette che «come modello iniziale, non ha ancora molte delle funzionalità che rendono ChatGPT utile, come la navigazione sul Web per ottenere informazioni e il caricamento di file e immagini» e, di conseguenza, «per molti casi comuni, GPT-4o sarà più capace nel breve termine».
Ma allora, potrebbe chiedersi qualcuno, per chi sono pensati i nuovi modelli OpenAI o1? A questo quesito OpenAI risponde così:
Queste capacità di ragionamento avanzate possono essere particolarmente utili se si affrontano problemi complessi in ambito scientifico, di programmazione, matematica e campi simili. Ad esempio, o1 può essere utilizzato dai ricercatori sanitari per annotare i dati di sequenziamento cellulare, dai fisici per generare formule matematiche complesse necessarie per l'ottica quantistica e dagli sviluppatori in tutti i campi per creare ed eseguire flussi di lavoro multi-step.
Nonostante questo, l'azienda ha reso noto che gli utenti di ChatGPT Plus e Team possono già accedere ai modelli o1 in ChatGPT selezionando o1-preview (il modello più potente) oppure o1-mini (il modello più efficiente) dal menu di selezione del modello, con la possibilità di effettuare 30 richieste con il primo e 50 richieste con il secondo. In futuro, l'accesso al modello 01-mini verrà esteso anche a coloro che dispongono della versione gratuita di ChatGPT.
OpenAI o1: bisogna preoccuparsi di un'AI che “ragiona”?
Alla notizia che i modelli OpenAI sono in grado di “ragionare”, alcuni utenti hanno reagito con una certa preoccupazione. In realtà, nel comunicato tramite cui ha annunciato la nuova famiglia di modelli AI, OpenAI ha posto molta enfasi sulla questione della sicurezza. L'azienda ha affermato di aver «ideato un nuovo approccio alla formazione sulla sicurezza che sfrutta le loro capacità di ragionamento [riferendosi ai modelli AI, NdR] per farli aderire alle linee guida di sicurezza e allineamento».
Uno dei rischi più conclamati con i modelli AI è il cosiddetto “jailbreaking”, cioè la capacità di alcuni utenti di aggirare le regole di sicurezza con alcuni prompt ben studiati, che permettono di utilizzare l'intelligenza artificiale per scopi illeciti. Nei test condotti da OpenAI, il modello o1 ha ottenuto un punteggio decisamente più elevato rispetto ai modelli passati, dimostrandosi più resistente tentativi di manipolazione da parte degli utenti. Il nuovo approccio alla sicurezza sfrutta proprio la capacità di “ragionamento” del modello, in quanto quest'ultimo è in grado di comprendere il contesto delle regole di sicurezza e applicarle con maggiore precisione. Oltre a questo, OpenAI ha avviato anche alcune collaborazioni con istituti di sicurezza degli Stati Uniti e del Regno Unito per fare in modo che i modelli futuri siano sviluppati e testati in modo responsabile.