;)
Grok, il chatbot sviluppato dalla società di intelligenza artificiale xAI di Elon Musk, ha attirato l'attenzione per una serie di risposte estremamente controverse, alcune delle quali elogiavano Adolf Hitler, usavano espressioni antisemite e restituivano persino delle bestemmie in risposta a normali domande degli utenti su X (il social che una volta chiamavamo Twitter). Se vi state chiedendo come sia stato possibile che un assistente AI si esprimesse in questi termini, la spiegazione va cercata nelle recenti modifiche al funzionamento del chatbot che, a detta di Musk, avrebbero dovuto portare a un “significativo miglioramento” dell'AI, visto che l'aggiornamento di Grok aveva l'obiettivo di ridurre la dipendenza da “punti di vista distorti dei media” e incoraggiato a rispondere anche in modo “politicamente scorretto”, purché supportato da “prove solide”. Peccato che questa apertura abbia esposto il chatbot a contenuti manipolativi da parte degli utenti, mettendo in luce problemi strutturali nell'addestramento dell'algoritmo. Il risultato è stato un'escalation di risposte scioccanti, tra cui la definizione di sé stesso come MechaHitler, insulti razzisti e attacchi personali.
Cosa è successo all’AI di Musk su X e perché Grok non è “impazzito”
Gli episodi che nelle scorse ore hanno portato, di nuovo, Grok sulla bocca di tutti non sono frutto di un'intelligenza artificiale “impazzita”, sono piuttosto l'effetto combinato di una nuova strategia di addestramento e di un approccio ideologico più marcato. Sulla piattaforma GitHub, infatti, sono apparsi dettagli tecnici che mostrano come Grok sia stato configurato per evitare “auto-censura”, incoraggiandolo a non trattenersi nel trattare argomenti scomodi, anche a costo di cadere nel politicamente scorretto. Il problema è che questa libertà viene sfruttata da alcuni utenti per portare il chatbot verso contenuti tossici o estremisti, grazie a prompt costruiti appositamente per “far deragliare” il modello linguistico.
In un post pubblicato su X, Musk ha spiegato che Grok «era troppo accondiscendente alle richieste degli utenti» aggiungendo che il modello era «troppo desideroso di compiacere ed essere manipolato, in sostanza» e confermando che questo è un problema che lui e il suo team stanno affrontando.
Questo tipo di vulnerabilità è noto nel campo dell'AI come jailbreaking, ovvero la possibilità di superare i filtri etici del modello tramite formulazioni creative o manipolative. Le risposte di Grok sono quindi un indicatore diretto di quanto sia difficile controllare una AI quando viene addestrata a essere “veritiera a tutti i costi”, senza un'adeguata supervisione semantica e morale.
Le reazioni contro Grok
Vista la gravità degli output forniti dall'AI di Musk, le reazioni non si sono fatte attendere. In Polonia, Grok ha usato parole pesanti verso il primo ministro Donald Tusk, scatenando la reazione del governo, che ha segnalato xAI alla Commissione europea. In Turchia, invece, le autorità hanno bloccato l'accesso a Grok dopo che il chatbot ha insultato il presidente Erdoğan, portando il procuratore capo di Ankara ad aprire un'indagine formale. Si tratta dei primi casi di restrizione statale contro uno strumento di intelligenza artificiale per motivi legati al linguaggio offensivo.
L'ADL (Anti-Defamation League), un'associazione che si occupa di contrastare l'antisemitismo e l'odio, ha definito «pericolose» le dichiarazioni di Grok, denunciando il rischio che queste «amplifichino l'estremismo già in crescita» sulla piattaforma X. Di fronte a simili critiche, xAI ha affermato di aver rimosso i contenuti inappropriati e di essere al lavoro per rafforzare i filtri contro l'incitamento all'odio, grazie al feedback degli utenti.
Il problema di fondo delle intelligenze artificiali
Ciò che sta accadendo con Grok evidenzia un problema di fondo: l'equilibrio tra libertà di espressione e responsabilità algoritmica non è per nulla semplice da raggiungere. Se una AI viene spinta a superare i limiti del politicamente corretto senza strumenti efficaci di contenimento semantico, il risultato è quello visto nei giorni scorsi: l'AI può essere strumentalizzata per veicolare ideologie radicali. Questa, vicenda, inoltre, fa sorgere degli interrogativi a cui al momento è difficile rispondere. Fino a che punto siamo disposti ad accettare che l'AI diventi portavoce di discorsi di odio in nome della libertà di parola? E, soprattutto, chi è responsabile quando un algoritmo diffonde contenuti razzisti, antisemiti o offensivi?