
L'intelligenza artificiale, per quanto possa essere uno strumento utile e con un enorme potenziale per lo sviluppo della nostra società, non è infallibile come talvolta viene spacciata dalle aziende software che lavorano in questo ambito: un esempio sono le “allucinazioni” dei moderni sistemi di AI generativa, termine che si usa per indicare degli output che non sono basati sulla realtà o sulla verità oggettiva, che risultano incoerenti con i dati di input forniti dall'utente.
Qualche esempio di allucinazione dell'AI? Il “topo assurdo” comparso qualche mese fa in una rivista scientifica e, più recentemente, gli stravaganti consigli di Google (e nella fattispecie della sua nuova funzione AI Overviews), come quello di mettere la colla sulla pizza (al posto della mozzarella) e mangiare sassi. I motivi per cui esistono simili allucinazioni sono vari, tra cui l'imprecisione dei dati usati per l'addestramento e l'elevata complessità del modello.
Cosa sono le allucinazioni delle intelligenze artificiali e da cosa dipendono
Il termine “allucinazione” riferito all'intelligenza artificiale potrebbe risultare per certi versi anacronistico e paradossale, questo perché le allucinazioni sono tipicamente associate al cervello umano e non a quello delle macchine. Da un punto di vista metaforico, però, la parola “allucinazione” descrive accuratamente il fenomeno di cui stiamo parlando. Questo perché difatti l'allucinazione dell'intelligenza artificiale è un fenomeno in cui un modello linguistico di grandi dimensioni – ovvero un LLM (Large Language Model) – ha una percezione distorta della realtà, andando a riproporla all'utente nel momento in cui va a generare degli output privi di senso e imprecisi, siano essi di tipo testuale (nel caso dei chatbot, come ChatGPT e Google Gemini) o visivo (nel caso di tool text-to-image, come DALL-E o text-to-video, come Sora).

Simili imprecisioni dipendono da molteplici fattori. Contrariamente a quello che potrebbe pensare qualcuno, l'intelligenza artificiale non è perfetta. I dati con cui i modelli vengono addestrati, talvolta possono essere incompleti, distorti e non rappresentativi della realtà. Inoltre, bisogna considerare il fatto che il mondo reale è complesso, ricco di particolari e dettagli che, talvolta, sono difficili da comprendere. Nel cercare di fornire risposte sempre e comunque, talvolta l'intelligenza artificiale potrebbe semplificare in modo eccessivo certi concetti o addirittura collegarli in modo errato tra loro producendo risultati che, difatti, sono incomprensibili.
Perché le allucinazioni dei chatbot sono un rischio
Le allucinazioni dei chatbot e degli altri sistemi AI, per quanto possano destare talvolta una certa ilarità, sono un rischio. Questo perché gli output fuorvianti generati dai modelli potrebbero essere presi per veri dagli utenti, il che potrebbe portare a diversi problemi.
Se, per esempio, un modello di intelligenza artificiale viene applicato nel settore sanitario, nel momento in cui ha delle allucinazioni potrebbe restituire risultati poco attendibili portando i medici a eseguire interventi chirurgici non necessari o, viceversa, a non diagnosticare malattie per cui è necessaria una cura. Anche dal punto di vista della disinformazione le allucinazioni dell'intelligenza artificiale potrebbero fare non poco danno, diffondendo rapidamente notizie e informazioni false, che potrebbero portare potenzialmente un elevato numero di persone a credere a fatti distorti.

Come difendersi e prevenire le allucinazioni dell’AI generativa
Le aziende che sviluppano modelli di intelligenza artificiale sono consapevoli del fenomeno e, chiaramente, è nel loro interesse cercare di risolverlo o, quantomeno, contenerlo il più possibile riducendo le probabilità di incappare in allucinazioni dell'AI generativa. Per riuscirci stanno adottando varie tecniche, come l’addestramento contraddittorio. In cosa consiste? Un modello viene addestrato su un mix di esempi, alcuni normali e altri contraddittori appunto, così da metterlo nelle condizioni di discernere ciò che è reale da ciò che non lo è.
C'è da dire, comunque, che il modo migliore per difendersi dalle allucinazioni dell'AI generativa (almeno da parte di noi utenti) è usare questa tecnologia adottando un approccio critico e consapevole, il che significa non prendere per “oro colato” gli output dell'intelligenza artificiale, eseguendo sempre una verifica manuale di questi ultimi consultando fonti affidabili per verificare l’accuratezza delle informazioni.