0 risultati
video suggerito
video suggerito
23 Settembre 2025
6:00

È vero che l’intelligenza artificiale provoca falsi ricordi? Effetto Mandela e AI

L'intelligenza artificiale amplifica il fenomeno dell'effetto Mandela provocando falsi ricordi con immagini e video artificiali sempre più realistici.

102 condivisioni
È vero che l’intelligenza artificiale provoca falsi ricordi? Effetto Mandela e AI
AI effetto mandela

Testi, immagini e video prodotti con l'ausilio dell'intelligenza artificiale generativa proliferano e, a quanto pare, potrebbero avere un effetto sulla memoria e i ricordi. La nostra memoria non funziona come un archivio digitale. È molto più simile a un processo di ricostruzione: ogni volta che ricordiamo un evento, il cervello lo rielabora, lo colora di emozioni e riempie eventuali vuoti con dettagli più o meno plausibili. È proprio da questa fragilità che si origina il cosiddetto effetto Mandela, cioè la convinzione di ricordare qualcosa che nella realtà non è mai accaduto o che è avvenuto, ma in modo diverso. L'avvento delle immagini e dei video generati dall'AI amplifica le probabilità di incappare in falsi ricordi. Vedere più e più volte un contenuto falso, ma convincente, può farci credere che appartenga al nostro passato, o addirittura che sia parte di un ricordo condiviso da molti. Vediamo più nel dettaglio cos'è l'effetto Mandela e, soprattutto, qual è il ruolo dell'AI nel provocarci falsi ricordi.

L'effetto Mandela – quel fenomeno per cui un grande numero di persone condivide il ricordo di un fatto che non è mai avvenuto – deve il suo nome alla ricercatrice Fiona Broome, che nel 2009 si accorse di un fenomeno curioso: molte persone erano convinte che Nelson Mandela fosse morto in carcere negli anni ’80, quando invece venne liberato nel 1990 e morì solo nel 2013. Da allora, esempi di ricordi collettivamente errati sono emersi in vari ambiti della cultura pop. Qualche esempio? Molti ricordano la Pikachu, il celebre Pokémon giallo, con una striscia nera sulla sua estremità (assolutamente non presente); altri ancora ricordano l'omino del Monopoly con il monocolo (anche in questo caso il dettaglio è assolutamente assente).

La psicologia ha cercato di spiegare perché la mente sia così incline a questo genere di distorsioni. A quanto pare una parte importante del processo si trova nell'ippocampo, una regione cerebrale coinvolta sia nella memoria sia nell'immaginazione. Secondo quanto affermato dal prof. Aileen Oeberst, dell'Università di Potsdam «questo suggerisce già alcune importanti conseguenze per i falsi ricordi» aggiungendo che «se le persone immaginano qualcosa ripetutamente, tendono a credere a un certo punto di averlo realmente vissuto e che si tratti fondamentalmente di un ricordo».

Il confine tra ricordare e immaginare, quindi, è molto più sottile di quanto pensiamo: se ripetiamo a noi stessi un'immagine o un evento mai accaduto, con il tempo potremmo convincerci che appartenga al nostro vissuto. Inoltre, ogni richiamo mnemonico non è una riproduzione fedele, ma una sorta di ricostruzione, suscettibile a errori e influenze esterne.

Il dott. Christian Jarrett, un neuroscienziato cognitivo, direttore di Psyche, in un articolo per la BBC ha espresso un parere interessante riguardo al fenomeno dei falsi ricordi dovuti alla diffusione dell'AI:

In psicologia, un “quadro di monitoraggio delle fonti” descrive i processi coinvolti nell'identificazione dell'origine dei nostri ricordi. Il quadro registra la fonte di un ricordo come un'informazione. Viene codificato nella memoria insieme ad altri aspetti di ciò che abbiamo vissuto. Il “tag” che indica la provenienza del ricordo può però svanire facilmente, anche se altri aspetti del ricordo permangono. In questo modo, i filmati generati dall'AI corrono il rischio di confondersi con gli eventi del mondo reale nella nostra mente. E questo è un problema che potrebbe peggiorare con il miglioramento dei video generati dall'AI.

Con strumenti come DALL-E, Sora (entrambi di OpenAI), Nano Banana e Veo 3 (ambedue di Google) oggi è possibile creare in pochi secondi immagini e video che imitano perfettamente lo stile di un artista o che raffigurano eventi mai accaduti. Strumenti che permettono di produrre deepfake (video manipolati grazie all'AI in cui un volto viene sostituito con un altro) sempre più evoluti e realistici, che difatti generano scene che sembrano reali, ma che nella realtà non sono mai avvenute.

La combinazione tra vulnerabilità della memoria e capacità dell'AI di produrre contenuti convincenti pone davanti a ciascuno di noi una sfida importante: imparare a convivere con strumenti che amplificano il fenomeno dei falsi ricordi. Capire come mitigare il problema non è per niente facile e al momento. Sicuramente, un ottimo punto di partenza è quello di circondarsi di fonti affidabili, confrontarsi con persone competenti riguardo agli argomenti di nostro interesse e mantenere un approccio critico verso ciò che vediamo online.

Sfondo autopromo
Cosa stai cercando?
api url views