
Quante volte vi è capitato, ultimamente, di guardare video sui social e di non riuscire a essere sicuri se fossero veri, oppure creati con AI? Si moltiplicano i reel in cui a persone di età diverse viene chiesto di provare a distinguere tra video generati con AI e video reali. Anche i più giovani – i più alfabetizzati dal punto di vista digitale – sbagliano, scambiando sempre più spesso video fake per veri. Le AI generative offrono prodotti ormai indistinguibili, parte della nuova era dell’AI slop, tanto che il format “real or AI” è a sua volta diventato materiale per meme e slop in cui sono personaggi artificiali che disquisiscono in modo umoristico della veridicità di altri contenuti.
Su The Guardian, il giornalista Chris Stokel‑Walker da anni esperto di AI, spiega che anche per lui è diventato spesso impossibile distinguere contenuti veri da contenuti fatti con AI. E pochi giorni dopo è arrivato l’aggiornamento di Nano Banana Pro, il tool Google che consente la creazione di contenuti AI ultrarealistici ancora più convincenti.
Come OpenAI ha dichiarato che “ogni video generato con Sora include segnali di provenienza visibili e invisibili”, tra cui watermark e metadati C2PA, oltre a strumenti interni di ricerca inversa per immagini e audio in grado di rintracciare la provenienza dei contenuti, e afferma di avere “guide progettate per garantire che la tua voce e la tua immagine siano usate solo con il tuo consenso”, Google ha dichiarato che tutti i contenuti generati dai suoi strumenti AI (VEO3, nano-banana, Gemini) hanno un watermark digitale incorporato direttamente nei loro pixel e che è stato lanciato un portale di verifica per identificare i contenuti generati con l’AI di Google.
Tuttavia, Catharina Doria, esperta di Etica AI, spiega come nemmeno SynthID, l’AI detector di Google, possa essere dirimente per capirlo: una risposta affermativa della piattaforma può confermare l’origine AI, ma un’eventuale risposta negativa non sarebbe attendibile, perché il watermark potrebbe essere stato corrotto – e comunque non è in grado di verificare contenuti realizzati con altre AI. L’unico modo per tutelarsi, racconta, sarebbe non consumare più contenuti in maniera passiva, esercitando sempre il dubbio, ricorrendo agli strumenti per verificare l’origine dei contenuti – e non accontentandosi, comunque, della risposta.
In ogni caso, in un mondo in cui sempre più traffico internet proviene da fonti non umane, in cui viene premiata la viralità e quasi mai badge che segnalano contenuto AI sono presenti, questo non potrà che avere conseguenze. Sia sulla diffusione di contenuti falsi, percepiti come veri, sia sulla capacità umana di applicare le giuste distinzioni.
Sul confine sempre più labile tra reale e rappresentazione del reale abbiamo intervistato Andrea Daniele Signorelli, giornalista esperto di AI che ha pubblicato quest’anno il saggio Simulacri Digitali. Le allucinazioni e gli inganni delle nuove tecnologie. L’idea nasce dal libro Simulacri e impostura del filosofo e sociologo francese Jean Baudrillard (1929-2007), che sostiene che nella società dei consumi la rappresentazione della realtà finisce per fagocitare la realtà stessa.
«La stessa dinamica – spiega –, avviene nella tecnologia: lo storytelling tecnologico diventa più affascinante e più pervasivo della realtà dei prodotti tecnologici, come nel caso del metaverso, narrato come un nuovo mondo totalizzante – che poi, fortunatamente, la società ha rifiutato –, o dell’intelligenza artificiale, realmente trasformativa, ma circondata da una narrazione esagerata che parla di superintelligenze e scenari alla “Terminator”. Il mio obiettivo era dare una matrice interpretativa per esercitare spirito critico e difendersi da queste narrazioni».
Se anche i giornalisti più esperti come Walker sono in difficoltà, come potranno le persone normali orientarsi in questo flusso?
Questa è una fase in cui non possiamo più essere certi che quello che stiamo vedendo sia reale, a meno che non sia già stato filtrato e contestualizzato da persone di cui ci fidiamo. Questo è un elemento fondamentale della situazione epistemologica a cui stiamo andando incontro: abbiamo bisogno di un filtro, di figure umane che ci garantiscano un lavoro di verifica e controllo di autenticità di cui possiamo fidarci. L’epoca dei documenti “autentici” è relativamente breve e si è aperta con l’invenzione della fotografia – anche se con Photoshop e, ancora prima, con alcune manipolazioni sui negativi, si poteva comunque mistificare la realtà. Oggi siamo a livelli estremi ed è ovviamente problematico dover ogni volta riflettere sulla provenienza di centinaia di contenuti. È un lavoro che non tutti possono o riescono a fare, e questo crea due conseguenze: una negativa, per cui sempre meno persone fanno caso al fatto che un contenuto sia vero o falso (ndr. dati Reuters Institute), ma valutano piuttosto se li incuriosisce o li diverte, e se li scambiano anche solo “per il LOL”, favorendone la diffusione. L’aspetto positivo, invece, riguarda il mondo dell’informazione, perché il mare di slop crea un’opportunità per chi fa questo mestiere: diventare una bussola fidata, che aiuti le persone a orientarsi. Il lavoro del giornalista quindi non è più solo di scovare notizie e contenuti, o crearli in prima persona, ma anche di filtrarli per aiutare gli utenti.

Avremo giornalisti chiamati a fare da filtro travolti dalla quantità di contenuti, mentre nel frattempo saranno stati messi da parte perché non in grado di scrivere altrettanto veloce quanto l’AI. Un bel cortocircuito.
Ci sono opinioni molto diverse sul tema. C’è chi parla di un vero e proprio collasso epistemologico, per cui saremmo giunti alla fine della possibilità di interpretare la realtà: una vera e propria resa. Dall’altra parte c’è chi pensa che questi allarmi siano sopravvalutati e inutili, perché appunto, già quando già è arrivato Photoshop si facevano gli stessi discorsi catastrofisti, da cui siamo usciti senza sforzi eccessivi. Secondo me siamo nel mezzo: è una situazione complessa, ma come esseri umani svilupperemo inevitabilmente nuove capacità che ci permetteranno di renderci conto con più immediatezza delle immagini generate con AI. Sta già accadendo, all’inizio eravamo molto più spiazzati. E nasceranno nuovi supporti tecnologici che ci aiuteranno, mettendo insieme alle nuove competenze anche nuovi strumenti. Io sono abbastanza pessimista, pensando ai danni già causati negli ultimi 15 anni dai social, dalle teorie del complotto e dalla mole di contenuti su cui non ci si pone grandi domande, ma non posso pensare che arriveremo al disastro assoluto.
Molti ipotizzano che nel giro di un paio d’anni bot conversazionali e LLM diventeranno gli unici filtri mainstream di accesso al sapere. Questo acuirebbe il problema per tutti coloro che non hanno strumenti di base per porsi anche solo un dubbio sulla realtà dei contenuti.
Il ritorno a un mondo dell'informazione più filtrato a livello umano non esclude il fatto che possa esserci anche un filtro automatizzato. Le disuguaglianze di accesso informativo purtroppo aumentano la polarizzazione, per cui uno stesso strumento che ad alcuni permette di scoprire nuovi orizzonti e ampliare le proprie prospettive per altri diventa invece un buco nero in cui precipitare, fino ad arrivare a sostenere teorie come quelle terrapiattiste. Dobbiamo stare molto attenti al filtro informatico adoperato dagli stessi sistemi di AI perché con l’integrazione dell’AI Mode di Google si va esattamente in quella direzione: se prima ponevo una domanda e ottenevo una gamma di risultati tra cui potevo scegliere una fonte – quella di cui mi fidavo di più, o più coerente con il mio orientamento politico, la mia sensibilità etc. – in modo autonomo, ora ottengo una risposta premasticata dai sistemi di AI. Questo significa appaltare un enorme potere e capacità di plasmare l'informazione ai colossi della Silicon Valley, più di quanto già non facessimo già prima affidando loro la distribuzione. Il pericolo è che si tratta di strumenti soggetti ad allucinazioni, che commettono errori e sono generalmente inaffidabili. E come posso chiedere a OpenAI di raccontarmi in maniera onesta qual è l'impatto ambientale dell'intelligenza artificiale, quando non è nel suo interesse darmi queste informazioni? Temo la polarizzazione sarà crescente per la maggioranza, e che solo una piccola parte modificherà la propria dieta informativa.
Nel tuo saggio parli di un circolo vizioso: se sempre meno siti pubblicheranno contenuti perché non saranno più incentivati a farlo dopo il calo di traffico dovuto ad AI overview, quest’ultima non avrà nuovo materiale a cui attingere per generare le sue risposte; oltre al fatto che, sempre più contenuti verranno prodotti da AI e sarà su di essi che le AI stesse verranno addestrate per produrre a loro volta contenuti immessi nel web, in una cannibalizzazione costante che renderà “i contenuti sempre più omogenei, meno attendibili e dalla qualità sempre più dubbia”.
Il problema è che se le testate riducono drasticamente i click e quindi gli introiti economici perché le intelligenze artificiali sfruttano e cannibalizzano i loro risultati per fornirli direttamente all'utente, come faranno queste stesse intelligenze artificiali a essere aggiornate con materiali nuovi? Moltissimi siti che fondavano il 90% del proprio traffico su Google rischiano di scomparire; ma se scompaiono, chi fornirà alle intelligenze artificiali il materiale che serve loro per essere sempre aggiornate con contenuti nuovi? Trovare una soluzione dovrebbe essere nell’interesse di tutti, AI comprese. Stanno nascendo accordi tra OpenAI, Microsoft o Amazon e testate come New York Times, Washington Post, il Gruppo Gedi in Italia: ma le testate potranno continuare a essere indipendenti finanziate dai colossi? Si crea una relazione pericolosa con i grandi gruppi editoriali, mentre la meravigliosa editoria indipendente non riuscirà a reggere il colpo.

Dati recenti ci dicono che l’uso dei social sta diminuendo. Bisognerebbe capire se dipende dal fatto che utilizziamo sempre di più le piattaforme di AI, che diventano a loro volta social, come Sora, portando a una migrazione, oppure dalla stanchezza che proviamo nel dover continuamente chiederci se un contenuto sia vero o meno. Sarà l’AI a far tramontare i social media?
Sicuramente nello slop c’è una sorta di accelerazionismo: nel momento in cui sui social siamo inondati di contenuti di pessima qualità, dall’Italian brain rot ai video di Donald Trump che scarica deiezioni sui manifestanti, immagino che si possa arrivare a un punto di rottura. Posto che le persone si stacchino dai social ed è possibile che facciano un passo indietro rispetto a questa idea della totale disintermediazione, scegliendo di seguire solo il proprio podcast preferito, una newsletter di fiducia, un creator specifico… Non dico che torneranno ai giornali di carta, ma magari a un abbonamento digitale con qualche testata nei confronti della quale c’è un rapporto di fiducia. Nel momento in cui si tira troppo la corda, infatti, è possibile che questa si spezzi.
Le cose vanno così veloci come sembra?
Questa percezione della tecnologia c’è sempre stata: ci sono invenzioni e scoperte che hanno cambiato i paradigmi, dal passaggio tra geocentrismo ed eliocentrismo all’invenzione della stampa. Mia madre è nata negli anni Quaranta e ha vissuto l’arrivo della televisione e poi di Internet… Non credo stiamo affrontando una trasformazione tecnologica più avanzata di quella vissuta a cavallo tra Ottocento e Novecento con l’avvento dell’elettricità, oggi data per scontata. Siamo quindi in una fase di progresso senz’altro rapido, ma non esponenziale rispetto al passato: è vero, sul fronte dell’AI stiamo viaggiando più rapidamente che in passato, ma su tanti altri abbiamo rallentato.
Come possono le persone comuni difendersi?
Credo che l'unico strumento di difesa sia quello che già veniva segnalato in un report del Parlamento Europeo nel 2017 in riferimento alle fake news, che diceva che online dovremmo sempre comportarci come se fosse il primo di aprile, mantenendo la guardia sempre altissima e uno spirito estremamente critico verso tutto il contenuto che ci passa davanti. Non è credibile però chiedere alle persone comuni uno sforzo di questo tipo. In generale, l’esercizio e l’abitudine al dubbio restano la prima arma di difesa.
Quindi, ecco tre step: mantenere na soglia di guardia molto elevata; coltivare uno spirito critico che pian piano faremo nostro e cominceremo ad adoperare quasi senza rendercene conto; affidarci a un sistema informativo che cambierà radicalmente, affinché non siamo sommersi.
Secondo te possiamo ancora dare una definizione condivisa di realtà?
Dovremmo chiederla a un filosofo. Quello che posso dire io è che fino a oggi si è intesa come reale una cosa di cui si può fare esperienza condivisa, e su cui mettersi d’accordo. Non tanto sulle sfumature soggettive, ma su punti di riferimento che sono saldi: possiamo quindi pensarla diversamente su determinate cose che avvengono nel mondo, ma essere d’accordo sul fatto che esse stiano avvenendo. Disinformazione, propaganda e contenuti indistinguibili stanno mettendo in discussione tutto, ma accade da vent’anni.
Come racconti anche tu, i bot stanno conquistando anche i social media, fingendosi umani. Le AI, in generale, cercano di comportarsi come noi: non è che anche noi pian piano cercheremo di comportarci come AI? I LLM prendono da noi, ma quanto influenzeranno questi modelli il nostro linguaggio e modo di pensare?
La domanda che si sta generando e che secondo me è estremamente interessante riguarda proprio il fatto che antropomorfizziamo questi strumenti proprio perché sono stati creati e sviluppati con questo preciso obiettivo, senza che ce ne sia un reale bisogno! Nella storia dell’umanità è la prima volta che ci troviamo a dialogare con uno strumento che non è una persona, ma che ci risponde come se lo fosse: per questo ci manda il tilt. Un professore americano scriveva sul New Yorker che una sua studentessa, usando ChatGPT come aiuto allo studio, aveva avuto una piccola epifania, rendendosi conto che nessuno nella sua vita le aveva mai prestato un’attenzione così pura.
Secondo filosofi come Simone Weil prestare attenzione è una delle espressioni massime di empatia dell’essere umano, ma è anche qualcosa di difficile, a cui possiamo solo approssimarci. Le macchine lo fanno sembrare una passeggiata, e questo potrebbe avere un impatto enorme: o ci darà una mano a migliorarci, perché proveremo a essere più bravi a prestare attenzione, oppure renderà i rapporti umani più difficili, perché non avremo quella soddisfazione che ChatGPT ci offre. Da un lato potremmo trarne un miglioramento, dall’altro potremmo diventare sempre più insoddisfatti delle relazioni umane reali. Il punto non è stabilire se queste tecnologie ci influenzeranno, ma come. L’influenza è inevitabile.
E qui, come possiamo tutelarci?
Anche qui serve educazione: ci troviamo a utilizzare strumenti potentissimi senza che nessuno ci abbia preparati. Si creerà inevitabilmente una polarizzazione tra chi ha strumenti culturali o terapeutici per gestire questa trasformazione e chi invece ne è completamente privo. In varie parti del mondo si sta diffondendo l’educazione digitale, secondo me indispensabile: una forma ampliata di educazione civica che includa i temi dell’alfabetizzazione tecnologica. Il problema è che il tempo dedicato è minimo; i temi vengono affrontati da docenti che spesso non sono aggiornati; c’è ancora la narrazione che la questione riguardi solo i giovanissimi. In realtà i più esposti non sono i ragazzi, ma le persone anziane, che hanno meno familiarità con smartphone, social, deepfake e IA. Sono loro che oggi rischiano di più, perché faticano a distinguere ciò che è falso da ciò che è vero Serve un’educazione digitale seria, professionale e coinvolgente, rivolta all’intera società.
Anche nel caso dell’IA, l’alfabetizzazione è fondamentale: se spieghi bene come funziona ChatGPT, scardini l’effetto “magia”. Faccio sempre l’esempio della funzione di autocompletamento frasi degli smartphone: essa suggerisce parole in base a statistiche. ChatGPT fa la stessa cosa, solo su una scala immensamente più complessa. Se persone conoscessero il funzionamento interno dell’IA e dei LLM non rimarrebbero così spiazzate dai loro risultati. La responsabilità dei media sarà quella di smettere di comportarsi come il megafono dei giganti della Silicon Valley, non amplificando quindi il “simulacro” – generando panico o creando un hype incontrollato che non fa che alimentare una bolla di mercato –, ma fornendo piuttosto cornici interpretative che permettano alle persone di difendersi.