
Vi è mai capitato di vedere un'immagine sui social che sembra reale ma con un'aura artificiale? O di ascoltare un nuovo gruppo musicale, per poi scoprire che era tutto generato da un algoritmo? Se sì, vi siete imbattuti con molta probabilità nel fenomeno conosciuto come “AI slop”, termine con cui ci si riferisce a contenuti prodotti dall'intelligenza artificiale di qualità medio-bassa: immagini, video, testi, audio o combinazioni di questi, creati rapidamente e a basso costo, spesso senza particolare attenzione all'accuratezza o al valore informativo. L'AI slop si diffonde perché le piattaforme digitali premiano l'attenzione rapida e la viralità, talvolta a scapito (purtroppo) di materiali più approfonditi o autentici.
Negli ultimi anni il fenomeno è cresciuto in maniera esponenziale: dai canali YouTube in rapida ascesa con soap opera sui gatti a partite di calcio animate da zombie, fino ai post LinkedIn (in lingua inglese) che, secondo una recente analisi, nella metà dei casi sono generati artificialmente. Questo flusso importante di contenuti non solo può ingannare gli utenti più distratti, ma ha effetti concreti sul lavoro di giornalisti, artisti e creator digitali, che si trovano spesso spiazzati da materiale generato dall'AI che compete con le loro opere autentiche. Pur non essendo intrinsecamente dannoso, l'AI slop richiede da parte nostra una certa attenzione: riconoscerlo, contestualizzarlo e, quando necessario, segnalarlo è fondamentale per difendere la qualità dell'informazione e proteggere l'esperienza online di tutti.
Cosa significa AI slop e quali effetti sta producendo
Il termine “AI slop” può essere tradotto in italiano come “sbobba artificiale”. Questa resa permette di avere un'idea di quanto certi contenuti generati dall'intelligenza artificiale siano poco appetitosi. Eppure riescono a essere sempre più popolari. Questo perché produrre simili “creazioni” costa molto poco, sia in termini economici che di tempo. Ed è proprio il basso costo con cui è possibile produrre questi contenuti che li ha resi presenti in ogni dove su tutto il Web, non solo sui social network.
Tanto per citare un esempio noto, pensiamo a Wikipedia. La famosa “enciclopedia libera”, le cui voci vengono realizzate dagli utenti che agiscono come contributor volontari, ha dovuto fare i conti con un'ondata di “sbobba artificiale” non indifferente: articoli generati dall’intelligenza artificiale pieni di errori, fonti inventate e citazioni senza senso. La comunità dei volontari ha reagito come un vero e proprio “sistema immunitario”, introducendo regole più severe di cancellazione rapida per i contenuti riconoscibilmente prodotti da chatbot, così da evitare di sprecare tempo a correggere bozze di qualità scadente. Tra gli indizi più comuni per scovare questi contenuti ci sono frasi preconfezionate rivolte al lettore (es. «Ecco il tuo articolo su…»), riferimenti inesistenti o bibliografie piene di link e ISBN falsi. Per fronteggiare il problema, i Wikipediani hanno creato persino un elenco di tratti linguistici tipici delle AI — dal tono eccessivamente promozionale all'abuso di certe congiunzioni — così da intercettare e rimuovere più facilmente i testi maldestri. Il “caso Wikipedia” è un esempio lampante di come l'AI slop rischi di minare la qualità dell'informazione, costringendo chi fa informazione online a lavorare il doppio solo per “ripulire” la spazzatura lasciata dall'AI.
Altro esempio di come l'AI slop possa non solo rendere meno qualitativa l'informazione, ma come promuove la disinformazione, cosa ancora più grave. Ne è un chiaro esempio quanto accaduto dopo l'uragano Helene. Gli oppositori dell'ex presidente USA Joe Biden hanno diffuso immagini false create dall'AI (come quella di un bambino sfollato che abbraccia un cucciolo) per accusare l'amministrazione di una cattiva gestione dell’emergenza. Anche quando è evidente che il materiale è artificiale, può comunque ingannare chi lo vede rapidamente e diventare uno strumento di disinformazione.

Questo fenomeno colpisce anche gli artisti e i creativi: non solo provoca perdite economiche ingenti, ma rimpiazza le loro opere con contenuti di qualità inferiore che, agli occhi degli algoritmi dei social media, finiscono per avere lo stesso peso dei contenuti di qualità. Di conseguenza, i creator online che hanno le spalle meno coperte vanno in seria difficoltà.
Perché è un problema e come difendersi
Concludiamo con qualche dritta su come difendersi dall'AI slop. La base fondamentale da cui partire per riuscirci è sviluppare un atteggiamento critico verso contenuti sospetti. Tradotto in parole povere, questo significa prendersi la briga di controllare fonti, cercare conferme incrociate e diffidare da informazioni troppo patinate o insolite. E se doveste imbattervi in un contenuto potenzialmente fuorviante e disinformativo generato con l'AI, avete un importante dovere verso gli altri utenti: segnalare il contenuto sulle piattaforme. Anche se questi due accorgimenti non elimineranno il problema dell'AI slop, contribuiranno in una qualche misura a mantenere un ambiente digitale più sano, pulito e utile.