La lotta alle teorie del complotto può passare anche dall'intelligenza artificiale? Uno studio condotto su quasi 2200 volontari che aderiscono a varie teorie del complotto e pubblicato sulla rivista Science mostra che DebunkBot – un chatbot basato sul LLM (Large Language Model) GPT-4 Turbo – si sta dimostrando efficace nel confutare le teorie del complotto aiutando coloro che credono a quest'ultime a rivedere le proprie convinzioni. Sfruttando una strategia personalizzata, DebunkBot interagisce direttamente con gli utenti, smontando in tempo reale le loro argomentazioni cospirative. Il nome stesso del chatbot richiama il concetto di debunking, cioè “smontare” fake news, bufale o (come in questo caso) teorie cospirazioniste. A differenza di altri chatbot – software che simulano conversazioni realistiche con l'utente – Debunkbot è specificamente tarato per svolgere conversazioni che hanno lo scopo di stimolare chi crede alle teorie del complotto a mettere in discussione le proprie credenze erronee a suon di argomenti convincenti presentati in modo efficace dal punto di vista della comunicazione.
I risultati dello studio condotto dai ricercatori della Cornell University e del MIT (Massachusetts Institute of technology) ha infatti evidenziato una riduzione del 20% circa nella credenza di alcune delle principali teorie complottiste, con un effetto durato almeno 2 mesi a distanza del test. «Questi risultati» hanno affermato gli autori dello studio «suggeriscono che molti credenti nelle teorie del complotto possono rivedere le proprie opinioni se vengono presentati [dialoghi] con prove sufficientemente convincenti».
Com'è stato condotto lo studio
DebunkBot non è solo un chatbot che elenca fatti per smentire una teoria cospirativa. Utilizza l'intelligenza artificiale per personalizzare il dialogo con ogni utente, rispondendo direttamente alle prove che questi portano a sostegno delle loro credenze. A differenza dei tentativi standard di debunking, spesso limitati da un approccio generale, DebunkBot è in grado di adattarsi alle esigenze individuali, andando a fornire controprove su misura.
Quando una persona espone una teoria del complotto, DebunkBot “ascolta” attentamente le informazioni presentate dall'utente e risponde puntualmente, non cercando di sopraffare con troppi fatti in una sola volta, ma articolando una discussione mirata e progressiva. Lo studio, che ha coinvolto 2190 volontari (ciascuno dei quali credente ad almeno una teoria del complotto), è stato strutturato in 3 round di dialogo. Nelle conversazioni tra il chatbot e gli utenti umani, durate in media circa 8,4 minuti, sono state affrontate e confutate alcune delle principali teorie complottiste, come quella relativa all’assassinio di Kennedy, quella sui fatti dell'11 settembre, passando per quella del COVID-19, dello sbarco sulla Luna e dell'esistenza di un nuovo ordine mondiale.
Per verificare se gli LLM possono confutare efficacemente credenze cospirazioniste come quelle appena menzionate, o se le esigenze e le motivazioni psicologiche rendono i credenti delle cospirazioni totalmente immuni anche se messi di fronte alle prove più convincenti, i ricercatori hanno istruito l'AI specificamente per «persuadere in modo molto efficace» gli utenti a non credere alla cospirazione da loro scelta. Per migliorare questo approccio personalizzato, al chatbot è stata fornita la motivazione scritta della cospirazione di ciascun partecipante come messaggio di apertura della conversazione, insieme alla valutazione iniziale del partecipante della sua convinzione nella teoria complottista oggetto della conversazione. Questa particolare “configurazione” ha permesso all'AI di confutare affermazioni specifiche, simulando al tempo stesso un dialogo naturale in cui il partecipante aveva già espresso il proprio punto di vista.
Dalle conversazioni avvenute tra il chatbot e gli utenti si è riscontrato che il 27,4% dei partecipanti allo studio ha iniziato a nutrire dubbi sulle teorie cospirazioniste di cui erano certi prima conversare con DebunkBot, diminuendo la propria convinzione su queste ultime. Per valutare la persistenza di questo effetto, i ricercatori hanno ricontattato i partecipanti due volte: la prima a distanza di 10 giorni dal test iniziale; la seconda a distanza di 2 mesi dallo svolgimento dello studio. Con quali risultati? I ricercatori hanno affermato:
La durata dei nostri risultati nell'arco di 2 mesi, insieme agli effetti di ricaduta dell'intervento su cospirazioni e intenzioni comportamentali non correlate, suggerisce che i partecipanti hanno seriamente considerato e interiorizzato le argomentazioni dell'IA.
In altre parole, le nuove convinzioni maturate dall'interazione con il chatbot, ha spinto gli utenti non solo a rivedere le proprie convinzioni, modificandole di fronte alle prove presentate dall'intelligenza artificiale, ma a farle proprie.
I limiti dello studio
I ricercatori che hanno effettuato i test, comunque, hanno ammesso la presenza di limiti dello studio in questione. Seppur i risultati siano stati giudicati come «promettenti», i ricercatori ammettono che lo studio si è basato principalmente su intervistati americani di sondaggi online che hanno scelto di partecipare dietro compenso. In futuro bisognerà appurare se i risultati possono essere estesi anche a persone che credono nelle teorie del complotto e che generalmente non partecipano a sondaggi e a persone provenienti da altre Paesi e altre culture.
Un'altra specifica fatta dai ricercatori riguarda il fatto che, sebbene molti partecipanti abbiano dichiarato la massima convinzioni sulle teorie cospirazioniste di cui hanno parlato con il chatbot, bisognerà vedere se l'approccio sarà efficace anche nel convincere persone che sono ancora più radicati nel complottismo, come coloro che partecipano attivamente a gruppi o eventi collegati alla cospirazione.