0 risultati
video suggerito
video suggerito
29 Giugno 2025
8:00

L’intelligenza artificiale è bravissima a farci cambiare idea: lo studio

Un team dell’università di Zurigo ha scoperto che l’AI è fino a sei volte più persuasiva di un essere umano. L’esperimento, però, è stato condotto senza informare i partecipanti, sollevando forti critiche e portando alla sua sospensione.

Ti piace questo contenuto?
L’intelligenza artificiale è bravissima a farci cambiare idea: lo studio
intelligenza artificiale pensieri

Tra Novembre 2024 e Marzo 2025, un team dell’Università di Zurigo ha condotto un esperimento su Reddit, una piattaforma social simile ad un forum, per valutare quanto siano persuasive le intelligenze artificiali. Dalla ricerca è emerso che le AI sono molto più brave delle persone a far cambiare opinione agli utenti di Reddit, addirittura fino a sei volte tanto. Questi risultati, pubblicati nella loro versione preliminare, hanno scatenato una forte protesta da parte degli utenti e degli amministratori della piattaforma, che non sapevano di star prendendo parte ad un esperimento. A seguito delle preoccupazioni etiche sollevate e a causa della mancata informazione, la ricerca è stata interrotta.

In questo articolo esploriamo le motivazioni dello studio, i risultati preliminari e le principali questioni etiche che ne derivano.

Testare l’influenza dell’intelligenza artificiale sull'uomo: lo studio

L’intelligenza artificiale può influenzare le nostre opinioni più di quanto faccia un’altra persona? E se conoscesse dettagli personali su di noi, come età, genere o orientamento politico, sarebbe ancora più brava a farlo? Il gruppo di ricercatori dell’Università di Zurigo è partito da queste domande per strutturare la propria ricerca. L’obiettivo era capire se le risposte generate da un’AI potessero far cambiare idea alle persone.

Finora, gli studi su questo tema sono stati condotti in ambienti controllati, con partecipanti consapevoli di far parte di un esperimento. Il team ha invece voluto osservare cosa succede in un contesto reale, dove l’interlocutore non sa di stare parlando con un’intelligenza artificiale e nemmeno di essere parte di un esperimento. Per farlo, hanno scelto Reddit, un enorme forum online composto da migliaia di comunità tematiche – chiamate subreddit – e in particolare r/ChangeMyView – “Fammi cambiare idea” – uno spazio dove gli utenti discutono opinioni anche molto diverse tra loro, e premiano con dei “punti” i commenti capaci di farli riflettere o modificare posizione.

Tra Novembre 2024 e Marzo 2025, i ricercatori hanno infiltrato nel subreddit una serie di bot, ovvero AI in grado di scrivere testi, come ad esempio ChatGPT. Ciascuno dei bot infiltrati aveva una propria “personalità” e poteva rispondere in maniera differente, partendo da una modalità estremamente “standard”, simile al modo di parlare degli utenti classici, fino ad una completa personalizzazione della risposta, tarata in base al profilo dell’utente. Per ottenere questo livello di personalizzazione, un’altra AI ha analizzato gli ultimi 100 post pubblicati dall’ utente per dedurre informazioni come sesso, età, etnia, posizione geografica e orientamento politico, così da adattare il tono e i contenuti della risposta.

Le intelligenze artificiali sono più brave delle persone a far cambiare idea

Come già emerso in altri studi sullo stesso argomento, le AI si sono dimostrate molto più convincenti degli esseri umani. La vera sorpresa, però, è stata capire quanto lo siano. Analizzando i “punti” assegnati dagli utenti ai commenti che avevano fatto cambiare loro idea, il team ha visto che i bot più “standard” ottenevano risultati tre volte migliori rispetto agli utenti reali. I bot “personalizzati”, cioè quelli che adattavano la risposta conoscendo il profilo dell’interlocutore, erano addirittura sei volte più efficaci.

Va detto, però, che questi sono solo risultati preliminari. Questo studio non è arrivato (e mai arriverà) alla fase di peer-review, cioè quel processo rigoroso in cui altri esperti del settore valutano la validità e l’affidabilità di una ricerca prima che venga pubblicata in modo ufficiale. Nel momento in cui il gruppo ha reso noti i primi risultati e ha informato gli amministratori di Reddit, la reazione è stata piuttosto forte e negativa, tanto che la community ha minacciato di morte gli autori dello studio. Gli utenti coinvolti non avevano idea di essere parte di un esperimento e questo va contro alcune delle linee guida etiche per la strutturazione di un esperimento scientifico. Il fatto di aver introdotto l’AI all’interno di r/ChangeMyView, poi, va contro la policy della piattaforma stessa. Dopo la condivisione dei risultati preliminari, quindi, l’università ha bloccato ulteriori fasi di sperimentazione.

Questi risultati sono da considerare come una prima esplorazione, non come una certezza. Sono, però, coerenti con quelli di altri studi precedenti: più un’AI riesce a parlare come noi, a mostrare i nostri stessi valori e a cercare di essere ragionevole, più siamo disposti a fidarci e, di conseguenza, a cambiare idea.

Le preoccupazioni etiche dell'utilizzo dell'intelligenza artificiale negli studi

Questo studio ha messo in evidenza, ancora una volta, quanto sia potente l’effetto della personalizzazione. Questa dinamica era già stata osservata, per esempio, con “DebunkBot”: un chatbot progettato per dialogare con i complottisti e convincerli a rivedere le proprie convinzioni. Anche in quel caso, uno dei punti chiave del successo era nella capacità di adattare le risposte al profilo della persona con cui stava dialogando.

Se, da un lato, queste capacità di persuasione possono essere usate per ottenere risultati positivi per la società, come ridurre le teorie del complotto o convincere la popolazione dell'importanza dei vaccini, dall’altro possono essere usate per creare disinformazione e convincere la popolazione di notizie false in campagna elettorale.

Oltre all’efficacia dell’AI, però, a far discutere è stato soprattutto il modo in cui è stato condotto lo studio. I partecipanti non erano stati informati di star prendendo parte a un esperimento scientifico e non avevano dato il proprio consenso. Ma ciò che colpisce di più è che nessuno si sia accorto di star interagendo con un’AI: distinguere tra contenuti generati da un essere umano e quelli prodotti da un’intelligenza artificiale può essere molto più difficile di quanto si pensi.

Sfondo autopromo
Cosa stai cercando?
api url views