;Resize,width=638;)
Si parla spesso di bias cognitivi e di bias dell’intelligenza artificiale, ma cosa sono esattamente e come influenzano la nostra mente? In breve, avere un bias significa avere una preferenza o un pregiudizio sistematici verso qualcosa o qualcuno. Esistono diversi tipi di bias, ma in questo articolo ci concentriamo sui bias cognitivi, legati al funzionamento della mente umana, e i bias algoritmici, che emergono nei sistemi di AI quando apprendono da dati distorti, e su come questi due livelli si influenzino a vicenda. I bias cognitivi sono scorciatoie mentali: meccanismi automatici utili a velocizzare la comprensione del mondo e a decidere rapidamente. Questi meccanismi condizionano la nostra visione del mondo e hanno un impatto sullo sviluppo e sull’uso delle tecnologie “intelligenti”. E non solo: uno studio recente ha dimostrato che l’interazione prolungata con AI che presentano bias porta a un aumento dei nostri stessi pregiudizi.
I bias cognitivi sono scorciatoie mentali
I bias cognitivi sono scorciatoie mentali che la nostra mente adotta quotidianamente per elaborare e interpretare la grande quantità di informazioni a cui siamo esposti. Questi meccanismi evolutivi ci permettono di prendere decisioni rapide ed efficienti in un ambiente complesso e sovraccarico di stimoli, aiutandoci a risparmiare tempo ed energia. Tuttavia, proprio perché semplificano, possono portarci a sistematici errori di valutazione.
Esistono centinaia di bias cognitivi, ma, in generale, rispondono a quattro grandi esigenze della nostra mente:
- selezionare le informazioni rilevanti;
- dare un significato alle informazioni raccolte;
- agire rapidamente;
- decidere cosa è importante ricordare.
Per esempio, quando dobbiamo gestire troppe informazioni, tendiamo a selezionare e memorizzare solo quelle che confermano ciò che già pensiamo: questo si chiama “bias di conferma”. Un altro bias molto comune è l’effetto alone, per cui tendiamo a pensare che una persona bella esteticamente sia anche intelligente, o che una persona autorevole in un ambito sia competente anche in altri campi. Per quanto riguarda la nostra interazione con la tecnologia, invece, un bias molto rilevante è l’automation bias, ovvero la nostra tendenza a fidarci maggiormente delle decisioni prese da sistemi automatizzati (come l’AI) piuttosto che da umani. Questo è particolarmente pericoloso quando anche l’AI contiene dei bias propri.
I bias nell'intelligenza artificiale dipendono dai dati
Nel caso dei bias algoritmici dell'AI, non parliamo di scorciatoie mentali, ma di preferenze sistematiche — o discriminazioni strutturali — che emergono nei dati con cui l’AI è addestrata. I modelli di AI imparano individuando pattern e regolarità nei dati: se questi dati contengono pregiudizi verso una specifica categoria, l’algoritmo li apprende e li riproduce, amplificandoli.

Per esempio, nel 2017 si è scoperto che molti sistemi di riconoscimento facciale non riconoscevano i volti di donne nere, semplicemente perché erano stati addestrati su dataset pieni di immagini di uomini bianchi. Nello stesso periodo, è emerso che gli algoritmi per la selezione del personale di Amazon tendevano a penalizzare i CV femminili e a selezionare quasi solo uomini. Questo perchè i dati usati per l'allenamento presentavano un grande squilibrio tra uomini e donne.
Un esempio estremamente recente arriva dal Regno Unito: il Ministero della Giustizia ha avviato lo sviluppo di un sistema predittivo per identificare persone “a rischio” di commettere omicidi. Il progetto utilizza dati provenienti da forze di polizia, servizi di giustizia e sanità per elaborare profili predittivi anche su soggetti che non hanno mai commesso reati. Le critiche sollevate da esperti e associazioni per i diritti civili riguardano il rischio concreto che questi sistemi finiscano per prendere di mira soggetti vulnerabili, già discriminati, appartenenti a minoranze o contesti socio-economici fragili. In questo caso, l’AI non si limita a riprodurre una disuguaglianza: la istituzionalizza.
I bias nell’AI peggiorano i nostri pregiudizi
Il problema non si ferma al funzionamento interno dell’AI. Secondo uno studio dell’University College London (UCL), quando interagiamo a lungo con AI che presentano bias, tendiamo ad adottarli anche noi. In questo esperimento, oltre 1.200 partecipanti hanno preso una serie di decisioni facendosi aiutare o da un algoritmo o da un altro essere umano. Chi interagiva con un’AI sessista tendeva poi a sottovalutare le donne e a sovrastimare la competenza degli uomini. Questo effetto era più marcato rispetto a chi riceveva gli stessi suggerimenti da un altro essere umano. Questo è una diretta conseguenza dell’automation bias: molte persone attribuiscono maggiore accuratezza e imparzialità ai sistemi automatizzati, sottovalutando il loro impatto sui propri giudizi e quindi risultando più vulnerabili alla loro influenza. Questo effetto è particolarmente pericoloso per i soggetti più impressionabili, come i bambini, che possono interiorizzare i bias dell’AI con maggiore facilità.
Lo studio, per fortuna, mostra anche un aspetto incoraggiante: questo effetto funziona anche nella direzione opposta. L'interazione con un’IA priva o quasi di bias, migliora i giudizi umani. Per questo motivo, chi sviluppa e distribuisce questi strumenti ha una responsabilità etica fondamentale: non solo evitare di perpetuare i bias esistenti, ma anche impedirne l’amplificazione