;Resize,width=638;)
L'intelligenza artificiale è uno strumento straordinariamente potente e versatile. La utilizziamo per riconoscere i volti, per assisterci nelle diagnosi mediche e per generare immagini, video e testi. Le numerose applicazioni di questa tecnologia ci stanno facendo fare enormi passi in avanti e possono migliorare la nostra qualità della vita, ma nascondono un problema rilevante: l’AI può imparare, amplificare e ripresentare i pregiudizi presenti nei dati con cui viene addestrata. Questa "automazione dei pregiudizi" è un problema ormai riconosciuto e deriva dal modo in cui impara l’AI, estrapolando regole e pattern dai dati che le sono forniti. In questo articolo vediamo un caso notevole di “automazione dei pregiudizi”, approfondiamo quali tipi di pregiudizi – o "bias" – ci possono essere nei modelli di AI e vediamo in quali direzioni si sta muovendo la ricerca per provare a risolvere il problema.
L'automazione dei pregiudizi passa attraverso i dati
Un caso eclatante di discriminazione emerse nel 2017, quando l’allora studentessa del MIT Joy Buolamwini stava scrivendo la propria tesi sui software di riconoscimento facciale. Analizzando i risultati di tre grandi case produttrici (IBM, Microsoft, and Face++) scoprì che i software erano estremamente accurati nel riconoscere i volti delle persone con carnagione chiara, ma non lo erano altrettanto nel riconoscere le persone con carnagione più scura, specialmente le donne. Questo era dovuto al dataset su cui i software erano stati allenati. Questo dataset (poi soprannominato the pale male dataset, cioè "il dataset dell’uomo pallido") conteneva in gran parte immagini di uomini caucasici e solo in parte minore uomini e donne di altre etnie. Imparando da questi dati sbilanciati, l’intelligenza artificiale era diventata estremamente brava a riconoscere gli uomini caucasici, ma non le altre categorie, creando problemi legati, ad esempio, ai sistemi di riconoscimento delle banche e dei cellulari. In risposta, la Dr.ssa Buolamwini avviò il progetto Gender Shades, per evidenziare i problemi presenti nei dataset usati per allenare le intelligenze artificiali. Gender Shades ha contribuito a sensibilizzare l’opinione pubblica, mostrando come i bias nei dati non siano solo errori tecnici ma riflettano disuguaglianze e pregiudizi radicati, che rischiano di essere amplificati quando riproposti dalla tecnologia.

I diversi tipi di bias che rendono l'AI poco neutrale
I bias nei modelli di AI possono influire profondamente sull'affidabilità e sull'imparzialità dei risultati, e possiamo dividerli in tre grandi categorie.
Bias di interazione
Alcuni tipi di modelli utilizzano un apprendimento detto “per rinforzo”. Sono pensati cioè per continuare ad imparare e ad aggiornarsi in base all’interazione con il mondo esterno. Come è facile immaginare, se chi interagisce con il modello di questo tipo ha un pregiudizio, questo verrà immediatamente imparato e riproposto dal modello. Per esempio, nel 2016, un chatbot di Microsoft pensato per imparare a parlare dall’interazione con gli utenti di Twitter è diventato razzista e complottista in meno di 24 ore, arrivando addirittura a negare l’olocausto.
Bias latenti
Questo tipo di bias è legato ai dati utilizzati per l’allenamento. I dati sono lo specchio della società da cui vengono presi, per questo, se c'è una disuguaglianza latente nella società, questa sarà riflessa nei dati e di conseguenza anche nei modelli allenati su quei dati. Per esempio, come evidenziato da Wired nel 2023, Midjourney – un software di generazione di immagini – tendeva a rappresentare uomini bianchi in ruoli come “leader”, "manager" o “scienziato”. Poiché storicamente queste posizioni sono state ricoperte da uomini, i dataset su cui l’AI ha imparato come generare le immagini avevano una sovrabbondanza di uomini, portando l’AI ad associare queste parole a immagini principalmente maschili.
Bias di selezione
Anche in questo caso, il bias deriva dai dati su cui l'AI viene addestrata. Tuttavia, qui il problema non riflette tanto i pregiudizi presenti nella società in generale, quanto piuttosto le scelte di chi costruisce il dataset. Se, ad esempio, una persona europea dovesse creare un modello che riconosca diversi tipi di vestiti, probabilmente selezionerà come "vestiti da sposa" degli abiti lunghi e bianchi, tipici della tradizione europea, e non estremamente colorati, tipici di altre culture. In questo esempio, piuttosto innocuo, il modello non sarebbe poi capace di riconoscere come abito da sposa quello di una ragazza indiana, perché avrebbe associato quel tipo di abito unicamente al colore bianco.
Anche con le migliori intenzioni, è praticamente impossibile separare i nostri bias umani dalla tecnologia che creiamo.

Come possiamo rimuovere i pregiudizi dell'AI?
Quello dei bias nell'AI è un problema complesso per cui non esiste ancora un'unica soluzione, ma che si sta affrontando su due fronti principali: rendere i dataset più equilibrati e rendere i modelli più spiegabili. Da un lato, è importante diversificare i dataset, in modo che siano rappresentativi di diversi gruppi sociali e demografici, e rendere trasparente tutto il processo di organizzazione e selezione dei dati. Dall'altro, la possibilità di spiegare in modo univoco perché un modello prende certe decisioni è fondamentale per identificare potenziali bias nel modello stesso. Garantendo trasparenza, la explainability permette a chi sviluppa i modelli di individuare e correggere i problemi legati al bias, assicurando che il modello sia etico e interpretabile per gli utenti finali. Integrando queste pratiche, si può contribuire a sviluppare sistemi di AI più equi e affidabili.