Il pregiudizio dell’algoritmo è lo squilibrio di chi lo crea
Gli episodi ormai abbondano: algoritmi che scartano curriculum di donne - il celebre caso Amazon - sistemi di riconoscimento facciale inaccurati quando si tratta di individuare uomini e soprattutto donne appartenenti a minoranze etniche, programmi per la valutazione di testi narrativi che danno punteggi negativi a frasi come «sono gay».
In tempi molto recenti il tema dei bias degli algoritmi, o del pregiudizio algoritmico, è sempre più al centro del dibattito pubblico, grazie allo sforzo di ricercatori e ad alcuni libri di successo. E cresce, quindi, l’esigenza di creare intelligenze artificiali più eque, tanto più queste vengono utilizzate per scopi sempre più delicati e importanti (come selezionare un candidato a un colloquio o decidere quale investimento fare). Già, ma come?
Ne abbiamo parlato con Cristiano De Nobili, bresciano classe ’86, fisico e machine learning researcher, che per tre anni ha lavorato all'assistente vocale di Samsung e ora si dedica a progetti sull'intelligenza artificiale da freelance e alla divulgazione (anche su Instagram).
«Innanzitutto, bisogna ricordarsi che l'intelligenza artificiale non ha un cervello e che viene addestrata da esseri umani - spiega De Nobili -. Tutto dipende dai dati che le diamo: se raccogliamo dati dal web compilati da donne e uomini, è inevitabile che siano pieni di pregiudizi, perché ci rispecchiano». Gli esempi si sprecano: uno degli ultimi che ha fatto notizia è quello di una ricerca americana, riportata dalla MIT Technology Review, su algoritmi per generare immagini: se alimentati con una foto di un uomo ritagliata sotto il collo, il 43% delle volte la foto si completava con la figura di un uomo in abito; se alimentati invece con una foto ritagliata di una donna, anche di una figura celebre come la deputata Alexandria Ocasio-Cortez, il 53% delle volte l'immagine finale era una donna in bikini.
«Questo succede perché l'intelligenza artificiale ha appreso l’aspetto di una donna tipo addestrandosi su un set di dati online che conteneva molte foto di donne seminude - dice De Nobili -. Ecco perché negli ultimi anni i ricercatori stanno lavorando ad algoritmi di fairness o bias compensation per addestrare le macchine a riconoscere pregiudizi molto diffusi come quelli di genere, che sono oltretutto presenti anche in tutti i dati storici comunemente utilizzati per sistemi di intelligenza artificiale».
Non è poi facile risalire al come e al perché un algoritmo sia arrivato a dare risposte discriminanti: un solo algoritmo di linguaggio contiene più di cento milioni di parametri, impossibili da vagliare uno per uno. «Essere una black box che impedisce di capire come sono state prese le decisioni è una delle accuse più comuni che vengono fatte al deep learning - prosegue De Nobili -. Ma per questo sta nascendo un nuovo settore di ricerca dedicato all’Explainable AI, l’intelligenza artificiale di cui si possono risalire e spiegare i procedimenti».
Il lavoro da fare è tanto, eppure le figure professionali necessarie in Italia scarseggiano ancora e «le donne sono pochissime. La forza lavoro nell’IA è prevalentemente maschile: un report recente dell’Unesco dice che solo il 12% dei ricercatori in IA e solo il 6% degli sviluppatori di software è donna. È chiaro che - conclude De Nobili - se c’è del sessismo incorporato nei dati, raccoglieranno quel modello e continueranno a esibire lo stesso comportamento nel loro output. Motivo per cui c’è urgente bisogno di aumentare la diversità in questo campo».
Riproduzione riservata © Giornale di Brescia
Iscriviti al canale WhatsApp del GdB e resta aggiornato