Le ragioni dell’uomo che il robot non sempre comprende
Da un lato c’è un nuovo modo di «far pensare» le macchine, dall’altro invece il «non pensare» e agire inconsciamente dell’uomo. Semplificando all’osso sono questi i due argomenti con i quali Michele Dusi, studente di Ingegneria informatica all’università degli Studi di Brescia, e Alessandra Corso, psicologa che si occupa di ricerca alla Fondazione Bruno Kessler di Trento, si sono guadagnati la fase finale di FameLab Italia. Si tratta di una competizione internazionale di comunicazione scientifica per giovani ricercatori e studenti universitari che si svolge in oltre 30 Paesi, Italia compresa. A fine aprile a Brescia si è svolta una delle otto selezioni locali, che ha incoronato i due giovani studiosi come portacolori della provincia alla fase nazionale che si svolgerà a Catania nell’autunno di quest’anno.
Come si accennava in precedenza Corso, dopo la laurea triennale in Psicologia cognitiva e la magistrale in Data science, nel suo talk di tre minuti ha spiegato come alcune risposte vengano elaborate inconsciamente dal nostro cervello «anche se, consapevolmente, non sapremmo spiegarne il perché. È sorprendente come un concetto di questo tipo possa essere scientificamente misurato - ha affermato -. Due scienziati, Peirce e Jastrow, nel 1884 furono tra i primi a misurare l'inconscio attraverso un esperimento, cercando di capire perché l’uomo è capace di rilevare strutture complesse non casuali, quando consapevolmente non vengono riconosciute».
Nel corso del tempo le tecniche si sono affinate ma la scienza è giunta a dare una risposta. «Agiamo inconsciamente perché questa funzione cerebrale è vantaggiosa e perciò è stata selezionata nel corso dell’evoluzione». Sul «pensiero del pensiero» ha ragionato anche Dusi, parlando di machine learning e bias. «Il machine learning è una tecnica alternativa alla programmazione classica che permette di addestrare un computer a partire da grandi quantità di esempi - ha spiegato -. Non sono però oggi rari i casi in cui sistemi intelligenti si scoprono agire secondo discriminazioni di genere, classe ed etnia. Alla base c’è un problema di bias: quando una macchina è addestrata su dati che non rappresentano in maniera corretta la realtà, il rischio è di veicolare idee e pregiudizi errati attraverso di essi. Riconoscere, dichiarare e mitigare la presenza di bias diventa quindi un passo fondamentale nella costruzione di sistemi intelligenti».
Giudicati da Cristina Guerra e Marco Ronchi di AmbienteParco, Lorenzo Maternini, vice presidente di Talent Garden, Cinzia Pollio, direttrice di Fondazione Aib, e Umberto Gelatti, ordinario di Igiene generale e applicata all'università di Brescia, sono ora attesi a Catania per la finale italiana di FameLab, sperando di potersi guadagnare un posto per l’ultimo atto internazionale in programma in autunno. Il «non pensiero umano» e il «pensiero macchina» sono ad un incrocio il problema è se verrà data una precedenza o vi saranno dei problemi.
Riproduzione riservata © Giornale di Brescia
Iscriviti al canale WhatsApp del GdB e resta aggiornato