AI Act, sull’intelligenza artificiale l’Europa vuole tracciare la strada

Il primo impianto normativo nel mondo sull’intelligenza artificiale. Basta questa affermazione per comprendere la portata del voto del 14 giugno, quando il Parlamento europeo con 499 voti a favore 28 contrari e 93 astenuti ha dato il via libera a quello che è stato denominato «AI Act», il regolamento sull’intelligenza artificiale.
Si tratta di uno sforzo che il legislatore europeo ha fatto nel momento in cui i sistemi tecnologici si stanno sviluppando a una velocità incredibile (si pensi al caso di Chat Gpt), con enormi risvolti sulla vita delle persone, dalla privacy alla sicurezza. Ecco quindi che l’Europa ha deciso di muoversi per tempo, sviluppando un quadro normativo che poggia le sue basi su un sistema basato su livelli di rischio.
La piramide
Innanzitutto il regolamento vieta sistemi di AI che presentano rischi inaccettabili per la sicurezza delle persone: si tratta di biometria remota in spazi accessibili al pubblico; categorizzazione biometrica basata su caratteristiche sensibili (si pensi per esempio a genere, etnia, cittadinanza, religione, orientamento politico); sistemi di polizia predittiva; riconoscimento delle emozioni da parte dalle forze dell’ordine nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione e infine l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale.
Il secondo step prevede invece sistemi ad alto rischio, con l’obbligo per le aziende di registrare i loro modelli nella banca dati dell’Ue prima della loro immissione sul mercato: AI generativa come Chat Gpt rientra in questo segmento. Infine hanno rischio minimo o basso le applicazioni utilizzate per la traduzione, il riconoscimento delle immagini o le previsioni meteorologiche. Trasparenza e tutela de diritti sono perciò i punti cardinali del legislatore europeo, pronto ad affrontare le difficoltà collegate a un intervento di questa portata e che prevede anche importanti aggravi in chiave burocratica.
Usa e Cina
Nel resto del mondo infatti (si pensi a Cina e Stati Uniti), norme in tema di AI sono praticamente assenti: il rischio è che il vantaggio competitivo di queste aree si accresca ancor di più, costringendo l’Europa e le sue aziende non solo a rincorrere ma addirittura a subire le scelte fatte dagli attori delle due superpotenze. Ecco allora che il testo, ora entrato nella fase dei triloghi e che si spera possa essere approvato definitamente entro fine 2023, prevede delle deroghe per le attività di ricerca e sviluppo nonché per quelle componenti dell’AI fornite con licenze open source.
I pareri degli esperti
Matteo Piccinali – avvocato
Fare da apripista è sempre una buona cosa ma, come tutte le prime volte, rischi ed errori sono dietro l’angolo. «Lo sforzo del legislatore europeo è molto interessante, poiché è il primo intervento di regolamentazione organica fatto da uno dei grandi blocchi geopolitici mondiali - afferma Matteo Piccinali, avvocato bresciano (studio Zaglio Orizio) e docente di un nuovo corso sul diritto dell’intelligenza artificiale alla Shanghai University of Political Science and Law -. Ci sono però dei rischi, innanzitutto quello che il testo arrivi già "vecchio" all’emanazione.
La tecnologia va infatti velocissima, più del legislatore, e già oggi su alcune fattispecie è in ritardo». Piccinali poi rimarca come «l’Europa debba riuscire a diventare protagonista nello sviluppo di sistemi di AI. C’è bisogno di sostegno alle aziende del settore per non lasciare in mano a Stati Uniti e Cina il monopolio tecnologico». E conclude: «Sull’AI sembra di assistere alla corsa agli armamenti della guerra fredda: introdurre norme in merito è perciò fondamentale».
Antonio Giarrusso – imprenditore
La strada è quella giusta, parola di chi dell’intelligenza artificiale ha fatto il proprio core business. Antonio Giarrusso, fondatore di Userbot (azienda di Milano che sviluppa software di AI conversazionale per privati e Pa), sottolinea come «l’Europa abbia fatto un passo nella giusta direzione, anche nella tipologia di approccio basato sui livelli di rischio». Per Giarrusso (è partner di Smeup proprio per l’intelligenza artificiale) esistono però alcuni limiti legati alla normativa, «poiché il rischio zero quando si parla di questa tecnologia non esiste. La legge impone di effettuare assesment ogni volta che cambia la base dati dell’algoritmo ma con l’AI questa muta di continuo».
Ciò comporterebbe aggravi burocratici alle aziende, «anche se principalmente sulle grandi company, non sulle pmi». Per l’imprenditore punto fermo per l’Europa «deve comunque essere la volontà di spingere sull’innovazione, anche e soprattutto con strumenti di finanziamento. E in Italia negli ultimi tempi vedo un po’ di ristagno».
@Economia & Lavoro
Storie e notizie di aziende, startup, imprese, ma anche di lavoro e opportunità di impiego a Brescia e dintorni.
Riproduzione riservata © Giornale di Brescia
Iscriviti al canale WhatsApp del GdB e resta aggiornato
