NF24
Cerca
Close this search box.

AI Act, Pecchia: Europa pioniera ma servono investimenti

Dopo intense ore di negoziato, Parlamento e Consiglio europeo hanno raggiunto un accordo storico sull’AI Act: è la prima legislazione globale volta a regolamentare complessivamente l’uso dell’intelligenza artificiale. Un regolamento che servirà a garantire il rispetto e la tutela dei diritti fondamentali e a scongiurare usi distorti di una tecnologia potentissima e in costante evoluzione. Abbiamo analizzato la portata dell’AI Act con Leandro Pecchia, bioingegnere esperto di AI e professore ordinario di bioingegneria all’Università Campus Bio-Medico di Roma.

Crede che con l’AI Act l’Europa diventi pioniera nella sfida della definizione dei confini dell’AI? 

L’Europa era già tra i pionieri nella definizione del perimetro di azione dell’intelligenza artificiale. Oggi non è cambiato ancora niente, c’è solo un accordo fra Commissione e Parlamento sul testo definitivo che andrà comunque votato e che poi, essendo un Regolamento, impiegherà tre anni per diventare legge negli Stati membri. Non abbiamo quindi risolto adesso il problema. E tuttavia, la convergenza sul Regolamento fa sì che le persone comincino a ragionare di AI all’interno di quel perimetro, che diventa uno standard de facto. 

I grandi attori sullo scacchiere internazionale tenderanno ad adeguarsi ai nostri standard o continueranno a percorrere altre strade? 

A mio avviso gli attori internazionali si regolano in base alle necessità del mercato. Allora molto dipende da quanto noi saremo in grado di orientare la domanda; da questo punto di vista partiamo da una situazione sfavorevole. L’Europa è schiacciata da due forze. Da una parte, gli Stati Uniti con le grandi corporate che hanno capacità di movimento e di azione molto ampie: pensiamo a Google, Amazon e alle altre. Dall’altra parte ci sono potenze asiatiche, su tutte India e Cina, che stanno investendo tantissimo nell’AI e in cui le regolamentazioni legate alla privacy e alla condivisione del dato sono meno stringenti di quelle europee. Noi siamo in mezzo a questi due ecosistemi che vanno avanti in maniera molto spedita e già da un po’ di anni: ho quasi la sensazione che noi europei non abbiamo contezza della velocità con cui si stanno muovendo gli altri. 

Come si bilanciano nell’AI Act necessità di sicurezza e tutela della privacy e delle libertà fondamentali?

Questo regolamento presenta il modo di abbracciare e bilanciare rischi e benefici che è tipico delle normative dell’Unione europea. I regolamenti europei sui dispositivi medici, ad esempio, presentano livelli diversi di rischio. I dispositivi di classe 1 hanno meno vincoli perché meno rischiosi e quindi è sufficiente un’autocertificazione del produttore. I classe 3 richiedono un percorso molto articolato e validazioni da enti terzi. Con l’AI si sta riproducendo lo stesso meccanismo. Ci saranno cose di rischio più basso, per le quali basterà adottare e mantenere un codice di condotta. E poi ci saranno applicazioni dell’AI intrinsecamente più rischiose e dobbiamo evitare che si faccia un uso di queste tecnologie potenzialmente rischioso per la democrazia. 

Fino a che punto si spinge il documento nella regolamentazione della materia? 

Il livello di dettaglio del regolamento è stato oggetto di discussioni. Stiamo parlando di un ambito che è ancora in fieri. Le normative su tecnologie che evolvono rapidamente in genere rimandano al cosiddetto stato dell’arte per tutti i dettagli. Riprendendo l’esempio dei dispositivi medici: i dettagli non sono presenti nel regolamento, ma nelle norme ISO e UNI, negli standard a cui la legge rimanda. In questo caso si tratta di regolare un settore la cui evoluzione è stata così rapida che questo  stato dell’arte non è ancora disponibile. È probabilmente la prima volta in cui l’evoluzione tecnologica ha imposto il passo all’agenda del normatore. Le Nazioni Unite hanno messo in piedi un gruppo di lavoro, ma si è costituito solo due mesi fa. Qualcosa è stato già regolato ma nel complesso non disponiamo ancora del corpo di ISO standard o di normative tecniche come avviene per dispositivi medici o per i farmaci e quindi bisogna fare tutto insieme. Ma c’è anche un’altra questione da tener presente.

Quale?

Avere una normativa forte è giusto, ma va bilanciata con degli investimenti che dovranno essere dieci volte superiori rispetto a quelli che facciamo in un ambiente meno regolamentato, perché altrimenti il rischio che si corre è che la ricerca debba fare percorsi più complessi per produrre dei risultati. Quindi o lasciamo l’iniziativa in mano ai privati – come avviene nel modello delle corporate americane – oppure l’Europa deve decuplicare gli investimenti pubblici per la ricerca.

Quali saranno quindi le implicazioni concrete per chi fa ricerca?

Chi fa ricerca sull’AI in ambiti delicati come quello della salute, è già abituato ad avere un elevato standard etico e normativo e a passare per una serie di step volti a garantire la sicurezza e la trasparenza: rivolgersi a un comitato etico prima di intraprendere la sperimentazione, giustificare perché raccogliamo i dati e cosa intendiamo farne, spiegare come informiamo le persone coinvolte. Chi invece faceva attività di ricerca sull’intelligenza artificiale in settori che erano meno normati, perché percepiti come meno rischiosi, dovrà rivedere il proprio modus operandi.

Fra gli usi vietati dal regolamento c’è anche quello della polizia predittiva.

Una scelta perfettamente in linea con la nostra Costituzione, che è garantista. Da questo punto di vista il regolamento non apporta stravolgimenti significativi rispetto alle norme preesistenti. Già nella GDPR, l’attuale norma sui dati, si vieta la profilazione automatica degli utenti a meno che questi non ne siano completamente consapevoli. 

Un altro dei problemi all’ordine del giorno quando si parla di AI è quello legato ai bias. 

Quello dei bias è un grosso problema ed è una sfida che secondo me non abbiamo ancora compreso fino in fondo. Quando pensiamo a ChatGpt o a strumenti simili, parliamo di applicazioni che utilizzano il natural language processing. Sono applicazioni a cui noi diamo in pasto le parole scritte. Se prendiamo in considerazione tutta la produzione scritta esistente dall’invenzione della stampa ad oggi, non credo di esagerare se dico che il 90% di quella letteratura è razzista, sessista e contro i nostri attuali valori di democrazia. Solo le produzioni degli ultimi dieci anni hanno probabilmente incominciato a garantire un equilibrio valoriale, dando vita ad una produzione meno viziata dai bias. Allora noi dobbiamo tenere presente questo: quando nutriamo un sistema che processa i linguaggi naturali, dobbiamo sapere che cosa stiamo dando in pasto alla macchina.

Uno dei rischi principali legati all’AI è quello del deepfake. Da questo punto di vista, i contenuti creati con l’AI dovranno avere una filigrana digitale. È una soluzione che la convince?

Dal punto di vista tecnico, può essere una strada percorribile. Noi ne stiamo studiando un’altra con l’incapsulamento, ci sono anche le blockchain, c’è un mondo di soluzioni tecnologiche. Il problema vero però è che i gestori delle piattaforme che diffondono questi contenuti devono assumersi le proprie responsabilità. Se un hacker ruba il mio account e con un deepfake incomincia a sponsorizzare dei prodotti falsi, il problema  non è il deepfake ma come la piattaforma reagisce a questo. Ad oggi Meta è difficile da reperire. Se ti rubano l’account su Facebook tu hai enormi difficoltà nel dire a Meta di risarcire i danni. Noi possiamo trovare mille stratagemmi tecnologici per arginare i deepfake, gli hacker ne troveranno duemila per continuare a produrli. Il problema grosso allora è inchiodare alle proprie responsabilità chi gestisce le infrastrutture.

Che cosa manca nell’AI Act? 

Non contempla l’aspetto green, la dimensione ambientale, e l’inclusione. L’Europa, nei confronti del mondo, ha davanti a sé due importanti sfide quando si parla di AI. Anzitutto dobbiamo fare in modo che l’AI sia green, a emissioni 0. E invece oggi l’intelligenza artificiale e i dati generano tantissime emissioni. E poi non bisogna lasciare nessuno indietro: l’AI Act non può essere una leva per aumentare il digitale divide con Paesi a basso reddito, Africa in primis. Altrimenti ne pagheremo presto le conseguenze come un boomerang.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.