Cerca
Close this search box.

AI, la regolamentazione non ostacola l’innovazione, la favorisce

L’AI è in forte crescita. Ma potrebbe fare di più, e meglio.

Mentre in America OpenAI lancia la prima versione di ChatGPT enterprise, dedicata alle aziende, l’Europa prova a dire la sua con l’European AI Act. La proposta alla Commissione Europea risale al 2021, poi si è aggiunta la posizione del Consiglio d’Europa del dicembre 2022 e quella del Parlamento a giugno 2023. L’accordo finale è atteso per i primi mesi del 2024, e dovrebbe entrare in vigore al massimo entro il 2026. In quanto regolamento, sarà applicato da tutti gli Stati membri senza necessità di specifiche leggi di recepimento nazionali.

Sarebbe la prima norma mondiale sul tema AI, se si esclude quanto già fatto in Cina, e questo ha creato allarme nella vicina Inghilterra, che teme di restare indietro e doversi adeguare, indirettamente, al primato cronologico della norma europea. Ci sono in ballo equilibri economici e sociali, oltre che normativi e di business. Ne abbiamo parlato con Ivana Bartoletti, fra le maggiori esperte di AI, chief privacy officer Wipro e Cybersecurity and Privacy Executive Fellow presso Virginia Tech University.

Ivana Bartoletti – chief privacy officer Wipro e Cybersecurity and Privacy Executive Fellow presso Virginia Tech University

Il legislatore europeo ha scelto un approccio  non settoriale, costruito su una nuova definizione di ‘sistema di AI’ basato sul rischio.

E in risposta l’HoC Technology Committee del Parlamento britannico ha pubblicato un report sull’AI, che evidenzia i principali rischi che questa comporta, e sottolinea come la regolamentazione non ostacoli l’innovazione, ma la favorisca. A spingere verso la necessità di legiferare c’è il timore che l’Ue possa superare il Regno Unito negli sforzi per rendere l’IA sicura, è questo il sentire dei membri del Commons Technology Committee autori del report.

Cos’è questo nuovo report e quali obiettivi si prefigge?

ll report, promosso appunto dalla Commissione Innovazione Uk, fa emergere la necessità di regolamentare l’AI per arginare i rischi connessi alla Privacy, o al copyright. In chiave Brexit è poi  interessante valutare come l’Uk tema di doversi adeguare ad un regolamento europeo che non sente suo. Se fosse varata prima la legge europea, l’Uk vi sarebbe soggetta non di diritto ma di fatto, volendo fare business con l’Europa. A livello globale c’è quello che si chiama ‘effetto Bruxelles’, con l’Europa che punta ad avere un primato competitivo non fondato sul prodotto ma sulla regolamentazione, com’è già avvenuto in passato, ad esempio, col Regolamento generale sulla protezione dei dati (Gdpr privacy).
Il tema è però più ampio, perché bisognerebbe fare lo sforzo di mettere dei paletti all’AI, che abbiano valore a livello globale.
E la Uk sta appunto organizzando un summit sull’AI che si terrà a novembre, e risponde in parte all’esigenza di trovare un proprio posizionamento post Brexit nel campo dell’innovazione.

L’Italia sarà invitata? Che ruolo avrà l’Europa?

Diciamo che il Trade Tecnology Council nell’innovazione è tracciato da America ed Europa. E l’idea del governo inglese sembra voler legare il summit alla linea del ‘like-minded countries’, ovvero concentrarsi solo sulle nazioni che hanno un impianto anche valoriale simile. Questo di fatto escluderebbe la Cina, che però ha già una notevole regolamentazione. Quella cinese è fra le posizioni più avanzate, considera la trasparenza e il micro targeting, visto che la spinta alla regolamentazione in Cina è arrivata con l’affermarsi dell’AI generativa. La Cina ha un controllo statale e sociale che vuole mantenere anche in campo dell’innovazione, della creazione di immagini e testi, oltre a tutti i temi della sicurezza.
A livello globale, poi, questo approccio like-minded contrasta con gli equilibri che si stanno generando altrove. Guardiamo al Brics, un raggruppamento delle economie mondiali di Brasile, Russia, India e Cina e Sudafrica, che è entrata nel 2006 e ha recentemente avviato un dialogo con l’Arabia saudita. Questo propone un approccio significativo a culture completamente diverse. A tutto questo si aggiunge l’intenzione delle Nazioni Unite di creare un’agenzia internazionale per l’AI, simile a quella che ci fu per la bomba atomica. Tornando al Summit di novembre, sembra che l’Uk stia giocando la carta globale in un clima geopoliticamente ambiguo. Il Summit, che vedrà sicuramente fra gli invitati anche l’Italia, sembra prendere più prendere la linea di like-minded countries, si proverà ad espanderlo anche all’India, un Paese con una capacità tech enorme, che ha approvato di recente una legge sulla Privacy ed è interessante anche dal punto di vista industriale, essendo uno dei maggiori produttori di microchip al mondo.

Questa AI innova poco perché costano troppo i materiali di base, come i microchip.

C’è stato un clamore iniziale non completamente giustificato che ha accompagnato l’avvento dell’AI. Ora però la gente capisce che AI non è a costo zero, e anche le aziende devono stare molto attente ai costi. L’AI ha dei ritorni che non sono immediati e dei costi ambientali non da poco, e anche sociali. Ora si sta cercando di capire come si andrà avanti, se ci sarà una nuova generazione più evoluta di intelligenza artificiale, rispetto a quella che conosciamo.

Questa generazione di intelligenza artificiale causa la perdita di molti posti di lavoro ma non è ancora in grado di sostituire adeguatamente gli umani. E’ un problema o un’opportunità?

E’ vero, questa generazione di AI non è in grado di sostituire il lavoro umano del tutto, ci sono ambiti in cui ci sono più problematiche, ma siamo in fase di sviluppo. Io credo però che certamente i lavoratori di oggi, che non vengono skillati sull’AI sono quelli che perderanno il lavoro domani. Bisogna guardarla con gli occhi della produttività: non parliamo quindi di sostituzione ma di supporto al lavoro, lì ci sono le opportunità, da parte industriale, perchè AI non è solo software ma anche hardware, e i costi di produzione sono saliti moltissimo nell’ultimo anno.

Per regolamentare correttamente, il limite non dovrebbe quindi essere posto al processo di innovazione, ma si dovrebbero regolamentare i campi di azione in cui è ammessa l’azione dell’AI?

L’European AI Act usa questo approccio, e mette in evidenza due situazioni ad alto rischio: l’AI utilizzata in campo medico, dei trasporti ferroviari o dell’aviazione, che segna un rischio collettivo, a cui si affianca il rischio a cui si espone il singolo, inteso in termini di dignità umana, privacy. Il regolamento europeo considera quindi l’AI come fosse un prodotto, e punta a fornire un ‘libretto delle istruzioni’ fatto in modo neutro.
L’approccio americano è diverso, perché è settoriale. La questione di fondo è che bisogna normare valutando i rischi, che però si evolvono e non si riesce sempre a prevederli. Eticamente potrebbe non essere efficace concentrarsi solo sui rischi e normare in funzione di quelli.

L’utilizzo di dati “etici” e neutri, o la possibilità di formare le singole AI aziendali con propri dati, è uno scenario plausibile? Che rischi comporterebbe?

Lo scenario non solo è plausibile ma sarebbe da accelerare. Ci sono tre modalità per le aziende di utilizzare l’AI generativa: uso tramite API – application programming interface – che è rischioso per la privacy perché se immetti dati di clienti è come se li lasciassi in uno spazio pubblico, ma ha come beneficio la possibilità di essere recepita rapidamente dalle aziende.
Poi c’è un secondo modo: il private instance, ovvero il training dell’AI viene fatto su modelli e dati aziendali, e quindi puoi avere tutti gli use cases interessanti nei diversi ambiti. In questo caso i rischi si mitigano, ma bisogna stare attenti alle solite questioni di trasparenza.
Il terzo modo prevede che l’azienda crei un suo modello, ma per farlo devi essere una grande azienda, ad esempio Microsoft l’ha fatto con OpenAI.
Io credo che il secondo modello diventerà quello di riferimento, com’è già avvenuto con il Cloud, e se le aziende non hanno ancora pensato di utilizzarlo, direi che sono già in ritardo rispetto al processo di innovazione che riguarda tutti i business.

L’Italia è stata il primo Paese a mettere dei vincoli rispetto alla privacy di ChatGPT. Lei cosa ne pensa?

Quello che ha fatto Scorza in Italia è stato magnifico, necessario. Ci si è trovati con un Ente regolamentatore che ha alzato la manina e ha costretto OpenAI a rispondere e ad adeguarsi. Questi Big Tech dovrebbero proporre modelli innovativi di ‘privacy on design’ ma di fatto la privacy per loro è ‘on demand’.
Su cosa sia oggi la privacy ci stiamo interrogando tutti, la gente la vive in maniera più reale, perché si tratta della sicurezza dei propri dati, il pericolo di manipolazione online, la gente sta sperimentando questo fatto: il problema è che la privacy non puo’ essere vista in modo separato dal tema della competitività dei big tech che impongono i loro standard, facendoli diventare standard diffusi. Competizione e privacy vanno sempre di pari passo

Cosa sarà necessario che le imprese italiane facciano per restare al passo con l’innovazione?

Per le imprese italiane è un buon momento. L”impatto che avranno queste tecnologie generative non è scontato, non sappiamo quali aziende ne beneficeranno di più, molto dipenderà dalla capacità imprenditoriale e dalla capacità di utilizzare l’innovazione, sarà importante non farsi prendere dal glamour (voglio licenziare il 30%) questo no.
Siamo in un buon momento perché un po’ di creatività ci consentirà di essere competitivi e al passo con questa evoluzione.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.