NF24
Cerca
Close this search box.

Intelligenza artificiale, disciplinare la materia per contenere i rischi

Intelligenza artificiale e disruptive technologies stanno già rivoluzionando le nostre vite. Agli enormi benefici derivanti dal progresso tecnologico, si accompagnano però i rischi che queste tecnologie sfuggano al controllo dell’uomo. Per questo motivo si rende necessaria una chiara e puntuale regolamentazione che delimiti il perimetro della loro azione. Una sfida normativa difficile che l’Unione europea sta provando a raccogliere.

Il Consiglio dell’Ue ha infatti adottato il 6 dicembre del 2022 un general approach, un orientamento generale, sulla proposta di Regolamento sull’Intelligenza artificiale, presentata dalla Commissione il 21 aprile 2021. The race to disruptive technologies: nations as ecosystems of knowledge, evento organizzato dal Centro Studi Americani e Fondazione Leonardo-Civiltà delle Macchine in collaborazione con l’Ambasciata degli Stati Uniti in Italia, ha consentito di approfondire il ruolo delle nuove tecnologie nel contesto internazionale. 

“Il principio alla base della proposta dell’Unione europea – spiega Antonio Malaschini, già segretario generale del Senato e esperto di Ai in campo normativo – è quello per cui l’Ai vada regolata calcolando i rischi che può comportare per cittadini, imprese, utenti in generale: maggiori i rischi, più rigorosa la disciplina”. La proposta di Regolamento sta adesso seguendo un complesso iter legislativo. “Dopo il parere del Consiglio dell’Ue, sul documento si esprimerà il Parlamento europeo alla fine di marzo. La speranza è che entro fine anno si concluda questo processo. La nuova normativa sull’Ai troverebbe quindi applicazione presso gli Stati membri tre anni dopo la sua entrata in vigore. A quel punto avremo finalmente una regolamentazione dell’Intelligenza artificiale. Sarà un unicum: nessun altro Paese ha già adottato o ha intenzione di adottare una regolamentazione complessiva della materia”. 

Antonio Malaschini, già segretario generale del Senato. Esperto di Ai

La proposta definisce in primis cosa sia una sistema di Ai; il testo restringe il campo ai sistemi sviluppati attraverso approcci di machine learning o fondati su modelli logico-conoscitivi. Si precisa però che la definizione intende essere flessibile, per venire incontro a futuri sviluppi tecnologici. 

Una delle questioni centrali è legata proprio al grado di intensità con cui regolamentare la materia. Le leggi da adottare non possono infatti essere tropo rigide, perché si rischia di imbrigliare delle tecnologie in continua e rapidissima evoluzione. “La tensione fra questi due opposti, rigidità o flessibilità – argomenta Malaschini – è espressa dai differenti approcci alla materia tra Ue e altri Paesi. Il modello seguito dall’Unione Europea è fortemente regolatorio. Più flessibile è invece l’approccio adottato dal Regno Unito, favorevole alla ricerca e all’innovazione, senza vincoli eccessivi per cittadini e imprese. Probabilmente una via di mezzo, come quella seguita dagli Stati Uniti, potrebbe rappresentare la soluzione migliore, il giusto compromesso”. 

Sulla regolamentazione dell’Ai per scopi militari siamo invece all’anno zero. “Non esiste in nessuna parte del mondo una disciplina normativa dell’Ai in campo militare. La stessa iniziativa dell’Ue si limita a delimitarne l’uso in ambito civile. La materia, chiaramente, andrebbe disciplinata con una serie di trattati internazionali. La strada attualmente è complessa ed in salita, non sarà un processo rapido”. 

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.