GILEAD
Leadership Heade
Poste Italiane
Cerca
Close this search box.

Andrea Monti: la paura del vuoto legislativo potrebbe rallentare lo sviluppo dell’AI

ChatGpt ha mandato nel panico competitor di OpenAi e lavoratori, ma ha creato subbuglio anche tra i regolatori. Intanto, in Europa, va ancora risolto un vecchio cortocircuito tra software e letteratura

“Siamo davanti a un vuoto normativo”: il tema ritorna ogni volta che alla velocità della tecnologia viene contrapposta la farraginosità delle leggi. Ed è infatti tornato da quando ChatGpt, creatura di OpenAI, è arrivata al grande pubblico (secondo molti dando inizio alla vera Era dell’intelligenza artificiale). Ma per Andrea Monti, avvocato, studioso di High tech law e docente dell’Università di Chieti Pescara, quel vuoto normativo non esiste. Esiste, semmai, un problema di fondo.

Le norme attuali su privacy, tutela dei minori e copyright, prendendo spunto anche dalle motivazioni del blocco del Garante italiano della privacy a ChatGpt, “sono ampiamente applicabili: ci vuole capacità di interpretazione e flessibilità”, dice Monti. L’AI generativa (con le sue ‘allucinazioni’) che ha sconvolto prima i competitor dell’azienda capitanata da Sam Altman (Google su tutti) e poi il resto del mondo, “non è un problema di per sé”.

Ma un problema di fondo, relativo alla sicurezza dei sistemi AI per gli utenti finali, c’è: “Continuiamo a lavorare sul presupposto giuridico per la quale i software sono equiparati alla Divina Commedia”, dice Monti. La legge infatti tutela i software “come opere letterarie. Non sono soggette alle responsabilità di un prodotto come ricade su altri che vengono immessi sul mercato solo se sono sicuri”.

Quella a cui fa riferimento Monti è una norma comunitaria di più di 30 anni fa: la direttiva 91-250 sulla tutela giuridica dei programmi per elaboratore. Invece, dice l’esperto, “in termini normativi servirebbe sottoporre il software alla stessa disciplina del macchinario industriale”.  Nelle ultime settimane l’Ue è tornata sul problema con una proposta per la revisione della product liability directive (Pld), la direttiva europea sulla sicurezza dei prodotti e il diritto alla compensazione dei cittadini europei in caso di danni. Tra i punti principali, anche quelli sull’AI: nella proposta i sistemi AI sono ‘prodotti’ a tutti gli effetti, e così rientrano nell’ambito di applicazione del Pld, il che significa che è possibile un risarcimento quando l’AI difettosa (anche quando di proprietà di un soggetto non europeo) causa un danno, senza che la persona lesa debba dimostrare la colpa del produttore, come per qualsiasi altro prodotto. Una proposta che andrebbe a integrare l’AI Liability Directive presentata a settembre scorso e, naturalmente, l’Artificial intelligence Act europeo su cui si sta lavorando a Bruxelles.

Secondo Monti, “la toppa è peggio del buco. Se si segue la strada del software come prodotto, non si può continuare a parlare di software come opera creativa e trattarlo in modo che i produttori possano tenere segreti i progetti. I due approcci sono diametralmente opposti”.

Secondo Monti, conseguenza del lavoro europeo sull’AI sarà un doppio regime di responsabilità: uno per l’AI e uno per altri settori, “che così avranno maggiore libertà rispetto a chi sviluppa intelligenze artificiali. Una linea così marcata appesantisce molto le responsabilità di chi sviluppa AI, liberando i player tradizionali, e rallentando eventualmente lo sviluppo dell’intelligenza artificiale. La conseguenza sarà che il resto del mondo andrà avanti. Le aziende, anche quelle che si occupano di AI, ragionano in termini di costi-benefici”, dice Monti, e se a causa delle norme il mercato Ue “diventerà troppo costoso, semplicemente si allontaneranno”.

Leadership Forum
Paideia

Leggi anche

Ultima ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.