NF24
Cerca
Close this search box.

AI affidabile, in Europa si può

Per quanto riguarda l’intelligenza artificiale, la fiducia non è facoltativa, è indispensabile”. Margrethe Vestager, Vicepresidente della Commissione Europea, nel presentare il nuovo regolamento europeo sull’AI, parte proprio dall’importanza della fiducia. Solo una relazione di fiducia tra cittadini e sistemi di intelligenza artificiale potrà consentirne un uso convinto e consapevole. I cittadini europei vedranno garantiti i diritti fondamentali di persone e imprese, nello sviluppo di un’intelligenza artificiale antropocentrica, sostenibile, sicura e inclusiva.

Un’intelligenza artificiale che porti benefici nelle cure sanitarie, in trasporti più sicuri e puliti, in processi di produzione più efficienti, in un’energia più economica e sostenibile.

Il nuovo quadro normativo sarà applicato ai soggetti pubblici e privati di tutti gli Stati membri, con un approccio basato su quattro diversi livelli di rischio.

Rischio inaccettabile: sarà vietato lo sviluppo di un’AI che violi i diritti fondamentali. Ad esempio, l’attribuzione di un punteggio sociale da parte dei governi (sistemi di credito sociale); lo sfruttamento delle vulnerabilità dei minori (giocattoli con assistenza vocale che incoraggia comportamenti pericolosi dei bambini); sistemi di identificazione biometrica remota in tempo reale utilizzati in spazi accessibili al pubblico (ad esempio per finalità di repressione dei reati).

Rischio alto: sistemi di IA con ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali.
Tali sistemi saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato. Riguardano:
● Infrastrutture critiche (ad es. i trasporti) che potrebbero mettere a rischio la vita e la salute dei cittadini
● Istruzione o formazione professionale, che può condizionare l’accesso all’istruzione e alla vita professionale di una persona (ad es. punteggio degli esami)
● Componenti di sicurezza dei prodotti (ad es. applicazione dell’IA nella chirurgia robotica)
● Occupazione, gestione dei lavoratori e accesso al lavoro autonomo (ad es. software di selezione dei CV per le procedure di assunzione)
● Servizi pubblici e privati essenziali (ad es. sistemi di credito sociale che negano ai cittadini l’opportunità di ottenere un prestito)
● Attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad es. valutazione dell’affidabilità delle prove)
● Gestione della migrazione, dell’asilo e del controllo delle frontiere (ad es. verifica dell’autenticità dei documenti di viaggio)
● Amministrazione della giustizia e processi democratici (ad es. applicazione della legge a una serie concreta di fatti)

Rischio limitato: obbligo di trasparenza nei sistemi a rischio di manipolazione (ad esempio, attraverso l’uso di chatbot). Gli utenti devono essere consapevoli del fatto che stanno interagendo con una macchina.

Rischio minimo: tutti gli altri sistemi di IA possono essere sviluppati e utilizzati nel rispetto della legislazione vigente senza ulteriori obblighi giuridici. Ad esempio, l’uso gratuito di applicazioni quali videogiochi o filtri spam che sfruttino l’AI.

Una visione chiara per accelerare gli investimenti nell’AI, promuovere l’eccellenza nel percorso di sviluppo dal laboratorio al mercato, e garantire sistemi AI sicuri, trasparenti, etici, imparziali e sotto il controllo umano.

Sistemi di intelligenza artificiale di cui ci si possa fidare. Perchè l’AI non sia pensata e utilizzata solo per scopi commerciali, ma sia sviluppata per rispondere ai grandi problemi dell’umanità, in un’ottica di AI per il bene comune.

 

ASCOLTA ORA IL PODCAST:

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.