NF24
Cerca
Close this search box.

Algoritmi, privacy e stato di diritto

privacy ai cisco

Responsabilizzazione artificiale: un nuovo problema, un nuovo principio. La versione completa di questo articolo a firma di Luca Bolognini è disponibile sul numero di Fortune Italia di marzo 2022

Da anni, eserciti di giuristi s’interrogano sui profili di responsabilità civile per i sistemi di intelligenza artificiale. La stessa Commissione europea ha confezionato proposte di regolamento che attribuiscono obblighi e impongono adempimenti a fornitori, distributori, importatori e utenti di sistemi AI. La ricerca e il dibattito in materia sono necessari (verosimilmente, avremo test e vigilanze per l’AI come per i farmaci ed escogiteremo meccanismi di assicurazione obbligatoria e di responsabilità oggettiva per i risarcimenti dei danni) ma, a mio avviso, questi sforzi colgono solo una parte del grande tema delle responsabilizzazioni artificiali.

Il punto non è soltanto capire chi pagherà, se un sistema AI danneggerà qualcosa o qualcuno. L’elefante è nella stanza, e andrebbe osservato con attenzione, quando la responsabilizzazione di un sistema dotato di autonomia decisionale – o di chi per esso – deve fare i conti non già con i meri risarcimenti economici, ma con ciò che non è ‘contabile’: l’etica, la privacy, la democrazia, i vincoli penalistici a tutela dell’essere umano, e così via. I limiti etici, costituzionali e penali si pongono a confine di valori umani non misurabili (o, in certi casi, non solo) in denaro.

Quanti soldi valgono la privacy, la libertà, la democrazia? Quanti la vita e la dignità umana o altri diritti fondamentali, di cui garantiamo il doveroso rispetto etico e giuridico? Si potrà anche riconoscere una somma per la parte civile danneggiata, ma sarebbe un elemento ancillare e minoritario rispetto al ‘bene della vita’ da proteggere.

È chiaro che, finché l’AI rimarrà sufficientemente stupida e specializzata, e soprattutto ancora dominata da programmatori e admin umani, si rivelerà più facile responsabilizzare i ‘padroni’ (persone fisiche, società o enti gestiti da persone fisiche) che la tengono al guinzaglio in ogni specifica applicazione. La sfida si porrà, invece, e succederà plausibilmente presto, quando ad esempio si avvereranno – anche separatamente – le seguenti condizioni: una complicazione e moltiplicazione esponenziale di ‘oggetti attivi’ (fisici, virtuali), per quanto ancora non così intelligenti ed esperti, tali da rendere obiettivamente impraticabile capire chi abbia fatto cosa o cosa abbia fatto chi. Nugoli di oggetti e loro componentistiche, hardware, software, imprendibili e irresponsabilizzati – come accadrebbe volendo identificare il ‘colpevole’ di una puntura in uno sciame di migliaia di vespe. È uno scenario compatibile con il cosiddetto next generation Internet of Things e con ambienti metaversali di realtà aumentata (sempre più probabili nelle smart city);  una progressiva e strisciante adozione di strumenti di partecipazione e voto a distanza, basati anche (o unicamente) su AI – di nuovo, in ambiente metaversale – in contesti quali assemblee o consigli, di società o istituzioni.

La versione completa di questo articolo è disponibile sul numero di Fortune Italia di marzo 2022. Ci si può abbonare al magazine di Fortune Italia a questo link: potrete scegliere tra la versione cartacea, quella digitale oppure entrambe. Qui invece si possono acquistare i singoli numeri della rivista in versione digitale.

*Luca Bolognini è presidente dell’istituto italiano per la privacy e la valorizzazione dei dati

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.