Non solo intelligenza artificiale. Nei retroscena che hanno preceduto il G7 pugliese si è letto di una possibile domanda del Papa sull’intelligenza “naturale” ai leader del vertice, mentre nella sessione dedicata il Pontefice ha ricordato ai Grandi della Terra di dover governare l’intelligenza artificiale e il fatto che serve “una buona politica” per “la pace”. Due temi, pace e intelligenza artificiale, che è sempre più difficile conciliare: l’AI ha già un ruolo inquietante nei conflitti odierni.
Secondo Andrea Locatelli, professore di scienze politiche dell’Università Cattolica del Sacro Cuore, “il Papa è stato chiaro anche in passato sull’AI. Però i Paesi in guerra sanno che l’intelligenza artificiale può servire, credo sia irrealistico il pensiero di poterla bandire, o addirittura regolamentarne l’uso a fini bellici. Per la cronaca la stanno usando Russia e Ucraina, ma anche Israele”.
Per il professore “l’utilizzo per l’acquisizione di obiettivi bellici è molto preoccupante: perché l’individuo dovrebbe rimanere responsabile delle sue azioni. Fino a che punto è responsabile l’uomo, fino a che punto la macchina?”. Nel conflitto di Gaza, utilizzando Lavender, un database basato su AI, negli scorsi mesi è stato riferito che Israele avrebbe contrassegnato decine di migliaia di persone come obiettivi militari. Il caso ha fatto scalpore, oltre che per le vittime provocate, anche per il processo di autorizzazione preventiva connesso al database che avrebbe accettato anche 15-20 vittime civili per ogni bersaglio, arrivando a 100 per ogni funzionario di alto profilo.
L’importanza dell’etica
Quello che è certo è che al riguardo dell’AI utilizzata in guerra regole assolute non ce ne sono. Come ha spiegato Mariarosaria Taddeo (professoressa dell’Oxford Internet Institute e advisor del ministero della Difesa britannico proprio sul tema AI) a Fortune Italia in questa intervista esistono “i principi della teoria della guerra giusta che sottendono alle leggi umanitarie, ma come queste si applichino all’AI non è ancora stato discusso in maniera ampia e approfondita”.
Esiste un board della Nato (il Data and Artificial Intelligence Review Board) per lavorare “sugli standard da seguire”, ma non si è arrivati a conclusioni significative. E il vuoto attuale permette intanto di sperimentare utilizzi bellici degli algoritmi e delle armi autonome.
L’intervento del Papa al G7
A cosa serve allora parlare di AI e guerra? Qual è stato il ruolo del Papa in questo G7? Sulle armi autonome, Bergoglio ha ricordato che “in un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette “armi letali autonome” per bandirne l’uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano”.
Secondo Locatelli “il Papa ha ricordato come lo sviluppo dell’intelligenza artificiale debba essere consapevole delle sue implicazioni etiche, già chiarite con la Rome Call for Ai Ethics del 2020″, cioè la call della Pontificia accademia della vita che ha segnato e sta segnando il percorso del Vaticano sul tema intelligenza artificiale.
L’Italia ha già siglato questo accordo proprio agli inizi della call, ricorda il professore, insieme ad alcune Big Tech. “L’invito al Papa al G7 inoltre ha sicuramente presa a livello di elettorato nazionale e aumenta il riconoscimento a livello internazionale, perché è una figura ascoltata nel mondo”. L’anno scorso è arrivato “il framework di Hiroshima sull’etica e hanno sicuramente interesse ad adeguarsi tutti gli Stati oggi indietro sull’AI. Di questo discorso non fa parte la Cina, che sull’AI sta investendo molto e in modo poco trasparente”.