intelligenza artificiale
Aboca banner articolo

Si è conclusa qualche giorno fa la discussione al Parlamento europeo sulla proposta della Commissione dell’aprile 2021 di un Regolamento comunitario per l’intelligenza artificiale (IA). Si prospetta in autunno la discussione plenaria e poi la promulgazione.

Si arriverà quindi ad una definizione dei principi che deve seguire l’intelligenza artificiale, che sempre più viene utilizzata , o quantomeno evocata, nei più diversi campi della teoria e della pratica, e ora anche prepotentemente nell’ambito della salute e della medicina. Non vi è una definizione condivisa e propriamente scientifica dell’intelligenza artificiale, di solito ci si risolve a indicazioni semplici e lapalissiane, ovvero IA è l’intelligenza delle macchine in contrapposizione all’intelligenza propria degli umani, o a considerazioni legate al processo, ovvero l’IA è l’insieme di programmi che producono effetti che sono considerati come propri dell’intelligenza se effettuati da un umano.

In questo scenario, non è possibile spesso identificare quale sia l’effettivo impatto dell’intelligenza artificiale e quale sia la sua efficacia, specie nell’ambito della salute. Riprendendo un’efficace indicazione di Luciano Floridi, “la difficoltà è nemica delle macchine, la complessità è il loro alleato”.

E’ perciò evidente che l’utilizzo del Machine Learning possa facilitare la valutazione di situazioni molto complesse, tipiche della fase diagnostica in medicina, elaborando molti dati da fonti differenti. Proprio per questo, se il sistema è adeguatamente addestrato, si può arrivare ad un miglioramento effettivo e duraturo nella medicina. Va sottolineato che alle due tipiche fasi del Machine Learning supervisionato, generalmente utilizzato in medicina, Training, l’addestramento del sistema ad opera di un medico o un gruppo di medici esperti, e Testing, la valutazione dell’accuratezza e dell’efficacia del sistema nella pratica dopo l’addestramento, deve esser associata una terza fase, la validazione esterna, cioè la validazione del sistema in altri contesti.

Inoltre, i sistemi commerciali, che evidentemente hanno superato la validazione esterna e presentano caratteristiche tali da esser utilizzati universalmente, dovrebbero esser valutati come qualsiasi altra procedura medica con procedure di Health Technology Assessment, per considerare non solo l’accuratezza, ma anche gli aspetti economici, organizzativi ed etici.

L’etica, che deve esser fondamento della normativa, come sostenuto anche dall’Ue, deve riguardare i classici elementi di beneficenza, il sistema deve portare vantaggi al medico e al paziente, la non maleficenza, per esempio il sistema seppur accurato e vantaggioso non deve apportare discriminazioni tra i pazienti e i medici, autonomia, per esempio il paziente deve conoscere i propri diritti nell’esecuzione di un programma di intelligenza artificiale, e giustizia, per esempio non dovrebbero esserci pregiudizi nei confronti di condizioni patologiche e potenzialmente patologiche del cittadino esposto al sistema, cui viene aggiunta da diverse organizzazioni, come l’Ocse, l’esplicabilità, ovvero la capacità di utilizzatori e esposti di comprendere il sistema e di identificare le responsabilità all’interno del processo.

Si tratta di un dibattito fondamentale per una società pervasa dalle informazioni e dal loro controllo, ma è cambiata la tecnologia, ma non la filosofia. Quasi sessant’anni fa, nel luglio 1964, usciva su Selezione del Reader’s Digest, rivista che storicamente contribuì a formare un pensiero occidentale e a diffondere l’American way of life nel nostro Paese, l’ultima intervista di Norman Wiener, morto in marzo di quell’anno, fondatore della Cibernetica, come allora si definiva l’utilizzo delle macchine intelligenti, termine risuscitato in questi mesi per la guerra.

Alla domanda ‘si fa un uso intelligente dei calcolatori?’, Wiener risponde: “Nel dieci per cento dei casi, sì”, specificando che “il calcolatore non vale più dell’uomo che se ne serve, gli può consentire di fare di più nello stesso limite di tempo. Ma è l’uomo che deve avere le idee. E nelle prime fasi, quando si sperimentano le idee, non si dovrebbe contare sull’uso dei calcolatori”.

Alla domanda ‘queste macchine sottrarranno posti di lavoro?’, Wiener risponde che il lavoro viene differenziato dalla coesistenza uomo-macchina, “ma se insistiamo nell’usare le macchine, facendo astrazione delle persone, e non diamo alle persone il giusto posto nel mondo, siamo rovinati”. Ripartiamo da qui, per l’uso intelligente e umano dell’intelligenza artificiale, anche considerando una domanda che fino a pochi mesi fa sembrava di un’epoca dimenticata: “Si può programmare un calcolatore per una guerra nucleare?”.

*Giuseppe Banfi, direttore scientifico dell’Irccs Istituto Ortopedico Galeazzi e docente dell’Università Vita Salute San Raffaele

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.