Intelligenza artificiale e salute, 6 pilastri

intelligenza artificiale salute
Aboca banner articolo

Il crescente utilizzo dell’intelligenza artificiale per la salute presenta una serie di sfide, oltre a numerose opportunità, per istituzioni, esperti e popolazione. A ricordarlo è l’Organizzazione mondiale della sanità (Oms), che pubblica il primo rapporto globale sull’AI e la salute, forte di 6 principi guida per ottimizzarne progettazione e utilizzo.

Fondamentale, secondo gli esperti, che etica e diritti umani vengano messi al centro del processo, fin dal momento della progettazione. Il rapporto ‘Etica e governance dell’intelligenza artificiale per la salute’ è il risultato di 2 anni di consultazioni tenute da un panel di esperti internazionali nominati dall’Oms.

“Come tutte le nuove tecnologie, l’intelligenza artificiale ha un enorme potenziale per migliorare la salute di milioni di persone in tutto il mondo. Ma proprio come tutte le tecnologie può anche essere utilizzata in modo improprio e causare danni”, ricorda Tedros Adhanom Ghebreyesus, direttore generale dell’Oms. “Questo nuovo importante rapporto fornisce una guida preziosa su come massimizzare i benefici dell’AI, riducendo al minimo i suoi rischi ed evitando le sue insidie“.

L’intelligenza artificiale può essere – e in alcuni Paesi ricchi è già – utilizzata per migliorare la velocità e l’accuratezza della diagnosi e dello screening delle malattie; offrire cure sempre più personalizzate; rafforzare la ricerca sanitaria e lo sviluppo di farmaci e sostenere diversi interventi di salute pubblica, come la sorveglianza delle malattie, la risposta alle epidemie e la gestione dei sistemi sanitari.

L’intelligenza artificiale potrebbe consentire ai pazienti un maggiore controllo della propria assistenza sanitaria. Potrebbe inoltre permettere ai Paesi poveri di risorse e alle comunità rurali di colmare i pesanti gap nell’accesso ai servizi sanitari. Tutto bene, dunque? Non proprio.

Il nuovo report mette in guardia contro la sopravvalutazione dei benefici dell’AI per la salute, soprattutto quando ciò avviene a spese degli investimenti e delle strategie fondamentali per ottenere una copertura sanitaria universale.

Le tante opportunità sono legate a sfide e rischi, compresi quello della raccolta e dell’uso dei dati sanitari, dei pregiudizi codificati negli algoritmi e dei rischi per la sicurezza dei pazienti, la sicurezza informatica e l’ambiente.

I sistemi di intelligenza artificiale dovrebbero dunque essere progettati con cura, per riflettere la diversità dei contesti socioeconomici e sanitari. Dovrebbero essere accompagnati da una formazione in competenze digitali, e dal coinvolgimento della comunità. C’è poi la questione (non proprio secondaria) della formazione di milioni di operatori sanitari, che si troveranno a fare i conti con macchine che potrebbero mettere in discussione la loro decisione.

Insomma, qui il punto è coniugare nuove tecnologie con l’etica. Per limitare i rischi e massimizzare le opportunità offerte dall’uso dell’intelligenza artificiale per la salute, l’Oms elenca 6 ‘pilastri’, principi guida di base per la regolamentazione e la governance dell’Ai:

1) Proteggere l’autonomia umana: nel contesto dell’assistenza sanitaria, ciò significa che gli esseri umani dovrebbero mantenere il controllo dei sistemi sanitari e delle decisioni mediche; la privacy e la riservatezza dovrebbero essere protette e i pazienti devono fornire un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati.

2) Promuovere il benessere e la sicurezza delle persone e l’interesse pubblico: i progettisti di tecnologie di intelligenza artificiale dovrebbero soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi o indicazioni ben definiti. Devono essere disponibili misure di controllo della qualità e di miglioramento di quest’ultima in relazione all’impiego dell’AI.

3) Garantire trasparenza e intelligibilità. La trasparenza richiede che siano pubblicate o documentate informazioni sufficienti prima della progettazione o dell’implementazione di una tecnologia di intelligenza artificiale. Tali informazioni devono essere facilmente accessibili e facilitare una consultazione pubblica e un dibattito su come è stata progettata la tecnologia e su come dovrebbe o non dovrebbe essere utilizzata.

4) Promuovere responsabilità e appropriatezza: sebbene le tecnologie di intelligenza artificiale svolgano compiti specifici, è responsabilità delle parti interessate garantire che vengano utilizzate in condizioni appropriate e da persone adeguatamente formate.

5) Garantire inclusività ed equità. L’inclusività richiede che l’AI per la salute sia progettata per incoraggiare l’uso e l’accesso più equo possibile, indipendentemente da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche protette dalle leggi sui diritti umani.

6) Promuovere un’AI reattiva e sostenibile. I progettisti, gli sviluppatori e gli utenti dovrebbero valutare in modo continuo e trasparente le applicazioni di intelligenza artificiale durante loro uso, per capire se l’intelligenza artificiale risponde in modo adeguato e appropriato alle aspettative e ai requisiti. I sistemi di AI dovrebbero anche essere progettati per ridurre al minimo le loro conseguenze ambientali e aumentare l’efficienza energetica. I governi e le aziende dovrebbero essere in grado di affrontare eventuali interruzioni sul posto di lavoro, comprese quelle per la formazione degli operatori sanitari per adattarsi all’uso dei sistemi di intelligenza artificiale e le potenziali perdite di posti di lavoro dovute all’uso di sistemi automatizzati.

I 6 pilastri risultano, a ben vedere, piuttosto ambiziosi. Ma non sono altro che un tentativo di governare la corsa dell’intelligenza artificiale, destinata a cambiare la salute e la sanità del prossimo futuro. Una corsa che, lo ricordiamo, è già iniziata.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.