Ai, ChatGPT e l’allerta Oms per la salute

Aboca banner articolo

Ai tempi in cui l’intelligenza artificiale viene propinata come la panacea in grado di ottimizzare tanta parte del lavoro “di manovalanza semplice” all’interno dei diversi settori produttivi, giunge l’allerta dell’Organizzazione mondiale della sanità sul suo impiego in ambito salute. In particolare, l’invito è alla prudenza all’utilizzo delle piattaforme capaci di creare contenuti – ChatGPT & co. per intenderci.

“La loro fulminea diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute sta generando un notevole entusiasmo per il potenziale supporto ai bisogni di salute delle persone”, scrive Oms. Ma “è fondamentale che i rischi siano esaminati attentamente quando si utilizzano” questi sistemi “per migliorare l’accesso alle informazioni sulla salute, come strumento di supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze”.

Come a dire: ben venga la tecnologia a supporto dell’uomo, ma quando si tratta di salute andiamoci coi piedi di piombo, perché si rischia grosso. Perché la sensazione ravvisata dall’ente internazionale è che l’entusiasmo che contraddistingue l’avvento dell’intelligenza artificiale non sia accompagnato dalla cautela che normalmente viene adoperata quando una nuova tecnologia si affaccia nel quotidiano. Cautela che riguarda la sfera della “trasparenza, dell’inclusione, della supervisione da parte degli esperti”, in ultima analisi “di una valutazione rigorosa”. E, trattandosi di applicazione all’ambito sanitario, ciò “potrebbe portare i professionisti della salute a commettere degli errori, potrebbe comportare pericoli per i pazienti, finanche a erodere la fiducia nella stessa intelligenza artificiale e diminuire o ritardare i potenziali benefici a medio-lungo termine correlati a questa tecnologia”.

“L’intelligenza artificiale è una tecnologia che, a dispetto del nome, è intelligente quanto lo sono i suoi programmatori. È capace di fare qualcosa nella misura in cui viene addestrata con i dati”, commenta Francesco Gabbrielli, direttore del Centro nazionale per la Telemedicina e le nuove Tecnologie sanitarie dell’Istituto superiore di sanità (Iss). In altri termini, due sono i limiti attuali dell’AI applicata alla sanità (ma non solo): il modo in cui viene progettata e i dati che vengono ‘dati in pasto’ agli algoritmi per produrre dei testi.

“In sanità non ci si può accontentare”, continua Gabbrielli, “ma bisogna sperimentare con il rigore scientifico proprio della medicina”. È caustico e provocatorio l’esperto dell’Iss nelle sue considerazioni sull’AI applicata per la produzione di testi e contenuti in sanità: “Noi dobbiamo fermarci e domandarci: ‘Perché stiamo progettando delle macchine che scrivono al posto nostro? Qual è lo scopo di far scrivere un referto alla macchina al posto del medico? Qual è il vantaggio per il medico? E per il paziente?’ In altri settori rispondere alla domanda ‘A cosa serve?’ è semplice. Ma in medicina vale lo stesso? Scrivere un referto non è solo un atto amministrativo, ma anche la presa di responsabilità del medico. La macchina può assumersi le nostre responsabilità?”.

Gabbrielli si dice poi allineato alle considerazioni dell’Oms per quanto riguarda il tema delle informazioni sulla salute generabili con l’intelligenza artificiale e sul rischio di produrre contenuti difficilmente distinguibili, da parte dei non addetti ai lavori, da quelli avvalorati dall’expertise degli specialisti. “Oggi abbiamo un accesso spasmodico a informazioni superspecialistiche attraverso la Rete, che genera aspettative sbagliate rispetto alla salute. Creare testi attraverso algoritmi che pescano nel materiale scientifico, ma che poi non lo contestualizzano in modo ragionato, può creare problemi. Le tecnologie relative all’AI sono assai nuove, ma sono propagandate come tecnologie a disposizione di tutti. Se ciò è comprensibile sotto il profilo del business di chi le realizza, lo stesso non può dirsi in termini di utilità collettiva”.

Diverso il caso in cui queste specifiche applicazioni dell’AI riguardano l’ambito formativo. Chiosa l’esperto dell’Iss: “Potrebbe avere senso nel caso di scenari medico-sanitari già studiati dall’uomo e si voglia realizzare un’esperienza formativa. La potenza di calcolo degli algoritmi può identificare tante situazioni diverse a cui il sistema reagisce in base alle scelte del discente. Ma per arrivare a questo stadio credo occorra ancora molto lavoro per addestrare le macchine. Naturalmente ciò non vale per la pratica clinica o per la ricerca scientifica. Perché, nonostante in futuro evoluzioni dell’ia potrebbero essere nuove opportunità, attualmente essa ancora non incontra la realtà operativa nelle scienze mediche”.

Considerazioni, quelle di Gabbrielli, che in sostanza si ritrovano anche nelle raccomandazioni dell’Oms, che “ribadisce l’importanza di applicare i principi etici e una governance appropriata, nelle fasi di progettazione sviluppo e utilizzo dell’ia nella salute. Seguendo sei principi di base: proteggere l’autonomia; promuovere il benessere umano, la sicurezza umana e l’interesse pubblico; garantire trasparenza e intelligibilità; promuovere l’onere e la responsabilità; garantire inclusività ed equità; promuovere un’ia reattiva e sostenibile”.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.