GILEAD

Lo stop and go dell’intelligenza artificiale

intelligenza artificiale medicina
Gilead

Sembra un coup de théatre, ma è pura coincidenza. Da una parte, Elon Musk (per la verità in compagnia di un migliaio di ricercatori ed executive nel campo dell’high tech, tra i quali i cofondatori di Apple, Pinterest e Skype) chiede, in una lettera aperta pubblicata dal Future of Life Institute, di mettere subito in pausa i sistemi di intelligenza artificiale (IA) più avanzati (quelli superiori a ChatGpt-4 ad esempio) per almeno sei mesi, in una sorta di moratoria mondiale spontanea (o addirittura imposta dai governi), concordata e controllabile, per avere tempo di riflettere su cosa stia accadendo e prevenire eventuali problemi.

Dall’altra OpenAi ha sospeso l’accesso al servizio ChatGpt in Italia, dopo lo stop del Garante della privacy al software d’intelligenza artificiale sviluppato dall’organizzazione di ricerca con sede negli Stati Uniti.

Intanto l’ultimo numero del New England Journal of Medicine, oltre a pubblicare due articoli e un editoriale sull’AI in medicina, annuncia che dal 2024 lancerà una nuova rivista, ‘NEJM AI’ interamente dedicata al mondo dell’intelligenza artificiale in campo medico.

Insomma, se da una parte Elon Musk & co. mettono in guardia da questa febbre dell’oro dell’AI, senza freni e senza paracadute, l’editor del NEJM riconosce l’ineludibilità e l’irrinunciabilità dei suoi strumenti nel quotidiano della pratica clinica e lancia una rivista ad hoc per ospitare articoli peer reviewed sull’argomento.

E non certo perché l’AI non possa far danni in campo medico, ma perché la revisione delle ricerche fatte da panel di esperti e grandi saggi può contribuire a calmierare le frange di ricerca più estreme e spregiudicate, filtrando e dando semaforo verde ai contributi di maggior valore, utilità e sicurezza per i pazienti. Insomma, dal NEJM sembrano suggerire che, anziché mettere in pausa la ricerca e il progresso, conviene rivederne alla moviola e sotto la lente di ingrandimento le dinamiche e i possibili esiti.

Ma intanto, l’AI ha fatto un’irruzione silenziosa nella nostra vita; lo scopriamo facendo una ricerca su Google, o guidando una smart car che ci dice, come leggendoci nel pensiero, tra quanti minuti potremo parcheggiare nel garage di casa o in quello della palestra, senza che nessuno gli abbia mai comunicato la destinazione. Tanta roba. Forse troppa, perché gli strumenti di intelligenza artificiale corrono e si evolvono molto più velocemente del nostro cervello e intrudono in maniera tangibile (e a volte inquietante) nel nostro quotidiano. Un fatto questo che ha fatto alzare più di un sopracciglio; prima ai bioeticisti, poi anche ai tech-eticisti.

“Non c’è area della medicina e dell’assistenza sanitaria – ammette Eric Rubin, professore di medicina a Harvard ed editor del NEJM – che non sia già interessata dall’AI”. Dalle applicazioni in grado di trasformare in testo la dettatura di appunti clinici, siamo passati ai chatbot che sintetizzano l’anamnesi raccolta direttamente dal paziente e la integrano con i suoi esami, senza che il medico intervenga.

L’AI sta intervenendo pesantemente anche nelle diatribe tra medici e compagnie assicurative, sa interpretare benissimo (se ben ‘addestrata’) le immagini di una radiografia, di un fondo dell’occhio o di un preparato istologico; è in grado di leggere un elettrocardiogramma e di trovare l’ago nel pagliaio negli immensi database di ricerca. Tutte applicazioni che hanno le potenzialità di aumentare l’efficienza dei medici e dei ricercatori.

“Ma attenzione – ammonisce Rubin – l’AI non è la panacea; i suoi strumenti possono essere addestrati con mille bias che potrebbero finire per svantaggiare e marginalizzare alcuni gruppi di pazienti”. Di certo l’intelligenza artificiale dovrà dunque frequentare ‘buone scuole’ per essere promossa a pieni voti; e questo significa che il machine learning e il deep learning per essere affidabili e realmente trasformativi, dovranno esercitarsi su una base di dati davvero molto ampia e ben organizzata, selezionata dall’uomo.

Altre bucce di banana possono venire dal fatto che gli strumenti sono prodotti da soggetti, commerciali o accademici, con ovvi interessi finanziari ma che essendo loro stessi gli sviluppatori di questi sistemi, dovranno necessariamente essere inclusi tra gli autori delle ricerche che NEJM e altri pubblicheranno sull’argomento. E lì, l’unica difesa contro i bias da ingerenze commerciali, saranno la trasparenza e il rigore più assoluto nella valutazione di queste applicazioni in campo medico.

Non si deve arrivare insomma a buttare via il bambino con l’acqua sporca. Ma di certo bisogna discernere con chiarezza le potenzialità, dalle suggestioni commerciali e dai possibili rischi. In un campo come quello della medicina, dove spesso non viene offerta una seconda possibilità. Se tutte queste condizioni verranno soddisfatte, “l’AI anziché far perdere il lavoro ai medici – concludono Charlotte J. Haug della Stanford University e Jeffrey M. Drazen, professore di medicina a Harvard ed editor del NEJM fino al 2019 – consentirà loro di lavorare meglio, lasciando anche del tempo per le interazioni umane. Che è poi quello che contribuisce a rendere la medicina la professione altamente appagante che tutti apprezziamo”.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.