GILEAD

Deepfake: i furti d’identità e i video alterati non risparmiano i medici

deepfake Ai
Gilead

È iniziata con personaggi celebri come il Papa (ricordate l’iconica foto di Francesco col piumino bianco?) e Taylor Swift. E in alcuni casi ha provocato piccoli terremoti politici (pensiamo al falso arresto di Donald Trump o a Emmanuel Macron che assiste agli scontri fra polizia e manifestanti a Parigi). Come un virus, l’epidemia dei deepfake è esplosa, togliendo il sonno anche ai nostri ‘camici bianchi’. Nell’era dell’intelligenza artificiale, infatti, sempre più medici si ritrovano, loro malgrado, protagonisti di video-truffe online. Spezzoni di interviste rilasciate in tv vengono modificati con programmi ad hoc e trasformati, appunto, in ‘deepfake’. Mini-video in cui si rubano immagine e voce del protagonista e gli si mettono – letteralmente – in bocca parole mai dette si trovano ormai ovunque sui social. Il tutto non per gioco, ma allo scopo di pubblicizzare integratori, creme, diete o prodotti sedicenti ‘miracolosi’.

“Un fenomeno inquietante e che ci preoccupa”, sottolinea Filippo Anelli, presidente della Fnomceo, la Federazione nazionale degli Ordini dei Medici Chirurghi e Odontoiatri. “Si tratta di un tema molto sentito da noi medici ma anche dai cittadini. Nel momento in cui si creano false notizie sui colleghi, vedrete che queste tendono a diventare virali. Pensiamo solo al video manipolato per dimostrare che i medici ballavano mentre intubavano pazienti Covid”. A fare chiarezza, in questo caso, è stata la stessa Azienda ospedaliero-universitaria Baggiovara di Modena. Forse ne avrete sentito parlare: un flashmob risalente al maggio 2020 per festeggiare la prima chiusura del reparto Covid è stato diffuso sul web con in sovraimpressione una scritta per far credere che quel momento risalisse a quando si viveva la fase drammatica delle terapie intensive piene di pazienti Covid intubati. In questo caso l’obiettivo, evidentemente, non era vendere qualcosa ma screditare una categoria.

“Questi video non fanno bene alla professione, che ha come obiettivo principale dare sollievo alla sofferenza”, aggiunge Anelli. “Poi ci sono i casi degli specialisti la cui immagine viene utilizzata per pubblicizzare prodotti svariati. Un risvolto preoccupante, correlato spesso con l’AI: oggi questi strumenti potentissimi sono in grado di far dire a una persona cose mai dette. Questo comporta non solo un reato come la manipolazione, ma apre a rischi per la salute pubblica: pensiamo al risvolto economico-commerciale, alla truffa. Abbiamo bisogno di una tutela sul piano normativo. Perché la sensazione è che questo fenomeno, che non riguarda solo i medici, nel prossimo futuro dilagherà. Insomma, siamo solo all’inizio”.

Fra le vittime in camice bianco si contano già nomi celebri, come quello di Matteo Bassetti. Il direttore di Malattie infettive al Policlinico San Martino di Genova è intervenuto più volte per denunciare i falsi. Fra gli altri, in un video contraffatto l’infettivologo pubblicizzava un integratore contro il diabete, ma si è ritrovato involontario sponsor anche di un anti-artrosi. Recentemente la Fnomceo ha segnalato il caso di un altro iscritto che, oltre a sporgere denuncia, ha voluto mettere in guardia i colleghi e i cittadini.

Cosa sono i deepfake?

Facciamo un passo indietro. Ricordate la foto di Donald Trump in preghiera con sei dita in una mano? “I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali (immagini e registrazioni), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce”, spiega il Garante per la protezione dei dati personali, che ha stilato una scheda per sensibilizzare sui rischi connessi agli usi malevoli di questa nuova tecnologia. Rischi sempre più frequenti anche a causa della diffusione di app e software che rendono possibile realizzare deepfake a partire da un comune smartphone.

Il fatto è che i deepfake vengono utilizzati, attraverso il furto dell’identità, per vere e proprie truffe. Se sono usati per pubblicizzare prodotti che vantano effetti salutistici o addirittura terapeutici, possono spingere qualcuno ad abbandonare i farmaci ‘veri’, diventando un pericolo per la salute pubblica. Una truffa, ma anche una “forma di violenza devastante ai danni del medico, che si vede rubare l’identità, la reputazione, l’onore”, continua Anelli, preoccupato anche per il cittadino ingannato: “Questi video, infatti, fanno leva sulla fiducia riposta nel professionista. I medici che si rivolgono a noi dopo esserne stati vittima riferiscono di sentirsi violati, feriti nella loro identità di persone e di professionisti. Insieme alla preoccupazione per i loro pazienti e per i cittadini”. Che, credendo nell’autorevolezza dello specialista, cadono nel tranello. “L’ultimo medico – ricorda Anelli – ha scoperto di essere rimasto vittima di questa rete proprio perché alcune persone si sono rivolte a lui mostrando le ricevute di acquisto dell’integratore e chiedendo se potessero interrompere le terapie”.

Come tutelarsi?

Come sospettare un deepfake? A un occhio non allenato alcune anomalie possono sfuggire. “Per i cittadini l’invito è quello di fare attenzione alla fonte: ovvero all’attendibilità del sito. Insomma, è bene verificare sempre le informazioni trovate in rete e non fidarsi di chi propone soluzioni miracolose e prodotti che promettono di sostituire le terapie”, raccomanda Anelli. “Una sfida anche per i giornalisti, che devono mettere in guarda i loro lettori”.

L’effetto boomerang

Distinguere il falso dal vero sta diventando un problema anche per i social, come dimostra la recente vicenda di Meta. L’Oversight Board, il comitato di controllo indipendente che si esprime sulle controversie delle piattaforme del gruppo di Mark Zuckerberg, si è fatto carico di due casi con immagini di nudi di figure pubbliche generati con l’AI, senza però nominare esplicitamente queste persone. Un caso riguarda un post su Instagram che mostra un’immagine generata dall’intelligenza artificiale di una donna indiana: Meta ha rimosso il post dopo che l’utente ha presentato ricorso al Board. Il secondo riguarda un post su Facebook – in un gruppo dedicato all’arte e alle nuove tecnologie – e mostrava “un’immagine generata dall’AI di una donna nuda” somigliante a “un personaggio pubblico americano” il cui nome figurava anche nella didascalia. Il post è stato rimosso automaticamente, ma l’utente ha comunque chiesto l’intervento del comitato di controllo.

Due casi paradigmatici, come ha spiegato la co-presidente del comitato di sorveglianza Helle Thorning-Schmidt: “Vogliamo verificare se Meta sta proteggendo tutti a livello globale in modo equo”. Nel frattempo Meta prevede di segnalare i contenuti generati dall’intelligenza artificiale con etichette ‘ad hoc’ a partire da maggio. Insomma, il problema esiste. Ma riuscire a filtrare i deepfake sembra un’impresa titanica.

I consigli per i medici

Bisogna dire che le ‘bufale’ a tema medico hanno una storia antica. “Nel 2018 abbiamo avviato un’attività mirata contro le fake news, dando vita a Dottoremaeveroche.it, un sito che contiamo di potenziare e aggiornare rispetto alle attuali tecnologie. Inoltre c’è un dialogo con il Governo per sostenere la certificabilità di prodotti legati all’intelligenza artificiale, che devono essere ben individuabili. Insomma, servono regole più precise: e questo non solo in Italia ma anche in Europa. Dal punto di vista dell’Esecutivo c’è attenzione e siamo fiduciosi sul fronte di un intervento, almeno sul piano normativo”.

Nell’attesa, “il consiglio ai colleghi è quello di vigilare sugli usi impropri del loro nome e della loro immagine e, nel momento in cui si imbattono i situazioni di questo tipo, di denunciare subito ogni abuso. Invitiamo inoltre i cittadini a non fidarsi di quello che trovano in rete, ma verificare sempre l’attendibilità delle informazioni”, sottolinea Anelli. “Purtroppo, non siamo in grado di filtrare o monitorare tutta l’informazione mondiale”. Insomma, nell’era dell’AI affidarsi al ‘Dottor Google’ sembra essere diventato ancor più pericoloso.

Intelligenza artificiale in camice bianco

L’AI finirà per sostituire i medici? I risultati delle ultime ricerche e la lettura del presidente Fnomceo

In questi mesi l’AI è stata messa alla prova più volte in medicina. Se gli algoritmi in alcuni casi hanno battuto il dottore in carne e ossa, più spesso hanno fallito. È il caso descritto in un lavoro pubblicato su ‘Jama Pediatrics’ da Joseph Barile e Alex Margolis del Cohen Children’s Medical Center di New York. ChatGpt-4 non è ancora pronto per le diagnosi pediatriche: il suo tasso di precisione, infatti, è risultato di appena il 17% nel caso delle malattie dei bambini. A promuovere gli oncologi ‘veri’ sono stati invece i ricercatori tedeschi della Charité – Universitätsmedizin Berlin e dell’Humboldt-Universität zu Berlin, autori di un interessante lavoro su ’Jama Network Open’. In effetti questo studio non chiude affatto all’utilizzo di ChatGpt, ma fissa dei paletti ben precisi, almeno in oncologia. “I modelli di AI generativa sono stati in grado di identificare in linea di principio opzioni di trattamento personalizzate, ma non sono arrivati nemmeno vicino alle capacità degli esperti umani”, sintetizzano gli studiosi.

Di segno opposto le conclusioni di uno studio che ha messo alla prova ChatGpt-4 e oculisti in diverse fasi della carriera. Come si legge su ‘Plos Digital Health’, l’intelligenza artificiale ha superato i giovani medici non ancora specializzati, totalizzando performance simili a quelle degli oculisti tirocinanti (ma non di quelli esperti). Come sottolinea il presidente dei medici italiani Filippo Anelli, “l’AI si basa su algoritmi, dati e ipotesi statistiche, mentre il medico fa un ragionamento diverso: comprende la malattia, ma anche il disagio e le reazioni del paziente. Insomma, il rapporto peculiare tra professionista e cittadino è insostituibile. L’intelligenza artificiale è uno strumento che potenzierà le capacità del medico, dotandolo di informazioni che lo renderanno ancora più efficiente, ma in realtà è il rapporto tra medico e paziente la chiave del percorso di cura. Un momento insostituibile, non basato su dati e statistiche ma sull’empatia, la capacità di ascolto e di comunicazione fra due esseri umani”.

 

Leggi anche

Ultima ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.