GILEAD
Leadership Heade
Poste Italiane
Cerca
Close this search box.

Deepfake, se lo conosci lo eviti (forse)/VIDEO

Immaginate di trovarvi in una riunione virtuale, come le centinaia che avete fatto dall’arrivo della pandemia in poi. Insieme a voi ci sono i vostri colleghi e soprattutto i vostri capi. Tutti, con la loro solita voce e il loro solito aspetto, vi chiedono di fare la stessa identica cosa: trasferire una cifra da un conto all’altro. Voi che fareste? Forse, cercando di immedesimarsi un po’, si riesce a capire come qualche mese fa un dipendente della sede di Hong Kong di una multinazionale sia stato convinto così a trasferire 200 mln di dollari di Hong Kong (24 mln di euro) sui conti di chi, ha scoperto poi la polizia, lo stava truffando.

Un raggiro che racconta bene come tecniche vecchie (come le mail fraudolente) e nuove (i video creati con la Gen AI e le app di ‘face-swap’) si stiano oramai fondendo. Prima al manager era arrivata l’e-mail di phishing dal finto capo del dipartimento finanziario (nel Regno Unito) dell’azienda per persuaderlo a spostare le somme. Non avendolo convinto, i criminali gli hanno chiesto di entrare in riunione con gli altri colleghi (persone che il manager conosceva) riprodotti in tempo reale grazie all’intelligenza artificiale e a una delle sue applicazioni più famose: i deepfake. Secondo quanto raccontato dalla polizia, l’uomo ha riferito che i cloni erano perfettamente somiglianti alle persone reali sia nell’aspetto, sia nella voce. Risultato: 24 mln di euro persi da parte dell’azienda, rimasta anonima.

I dati dell’invasione

L’ondata dei deepfake sembra inarrestabile, tanto da essere entrata a far parte della nostra normalità. Sui social di ognuno di noi ormai sono frequenti i video in cui celebrità pubblicizzano prodotti miracolosi (vedi approfondimento a pagina 126). Creare video falsi in questi casi è diventato sempre più facile, soprattutto se ci sono a disposizione video originali (come un’intervista in televisione) dei quali basta modificare il movimento delle labbra (‘lip-sync’) e generare artificialmente l’audio. L’ultimo Identity Fraud Report 2024 di Onfido (società che si occupa di autenticazione e verifica di identità digitali) ha evidenziato a livello mondiale un incremento pari a 31 volte delle frodi deepfake dal 2022 al 2023. Lo stesso Governo italiano dedica alcune misure ai contenuti falsi nel suo ddl sull’AI in cui si prevede proprio l’apposizione di ‘bollini’ anti-deepfake sui contenuti multimediali.

Una soluzione probabilmente parziale (diversi studi hanno dimostrato la facilità con cui bypassare i watermark su testi e immagini artificiali) ma che perlomeno permetterebbe di “arginare il flusso”, dice Marco Camisani Calzolari, professore e divulgatore (è inviato per Striscia la Notizia) che fa parte della commissione di esperti di Palazzo Chigi sul cui lavoro è stata basata la strategia italiana e il ddl. “Non si può non fare qualcosa del genere, perché è un modo per ostacolare la diffusione massiva” di contenuti falsi. Non è un concetto secondario: l’invasione è iniziata da tempo ed è impossibile da fermare del tutto. Conoscerne le caratteristiche è diventata una priorità per difendere i cittadini, ma anche le democrazie a cui appartengono, dice l’esperto.

Conosci il tuo nemico (virtuale)

“In realtà dobbiamo parlare sia di consapevolezza, sia di conoscenza”, spiega Marco Camisani Calzolari. “La consapevolezza significa aver ben presente cosa si può fare con queste tecnologie, sapere che oggi è possibile sostituire una persona, cambiare la sua voce. La conoscenza, invece, è essere al corrente di quello che succede, le truffe che circolano di più”.

Un esempio calzante di cosa succede oggi è una fake news di 128 anni fa: non è vero che quando i fratelli Lumière proiettarono un treno nelle prime sale cinematografiche il pubblicò scappò spaventato. È probabile però che all’epoca l’effetto sia stato alquanto impressionante.

“Oggi quell’effetto ci farebbe sorridere, semplicemente perché siamo abituati”, dice Camisani Calzolari. La stessa cosa “sta succedendo con l’AI: ci siamo abituati ad alcuni stili di deepfake, quelli più diffusi”. Per questo è importante condividere e segnalare il più possibile: far capire ad esempio che “nei deepfake le immagini dei volti di profilo si utilizzano meno. Così si potrà riconoscere contenuti fake senza avere una conoscenza specifica o aver fatto studi in materia: diventa percezione comune. Intanto i contenuti diventano sempre più raffinati. Tra un po’ anche il profilo del viso non rappresenterà un problema per l’AI, così come altre incongruenze: oggi, se chiedi di crearti una foto di una cucina a gas, è possibile che l’intelligenza artificiale ne crei una con quattro fornelli ma solo tre manopole, perché non pensa ancora in maniera logica”. Ma i sistemi sono sempre più avanzati. “Dal punto di vista della voce ormai siamo alla perfezione”, ricorda Camisani Calzolari. Un esempio? Il primo campanello d’allarme sull’impatto dei deepfake sui tanti appuntamenti elettorali del 2024 è arrivato a inizio anno: la registrazione di una telefonata artificiale con protagonista la voce del presidente Usa Joe Biden, circolata prima delle primarie nel New Hampshire, definito “interferenza elettorale” dagli osservatori. D’altronde la telefonata sembrava autentica: iniziava con una delle frasi più usate da Biden, “che mucchio di sciocchezze”, e continuava con il consiglio del falso presidente di non votare alle primarie democratiche; paradossalmente, per non fare un “favore” a Trump.

Un codice in famiglia

“Oggi le voci deepfake sono di alta qualità, si possono addirittura far cantare: è praticamente impossibile distinguere la voce vera da quella falsa. E ci sono delle tecnologie per simulare altre voci in tempo reale, anche se ancora rudimentali e poco diffuse”. Oltre agli esempi più inquietanti, come quello di Biden, “le voci false registrate vengono utilizzate anche per le semplici truffe. Io suggerisco alle famiglie di creare un codice per evitare di fare troppe domande” tutte le volte che si è al telefono con un parente, dice Camisani Calzolari. “Qualcosa di semplice, come ‘Quando eri piccolo qual era il tuo cappellino preferito?’”. Ma anche in questo caso bisogna fare attenzione, perché ormai molto spesso le nostre informazioni sono sparse in rete. “Chissà quanti di noi hanno almeno vent’anni di video caricati online nel cloud che possono essere rubati a chi li gestisce”, dice l’esperto. Video che poi vengono fatti analizzare proprio all’intelligenza artificiale, in automatico, per estrarre informazioni da “inserire in un profilo completo sulla nostra vita”.

I furti di identità e lo scontro tra AI

Le truffe – tramite contenuti falsi e deepfake – “sono sempre più articolate, sempre più dettagliate”, dice Camisani Calzolari, che sul suo blog raccoglie le segnalazioni di raggiri “dove il truffatore sa già tantissime cose della sua vittima” prima ancora di farsi vivo. “Con poche migliaia di euro si possono mettere insieme database che monitorano la vita di una persona e intervenire al momento giusto. Pensiamo al famoso raggiro dell’iban”, in cui il truffatore si interpone nelle comunicazioni tra due persone che devono inviarsi denaro, magari un fornitore e un cliente, trasmettendo al secondo un iban diverso rispetto a quello originale. Una truffa messa in atto grazie a un database con mail e password del cliente – come se ne trovano tanti in rete – e un automatismo che si attiva all’utilizzo delle parole magiche (iban, bonifico, banca) da parte delle vittime. Lo sviluppo delle tecnologie deepfake ha rovinato la festa di chi pensava che appoggiarsi ai sistemi di autenticazione basati su biometria – sui tratti somatici del viso, ad esempio – avrebbe permesso di superare l’era delle password con tranquillità. Non è un caso se, secondo il report di Onfido, il tasso di frodi ‘biometriche’ (nel report vengono conteggiati anche i furti di identità tramite documenti) nel 2023 è raddoppiato rispetto al 2022. La biometria rimane una delle misure di sicurezza più efficaci quando si parla di autenticazione, ma oggi viene a sua volta potenziata dall’AI per riconoscere i contenuti falsi.

Nel caso delle tecnologie deepfake il club dei truffatori in grado di utilizzarle non è molto ampio, ma poco importa. Sempre secondo il report, un singolo truffatore può fabbricare centinaia di identità deepfake per eludere le misure di sicurezza e impersonare altre persone. È successo ad Hong Kong, ma succede con regolarità anche in Italia: da noi, secondo il report, i truffatori prendono di mira i controlli biometrici basati sui selfie, usando come base una foto di un volto su uno schermo (succede così nel 60% dei casi, un dato superiore alla media globale), come un’immagine del profilo social. Un’altra tattica sperimentata è quella di scattare una “foto della foto” sul documento e cercare di farla passare per un dato biometrico, invece che un volto reale (10%).

Attenzione alle condivisioni

In generale, considerata la quantità di informazioni false che circolano su Internet, il consiglio più importante è quello di fare attenzione a cosa si condivide, per non fare un favore a chi quelle informazioni (immagini, testi, video) le ha create. “Non dico che dobbiamo tutti diventare investigatori, ma almeno dobbiamo fare attenzione a cosa condividiamo. Così spesso si fa il danno più grosso. Quello che ci sembra vero, che conferma le nostre convinzioni, spesso ci viene mandato proprio per quel motivo”.

Nel libro ‘Cyberumanesimo’ (ovvero un nuovo approccio filosofico all’epoca dell’AI), Camisani Calzolari spiega che c’è un rischio, grosso, per le democrazie stesse. Un tema fondamentale nel 2024 considerando elezioni europee e per la presidenza Usa. “Il punto è che oggi è possibile intervenire direttamente nei contenuti di ogni singola persona, sempre grazie all’intelligenza artificiale” e tramite i social. “Non ci rendiamo conto di quanto sia facile creare contenuti in un’altra lingua, per influenzare elezioni in giro per il mondo”. Nell’era in cui i rapporti di forza tra Governi e tecnologia sono sempre più sbilanciati a favore della seconda, il rischio è di diventare cittadini digitali di un mondo senza regole, prima ancora che di democrazie sempre più fragili. Capire se il treno ci sta effettivamente per investire non è mai stato così importante.

La grande onda

Qualche esempio di quanto i video deepfake possano essere pericolosi per aziende, cittadini e intere nazioni.

Un falso da 24 milioni

Il caso di Hong Kong per ora rappresenta l’esempio perfetto di come le tecnologie di video deepfake possano portare a conseguenze disastrose. Secondo le autorità locali per la prima volta i criminali hanno falsificato tutti i partecipanti a una videocall, con una tecnica che di norma viene usata su un singolo volto. Nella riunione gli impostori hanno solo dato ordini, senza interagire con la vittima, se si esclude la richiesta di una breve presentazione a inizio riunione.

La truffa del trading

L’utilizzo più diffuso dei video artificiali è probabilmente quello delle truffe diffuse massivamente online. Tra gli ultimi casi, quello con video deepfake dell’Ad di Eni Claudio Descalzi, in cui si promettevano guadagni immediati grazie al trading di azioni Eni. Una truffa da più di 180 mln di euro, orchestrata da italiani e sventata dalla Polizia postale, che ha oscurato 473 risorse online tra siti e annunci pubblicitari.

Tra guerra ed elezioni

Fra i contenuti ‘politici’ più virali degli scorsi mesi anche le immagini del falso arresto di Donald Trump create dal giornalista Eliot Higgins dell’organizzazione Bellingcat. Ma l’invasione dei falsi non poteva non toccare anche i conflitti del nostro tempo: circolano immagini completamente false, create artificialmente, di bambine terrorizzate, donne ferite aiutate da soldati, esplosioni a Gaza. Finiscono sui siti di foto stock, che in teoria dovrebbero riconoscere le immagini generate artificialmente.

Deepfake pornografici

La creazione di immagini e video pornografici è uno degli usi (malevoli) più diffusi: il caso di quelli che ritraggono Taylor Swift (diventati virali) è solo quello più famoso. In Italia, anche la cantante Rose Villain ha denunciato la diffusione di falsi contenuti pornografici. Secondo un report di Home security heroes, il numero totale di video deepfake online nel 2023 è di 95.820, con un aumento del 550% rispetto al 2019. Di questi, il 98% è pornografico.

Leadership Forum
Paideia

Leggi anche

Ultima ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.