NF24
Cerca
Close this search box.

Il ‘test della matita’ e altri trucchi per capire se stai parlando con un deepfake

La prossima volta che parteciperete a una chiamata Zoom, potreste voler chiedere alla persona con cui state parlando di toccarsi il lato del naso. O di girarsi di profilo per un attimo. Questi sono solo alcuni dei metodi che gli esperti consigliano per garantire che l’immagine che state vedendo sia veramente la persona con cui state parlando, e non un’imitazione creata con la tecnologia deepfake.

Sembra una strana precauzione, ma d’altronde viviamo in tempi strani.

Lo scorso mese, un alto dirigente dell’exchange di criptovalute Binance ha affermato che i truffatori avevano usato un suo sofisticato “ologramma” deepfake per truffare diversi progetti crypto. Patrick Hillmann, il capo delle comunicazioni di Binance, afferma che i criminali hanno usato il deepfake per imitarlo durante le chiamate Zoom. Hillmann non ha fornito prove a sostegno della sua affermazione e alcuni esperti sono scettici sul fatto che sia stato utilizzato un deepfake. Tuttavia, gli esperti dicono che tali incidenti sono ora plausibili.

A luglio, l’FBI ha avvertito che le persone potrebbero usare il deepfake nei colloqui di lavoro condotti tramite software di videoconferenza. Un mese prima, diversi sindaci europei hanno affermato di essere stati inizialmente ingannati da una videochiamata in cui un deepfake si spacciava per il presidente ucraino Volodomyr Zelensky. Nel frattempo, una startup chiamata Metaphysic, che sviluppa software deepfake, è arrivata alla finale di “America’s Got Talent” creando deepfake di notevole qualità di Simon Cowell e degli altri giudici famosi, trasformando altri cantanti in celebrità in tempo reale, proprio sotto gli occhi del pubblico.

I deepfake sono immagini e video falsi estremamente convincenti creati attraverso l’uso dell’intelligenza artificiale. Una volta erano necessarie molte immagini di qualcuno, molto tempo, e un discreto grado sia di abilità di programmazione che di conoscenza degli effetti speciali per creare un deepfake credibile. E anche una volta creato, il modello AI non poteva essere eseguito abbastanza velocemente da produrre un deepfake in tempo reale su una trasmissione video dal vivo.

Non è più così, come evidenziano sia la storia di Binance sia lo show di Metaphysics ad “America’s Got Talent”. In effetti, sta diventando sempre più facile per le persone utilizzare il software deepfake per assumere l’identità altrui durante video in diretta. Il software che consente a qualcuno di farlo è disponibile, gratuito e richiede competenze tecniche relativamente ridotte per essere utilizzato. E come mostra anche la storia di Binance, questo apre la possibilità a qualsiasi tipo di frode­ e disinformazione politica.

“Sono sorpreso dalla velocità con cui i deepfake sono arrivati al ‘live’, e dalla loro qualità”, afferma Hany Farid, uno scienziato informatico dell’Università della California a Berkeley, esperto di analisi e autenticazione video. Dice che ci sono almeno tre diversi programmi open source che consentono alle persone di creare deepfake da trasmettere live.

Farid è tra coloro che temono che i deepfake possano far aumentare le frodi. “Sarà come una truffa di phishing sotto steroidi”, dice.

 

Il “test della matita” per beccare i deepfake

Fortunatamente, gli esperti affermano che ci sono ancora un certo numero di tecniche che una persona può usare per assicurarsi di non avere a che fare con un’imitazione deepfake. Uno dei metodi più affidabili è semplicemente chiedere a una persona di girarsi in modo che la telecamera la riprenda di profilo completo. I deepfake mal sopportano i profili per una serie di motivi. Per la maggior parte delle persone, non ci sono abbastanza immagini di profilo disponibili per addestrare un modello deepfake a riprodurre in modo affidabile l’immagine. Sebbene sia possibile utilizzare un software informatico per stimare una vista di profilo da un’immagine frontale, l’utilizzo di questo software aggiunge complessità al processo di creazione del deepfake.

Il software Deepfake utilizza anche ‘punti di ancoraggio’ sul viso di una persona per posizionare correttamente la ‘maschera’ deepfake su di esso. La rotazione di 90 gradi elimina la metà dei punti di ancoraggio, il che spesso provoca la deformazione, la sfocatura o la distorsione dell’immagine di profilo da parte del software.

Yisroel Mirsky, un ricercatore che dirige l’Offensive AI Lab presso l’Università israeliana Ben-Gurion, ha sperimentato una serie di metodi per rilevare i deepfake. Metodi che ha paragonato al sistema CAPTCHA utilizzato da molti siti web per rilevare i software bot (come quando vi chiedono di individuare tutte le immagini dei semafori in una foto suddivisa in quadrati).

Le sue tecniche: chiedere alle persone durante una videochiamata di raccogliere un oggetto a caso e spostarlo davanti al viso, far rimbalzare un oggetto, piegare la maglietta, accarezzarsi i capelli o nascondere parte del viso con la mano. Il deepfake non riuscirà a raffigurare l’oggetto che viene passato davanti al viso, oppure ci saranno distorsioni all’immagine del viso.

Per i deepfake audio, Mirsky suggerisce di chiedere alla persona di fischiare, o di provare a parlare con un accento insolito, o di canticchiare o cantare una melodia scelta a caso.

“Tutte le tecnologie deepfake che esistono oggi seguono un protocollo molto simile”, afferma Mirsky. “Sono addestrate su moltissimi dati e quei dati devono avere uno schema particolare che serve a istruire il modello”. La maggior parte dei software di intelligenza artificiale viene istruita per imitare in modo affidabile il volto di una persona visto di fronte e non è in grado di gestire bene gli angoli obliqui o gli oggetti che nascondono il volto.

Nel frattempo, Farid ha dimostrato che un altro modo per rilevare possibili deepfake è utilizzare un semplice software che fa sì che lo schermo del computer dell’altra persona abbia determinate interferenze o che venga proiettato un sergnale luminoso sul volto della persona che utilizza il computer. O il deepfake non riuscirà a trasferire l’effetto luminoso alla sua imitazione, o sarà troppo lento nel farlo. Una verifica simile si può anche fare chiedendo a qualcuno di utilizzare un’altra fonte di luce, come la torcia dello smartphone, per illuminare il proprio viso da un’angolazione diversa.

Per imitare realisticamente qualcuno che fa qualcosa di insolito, Mirsky afferma che il software di intelligenza artificiale deve aver visto migliaia di esempi di persone che fanno quella cosa. Ma raccogliere un set di dati del genere è difficile. E anche se si potesse addestrare l’AI a imitare in modo affidabile qualcuno che sta svolgendo uno di questi compiti impegnativi – come prendere una matita e passarla davanti al viso – è probabile che il deepfake fallisca se si chiede alla persona di usare un tipo di oggetto molto diverso, come una tazza. Ed è improbabile che chi utilizza deepfake siano stato in grado di addestrarli per superare più di una sfida, come il test della matita e il test del profilo. Ogni compito diverso, afferma Mirsky, aumenta la complessità della ‘formazione’ richiesta dall’AI. “Sei limitato negli aspetti che desideri che il software deepfake perfezioni”, afferma.

I deepfake stanno migliorando continuamente

Per ora, pochi esperti di sicurezza suggeriscono di utilizzare trucchi simili per ogni riunione Zoom. Ma Mirsky e Farid hanno entrambi affermato che sarebbe saggio usarli in situazioni ad alto rischio, come una chiamata tra leader politici o un incontro che potrebbe comportare una transazione finanziaria di alto valore. E sia Farid che Mirsky hanno esortato le persone a stare in guardia anche nel caso di chiamate audio da numeri sconosciuti o persone che si comportano in modo strano o fanno richieste insolite (il presidente Biden vorrebbe che tu comprassi molte carte regalo Apple? Davvero?).

Farid dice che per le chiamate molto importanti, le persone potrebbero utilizzare una sorta di autenticazione a due fattori, inviando un messaggio di testo alla persona con cui stai parlando, chiedendo se è davvero lei quella in videochiamata.

I ricercatori hanno anche sottolineato che i deepfake stanno migliorando continuamente e che non vi è alcuna garanzia che non diventerà molto più facile per loro eludere qualsiasi sfida – o anche una combinazione di sfide – in futuro.

Questo è anche il motivo per cui molti ricercatori stanno cercando di affrontare il problema dei deepfake dalla prospettiva opposta – creando una sorta di firma digitale o filigrana che dimostrerebbe che una videochiamata è autentica, invece che cercare di scoprire se un’immagine è un deepfake o no.

Un’organizzazione che potrebbe lavorare su un protocollo per la verifica delle videochiamate è la Coalition for Content Provenance and Authentication (C2PA), una fondazione dedicata agli standard di autenticazione dei media digitali sostenuta da aziende come Microsoft, Adobe, Sony, Twitter. “Penso che il C2PA dovrebbe esplorare questa iniziativa perché ha costruito le specifiche per i video registrati, ed estenderle a i video ‘live’ è una cosa naturale”, afferma Farid.

Ma Farid ammette che cercare di autenticare i dati che vengono trasmessi in streaming in tempo reale non è una sfida tecnologica facile. “Non vedo come poterlo fare immediatamente, ma sarà interessante pensarci”, dice.

Nel frattempo, ricordate agli ospiti della vostra prossima riunione Zoom di avere una matita a portata di mano.

L’articolo originale è su Fortune.com

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.