fbpx

Falsificare le impronte? Si può, con l’intelligenza artificiale

Condividi su facebook
Condividi su google
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp

di Jonathan Vanian – Con l’intelligenza artificiale si possono creare impronte digitali false e ingannare gli scanner di impronte degli smartphone: questo vuol dire che un hacker potrebbe sfruttare questa vulnerabilità per rubare dai conti bancari online delle vittime.

Un recente studio dei ricercatori della New York University e della Michigan State University ha descritto in dettaglio come le tecnologie di deep learning potrebbero essere utilizzate per indebolire i sistemi di sicurezza biometrici. La ricerca, sostenuta da una sovvenzione della National Science Foundation degli Stati Uniti, ha vinto il premio come miglior studio in una conferenza sulla biometria e la sicurezza informatica in ottobre.

I produttori di smartphone come Apple e Samsung utilizzano in genere la tecnologia biometrica nei loro telefoni in modo che le persone possano utilizzare le impronte digitali per sbloccare facilmente i propri dispositivi, invece di inserire una password. Sperando di aggiungere un po’ di questa comodità, le grandi banche come Wells Fargo stanno, sempre più spesso, permettendo ai clienti di accedere ai loro conti correnti usando le loro impronte.

Ma mentre gli scanner di impronte digitali possono essere convenienti, i ricercatori hanno scoperto che il software che esegue questi sistemi può essere ingannato. La scoperta è importante perché sottolinea come i criminali possano potenzialmente utilizzare le tecnologie IA più all’avanguardia per aggirare la cybersecurity convenzionale.

L’ultimo articolo sul problema si basa su ricerche precedenti pubblicate lo scorso anno da alcuni degli stessi ricercatori di NYU e Michigan State. Gli autori di quel documento hanno scoperto che potevano imbrogliare alcuni sistemi di sicurezza delle impronte digitali utilizzando sia immagini digitalmente modificate che immagini parziali di impronte reali. Questi cosiddetti MasterPrint potrebbero ingannare i sistemi di sicurezza biometrici che si basano solo sulla verifica di alcune parti di impronte digitali piuttosto che sull’intera immagine.

Il paradosso è che i ricercatori umani che hanno analizzato le MasterPrint potevano immediatamente riconoscere che si trattava di falsi, perché contenevano solo impronte digitali parziali. Il software, si è scoperto, non poteva farlo.

Nel nuovo documento, i ricercatori hanno utilizzato le reti neurali – il software di base per il data training – per creare impronte digitali dall’aspetto convincente, che si sono comportate anche meglio delle immagini utilizzate nello studio precedente. Non solo le impronte digitali finte sembravano reali, ma contenevano proprietà nascoste non rilevabili dall’occhio umano che potevano confondere alcuni scanner di impronte digitali.

Sulla sinistra impronte digitali reali, sulla destra quelle create artificialmente.

 

Julian Togelius, uno degli autori del documento e professore di informatica presso la NYU, ha detto che il team ha creato le impronte digitali false, soprannominate DeepMasterPrints, usando una variante della tecnologia di rete neurale chiamata “generative adversarial networks (GANs)”, che ha detto “ha sconvolto il mondo dell’IA negli ultimi due anni”.

I ricercatori hanno utilizzato i GAN per creare foto e video dall’aspetto convincente, noti come “deep fakes”, che alcuni legislatori temono potrebbero essere utilizzati per creare video falsi e materiale di propaganda che il pubblico generale potrebbe ritenere veri. Ad esempio, diversi ricercatori hanno descritto come si possono usare le tecniche di intelligenza artificiale, tra le altre cose, per creare video fabbricati dall’ex presidente Barack Obama,mentre tiene discorsi che non hanno mai avuto luogo.

Le foto alterate da IA stanno ingannando anche i computer, come i ricercatori del MIT hanno mostrato l’anno scorso quando hanno creato un’immagine di una tartaruga che ha confuso il software di riconoscimento delle immagini di Google. La tecnologia scambiava la tartaruga per un fucile perché identificava elementi nascosti incorporati nell’immagine che condividevano certe proprietà con l’immagine di un fucile, tutti elementi che non erano percepibili dall’occhio umano.

Con i GAN, i ricercatori usano tipicamente una combinazione di due reti neurali che lavorano insieme per creare immagini realistiche, con all’interno proprietà che possono ingannare il software di riconoscimento delle immagini. Utilizzando migliaia di immagini di impronte digitali disponibili al pubblico, i ricercatori hanno addestrato una rete neurale a riconoscere le immagini reali delle impronte digitali, e addestrato l’altra a creare le proprie impronte digitali false.

Hanno quindi quindi dato le immagini fittizie della seconda rete neurale alla prima rete, per verificare quanto fossero efficaci, ha spiegato Philip Bontrager, un candidato al dottorato di ricerca della New York University in informatica che ha lavorato anche sul documento. Nel corso del tempo, la seconda rete neurale ha imparato a generare immagini di impronte digitali dall’aspetto realistico che potessero ingannare l’altra rete neurale.

I ricercatori hanno quindi dato le immagini fittizie a software di scansione delle impronte digitali venduti da aziende tecnologiche come Innovatrics e Neurotechnology, per vedere se potevano essere ingannati. Ogni volta che un’immagine fittizia delle impronte digitali ingannava uno dei sistemi commerciali, i ricercatori erano in grado di migliorare la loro tecnologia per produrre falsi più convincenti.

La rete neurale responsabile della creazione delle immagini fasulle incorpora un insieme casuale di codice computer che Bontrager ha definito “noisy data”, “dati rumorosi” che possono ingannare il software di riconoscimento delle immagini delle impronte digitali. Sebbene i ricercatori siano stati in grado di calibrare questi “dati rumorosi” per far scattare il software delle impronte digitali usando quello che è noto come “algoritmo evolutivo”, non è chiaro che cosa questo codice faccia all’immagine, dal momento che gli esseri umani non sono in grado di vederne l’impatto.

I criminali devono affrontare una serie di ostacoli per sconfiggere gli scanner delle impronte digitali. Ad esempio, molti sistemi di impronte digitali si basano su altri controlli di sicurezza come i sensori di calore utilizzati per rilevare le dita umane, ha spiegato Bontrager.

Ma questi DeepMasterPrint di recente sviluppo mostrano che la sicurezza informatica, le banche, i produttori di smartphone e altre aziende che usano la tecnologia biometrica devono migliorare costantemente i loro sistemi per tenere il passo con i rapidi progressi dell’IA.

Togelius ha detto che prima del documento, i ricercatori non consideravano la possibilità che le immagini false create dall’IA fossero una “seria minaccia ai sistemi biometrici”. Dopo la sua pubblicazione, ha detto che “grandi aziende” non specificate lo stanno contattando per sapere di più sulle possibili minacce alla sicurezza date da impronte digitali false.

Il dottor Justas Kranauskas, un direttore di ricerca e sviluppo per Neurotechnology, il produttore di software per sensori di impronte digitali, ha detto a Fortune (edizione americana, ndr) in una e-mail che il recente documento di ricerca su come ingannare i lettori di impronte digitali “ha toccato” un punto importante. Ma ha sottolineato che la sua azienda utilizza altri tipi di sicurezza che i ricercatori non hanno incorporato nel loro studio che, come dice lui, garantirebbe un “bassissimo rischio di accettazione di falsi, in situazioni reali”.

Kranauskas ha anche affermato che la Neurotechnology raccomanda ai propri clienti aziendali di impostare il proprio software di scansione delle impronte digitali a un livello di sicurezza più elevato rispetto ai livelli utilizzati dai ricercatori nel loro articolo.

Bontrager, il ricercatore, ha notato tuttavia che più alto è il livello di sicurezza delle impronte digitali, meno comodità c’è per gli utenti, perché le aziende in genere desiderano una certa flessibilità del sistema, in modo che i clienti non debbano premere ripetutamente le dita sugli scanner per ottenere letture accurate.

“Quindi, ovviamente, se si sceglie un’impostazione di massima sicurezza, gli attacchi ‘spoofing’ (attraverso falsificazione di identità, ndr) hanno meno successo”, ha affermato Bontrager. “Ma poi è meno conveniente”, ha aggiunto.

Leggi anche