NF24
Cerca
Close this search box.

Dai porno alle truffe, il mercato dei deepfake sta per esplodere

deepfake

Di Adrian Croft – I video deepfake, che usano l’intelligenza artificiale per sovrapporre il volto di una celebrità sul corpo di una porno star o per far dire o fare a un personaggio pubblico qualcosa di scandaloso, si stanno diffondendo a macchia d’olio online.

La stragrande maggioranza sono falsi evidenti, ma c’è un aumento preoccupante – e persino un business fiorente – nei deepfake che colpiscono le donne. E stanno iniziando a emergere prove di truffatori e altre oscure forze politiche che utilizzano gli strumenti digitali basati sull’intelligenza artificiale in strategie per destabilizzare i governi e frodare le imprese.

Deeptrace, una società di sicurezza informatica con sede ad Amsterdam che sta costruendo strumenti per rilevare i falsi, ha pubblicato una nuova ricerca che cerca di quantificare la crescita del fenomeno dei deepfake. Dice che negli ultimi sette mesi, il numero di video deepfake – un termine che combina la parola ‘falso’ e il deep learning, una branca dell’IA – è quasi raddoppiato a 14.678.

La stragrande maggioranza – il 96% – dei video sospetti trovati è di natura pornografica. Un numero molto più piccolo si rivolge a politici o uomini d’affari famosi come Elon Musk, amministratore delegato di Tesla o Jeff Bezos, CEO di Amazon.


Circa il 2% dei video deepfake trovati su YouTube coinvolge dirigenti aziendali. Mentre la maggior parte si prende gioco di loro, la tendenza dovrebbe allertare i leader aziendali che i video di deepfake in futuro potrebbero costituire un’arma potente per campagne diffamatorie e danni alla reputazione, avvertono i ricercatori.

Le società di sicurezza IT hanno lanciato un tale allarme di recente dopo che sono emerse segnalazioni durante l’estate di esperti che usano l’intelligenza artificiale per imitare la voce – un inganno noto come ‘synthetic voice impersonation’ – del capo di una società in cui ha preso di mira un elaborato stratagemma di ingegneria sociale.

“Ci sono stati diversi casi segnalati in cui l’audio vocale sintetico è stato presumibilmente utilizzato per frodare le aziende. Sebbene non sia stata fornita alcuna prova concreta a sostegno delle affermazioni secondo cui l’audio era sintetico, i casi illustrano come la clonazione vocale sintetica potrebbe essere utilizzata per migliorare le pratiche di frode esistenti contro aziende e privati​”, afferma il rapporto.

Ad agosto, il Wall Street Journal ha riferito sul caso di criminali che utilizzano software basati sull’intelligenza artificiale per impersonare la voce di un amministratore delegato. Una messinscena così convincente che le vittime hanno inconsapevolmente eseguito un trasferimento fraudolento di 243mila dollari, pensando che stesse andando alla casa madre in Germania. È stata la compagnia assicurativa della vittima, il gruppo Euler Hermes, a rendere pubblica la storia nel tentativo di sensibilizzare l’opinione pubblica.

Il numero di tali truffe potrebbe aumentare, temono gli esperti di sicurezza. Nel suo rapporto, Deeptrace ha messo in evidenza una crescente mercificazione di strumenti e servizi per la creazione dei cosiddetti media sintetici, riducendo così la barriera per i non esperti nel realizzare i deepfake. La creazione di deepfake di alta qualità richiede ancora competenze ed esperienza, notano gli esperti. La società ha anche identificato la Cina e la Corea del Sud come due focolai per la creazione di deepfake.

Per ora, la maggior parte dei video deepfake non è abbastanza buona per ingannare la maggior parte delle persone, ma diventeranno più realistici e sofisticati, ha detto a Fortune Henry Ajder, l’autore principale del rapporto di Deeptrace, ‘Lo stato dei Deepfake’.

“I deepfake che davvero deformano la realtà, veramente indistinguibili, non esistono ancora su larga scala, ma stanno arrivando e al momento non siamo preparati ad affrontarli”, afferma Ajder. I legislatori, i ricercatori e gli attivisti per i diritti digitali lamentano il fatto che ci sono più strumenti per creare deepfake di quanti ce ne siano per rilevarli e sorvegliarli.ù

Quindi, cosa si sta facendo per contrastare la diffusione di deepfake dannosi? A giugno, il comitato di intelligence della Camera americana ha convocato un’audizione sulle sfide della sicurezza nazionale dell’intelligenza artificiale, dei media manipolati e dei deepfake.

La rappresentante democratica Yvette Clarke ha introdotto il DEEPFAKES Accountability Act, il primo tentativo del Congresso di criminalizzare i media sintetici usati per ingannare, frodare o destabilizzare il pubblico. I legislatori statali in Virginia, Texas e New York hanno introdotto o emanato la propria legislazione. I senatori degli Stati Uniti Marco Rubio (repubblicano) e Mark Warner (democratico), entrambi membri del Comitato di intelligence del Senato, hanno sollevato preoccupazioni la scorsa settimana sulla crescente minaccia rappresentata dai deepfake. In lettere a 11 società di social media, tra cui Facebook, Twitter e YouTube, Rubio e Warner hanno esortato le piattaforme a sviluppare standard di settore per la condivisione, la rimozione e l’archiviazione di contenuti sintetici il più presto possibile, alla luce delle minacce straniere alle imminenti elezioni statunitensi.

E Facebook ha annunciato il mese scorso che si stava unendo a Microsoft e stanziando 10 mln di dollari in finanziamenti per lanciare la Partnership sull’IA – un gruppo creato dall’industria tecnologica per migliorare la comprensione dell’intelligenza artificiale – oltre al lancio della Deepfake Detection Challenge.

Il ritorno dei Deepnudes

I ricercatori di Deeptrace hanno anche scoperto quello che chiamano un ‘ecosistema consolidato’ di siti Web pornografici di deepfake. “Il fatto che tutti questi siti Web contengano pubblicità e che vi sia stato un chiaro incentivo finanziario o commerciale per la gestione di questi siti Web è anche molto importante da sottolineare perché dimostra che non è un fenomeno passeggero”, ha detto Ajder. Il caso in questione è la storia di Deepnudes, una controversa app per computer che consente agli utenti di ‘spogliare’ le foto di donne vestite, che è stata messa offline dai suoi creatori all’inizio di quest’anno. Il software continua a essere riconfezionato in modo indipendente e distribuito attraverso canali online, dandogli nuova vita, afferma il rapporto.

“Il software probabilmente continuerà a diffondersi e mutare come un virus, rendendo molto difficile contrastare uno strumento così popolare per la creazione di pornografia falsa, non consensuale, facilmente accessibile, con donne comuni come target”, afferma il rapporto.

Molti esperti hanno espresso il timore che si potesse tentare di utilizzare i deepfake video o audio per tentare di influenzare le elezioni presidenziali statunitensi del prossimo anno dopo che l’ultimo voto è stato perseguitato dalle accuse di interferenza russa online.

Un recente articolo del thinktank di Carnegie Endowment for International Peace afferma che “è solo una questione di tempo prima che escano contenuti falsi e compromettenti su un importante candidato presidenziale nel 2020”.

“La chiave sta nei tempi. Immaginiamo: la notte prima delle elezioni, viene pubblicato un deepfake che mostra un candidato che fa osservazioni controverse. Il deepfake potrebbe ribaltare le elezioni e minare la fiducia delle persone nel voto stesso”, afferma l’articolo, citando l’esperta di sicurezza informatica Katherine Charlet e Danielle Citron, vicepresidente della Cyber ​​Civil Rights Initiative.

I video deepfake possono anche rappresentare un rischio aziendale e un mal di testa legale per le aziende dei media che devono evitare di essere ingannate da persone che inviano video che presumibilmente mostrano eventi di cronaca. YouTube ha rimosso alcuni deepfake dal suo servizio dopo che gli utenti li hanno contrassegnati. Ma si teme che un giro di vite troppo pesante possa minare la libertà di parola.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.