NF24
Cerca
Close this search box.

I deepfake aprono un altro rischioso fronte della guerra tra Israele e Hamas

I deepfake hanno svolto un ruolo da protagonisti nella guerra di Gaza, con i video manipolati con la regina Rania di Giordania (al centro a sinistra) e la modella Bella Hadid (in alto a destra), insieme a filmati di battaglia riproposti della guerra in Ucraina (in basso a sinistra) e del videogioco Arma 3 (in basso a destra).

All’alba del 7 ottobre, le sirene antiaeree hanno risuonato in tutta Tel Aviv, facendo precipitare Michael Matias e la sua ragazza fuori dal letto e giù nel rifugio antiaereo del loro condominio. All’interno, i messaggi sui loro telefoni cellulari rivelavano l’orrore che aveva fatto scattare l’allarme: uomini armati di Hamas stavano compiendo massacri di massa contro gli israeliani e catturando centinaia di ostaggi, a meno di un’ora di macchina da dove si erano rannicchiati al sicuro.

Riprendendosi dallo shock, Matias è rimasto colpito dalle implicazioni per la sua startup tecnologica. Alla fine dello scorso anno aveva lanciato Clarity, una società di intelligenza artificiale focalizzata sul rilevamento dei deepfake nelle campagne elettorali; credeva che tale disinformazione fosse una grave minaccia per le democrazie. Ma con circa 1.200 israeliani morti il 7 ottobre e il paese in guerra, quella missione ora avrebbe dovuto aspettare. Organizzò la mattina stessa una riunione di emergenza con il team di Clarity, per attivare un piano d’azione. “Ci siamo detti: ‘La nostra tecnologia sarà molto significativa’”, afferma Matias, Ceo di Clarity.

Nel caos seguito ai massacri – i più drammatici nei 75 anni di esistenza del paese – Israele ha bloccato le forniture di acqua, cibo ed elettricità a Gaza e sganciato migliaia di bombe su quelli che sosteneva fossero obiettivi di Hamas nell’enclave costiera che ospita 2 milioni di palestinesi. Mentre la crisi umanitaria si trasformava in una vera e propria catastrofe con più di 10.000 palestinesi uccisi, compresi civili, in un mese, immagini macabre inondavano gli schermi di tv e smartphone, scatenando spasmi di rabbia e proteste in tutto il mondo. Questa è una guerra combattuta non solo con le munizioni, ma anche con le informazioni, sia vere che false. E insieme all’indignazione di entrambe le parti in guerra, alcuni hanno sollevato dubbi sul fatto che le scene raccapriccianti fossero reali o se piuttosto le immagini fossero cosiddetti deepfake creati con l’aiuto dell’intelligenza artificiale.

In effetti, i falsi generati dall’intelligenza artificiale sono diventati sempre più difficili da discernere man mano che la tecnologia è migliorata. Ciò ha costretto startup come Clarity a giocare a “gatto e topo”, afferma Matias.

La domanda è: alla fine vincerà il gatto o il topo? Alcuni temono che l’agilità della tecnologia generativa consentirà a utenti malintenzionati di superare in astuzia le aziende tecnologiche e i governi, molto meno agili, che tentano di tenerli a freno. “Questo sta succedendo in modo incredibilmente veloce”, afferma Henry Ajder,  consulente per il governo britannico sulle tecnologie di intelligenza artificiale, insieme ad aziende tra cui Adobe e Meta, società madre di Facebook. “Come sarà tra 20 o 10 anni?” si chiede Ajder, che ha sede a Cambridge, nel Regno Unito. “Gli strumenti diventeranno sempre più accessibili. Potremmo essere fondamentalmente impreparati di fronte a un sacco di deepfake“.

La propaganda, dice il proverbio, è vecchia quanto la guerra. Ma da quando OpenAI ha lanciato la sua prima versione del chatbot AI ChatGpt l’anno scorso, la popolarità esplosiva dell’intelligenza artificiale generativa ha messo il turbo alla capacità degli utenti di creare le proprie narrazioni. Le implicazioni sono relativamente banali quando si tratta di Papa Francesco in piumino o Kim Kardashian nei panni di un autista di autobus. Ma in una guerra, i deepfake possono essere utilizzati per seminare confusione con conseguenze potenzialmente di vita o di morte.

Pochi giorni dopo l’invasione dell’Ucraina da parte della Russia nel febbraio 2022, che ha scatenato la più grande guerra terrestre in Europa da generazioni, il presidente ucraino Volodymyr Zelensky è apparso su Facebook, dicendo ai suoi soldati di arrendersi. Su Twitter, alcuni giorni dopo, anche il presidente russo Vladimir Putin ha ordinato alle sue forze di deporre le armi. I gesti scattanti e le riprese sfocate hanno rapidamente smascherato entrambi i video come falsi. Ma ha rivelato cosa sarebbe potuto accadere in futuro, una volta che gli strumenti di intelligenza artificiale fossero migliorati.

Quel giorno è arrivato, con strumenti di intelligenza artificiale generativa facilmente accessibili, sia in un ufficio governativo che a casa. La tecnologia ha dato il via a un sacco di contenuti manipolati che in precedenza avrebbero richiesto tecnici esperti per la produzione. Nella guerra di Israele, ne sono arrivati da ogni parte, secondo Layla Mashkoor del Digital Forensic Research Lab dell’Atlantic Council, parte di un think tank statunitense che segue da vicino i siti di social media nel conflitto. Esponenti di entrambe le parti hanno diffuso deepfake, dice, citando un account Instagram pro-Israele che presentava un’immagine manipolata dall’intelligenza artificiale di folle di israeliani che acclamavano i soldati dai loro balconi. Per molte persone, lo tsunami di informazioni che lampeggiano sugli schermi dei telefoni ha fatto sembrare tutto inaffidabile. “Anche per le immagini autentiche ci si domanda se sono autentiche, è molto difficile per le persone trovare chiarezza”, afferma Mashkoor.

Quando Matias ha scelto il nome Clarity per la sua startup di intelligenza artificiale, era proprio questo il problema che mirava a risolvere. Con lo scoppio della guerra, la squadra è entrata in azione. Mentre centinaia di video e fotografie hanno inondato Internet, alcuni girati da Hamas durante il suo attacco, o da residenti di Gaza nei quartieri devastati, le organizzazioni dei media internazionali hanno iniziato a inviare e-mail a Clarity chiedendo aiuto per eliminare i deepfake, riferisce Matias, che ha chiesto a Fortune di non rivelare i suoi clienti.

La guerra ha generato una grande quantità di falsità online: la modella Bella Hadid che si scusava per i suoi sentimenti filo-palestinesi era in realtà un audio creato artificialmente. La dichiarazione della regina Rania di Giordania che il suo paese era “dalla parte di Israele” era un audio generato dall’intelligenza artificiale mixato con una sua apparizione sulla CNN. Un video di Hamas che presumeva di mostrare i suoi combattenti mentre distruggevano un carro armato israeliano era in realtà della guerra in Ucraina. E un altro video, che mostra l’abbattimento di due elitcotteri israeliani da parte di Hamas? Quello è stato preso dal videogioco Arma 3.

Clarity, con sede a Palo Alto, in California, e a Tel Aviv, sta anche collaborando con le agenzie di intelligence israeliane per rilevare quali filmati sono veri o falsi. Quasi tutto il team di Clarity, incluso Matias, ha trascorso anni ad affinare le proprie abilità nelle unità tecnologiche d’élite delle Forze di Difesa Israeliane durante il servizio nazionale obbligatorio. Lo stesso Matias ha prestato servizio nell’unità di intelligence iper-selettiva nota come 8200, i cui membri hanno lanciato innumerevoli startup globali dopo il servizio militare.

Con questo pedigree, Matias ha attinto a una rete di fondatori esperti sia per avere consigli che per il capitale. “Clarity sta innovando su una nuova frontiera”, afferma Udi Mokady, angel investor di Clarity e anche lui veterano di 8200, che ha fondato CyberArk, una società di protezione dell’identità. Ora, presidente esecutivo di CyberArk, Mokady, prevede che il mercato del rilevamento dei deepfake aumenterà notevolmente. “La consapevolezza è cresciuta notevolmente da un giorno all’altro con ChatGpt”, afferma, “dove le persone possono creare deepfake dalle loro case”.

Invece di certificare semplicemente i contenuti veri o falsi, Clarity utilizza l’intelligenza artificiale per tracciare una serie di dati in un video, come i tic facciali o la cadenza vocale di una persona, quindi utilizza le reti neurali per posizionarli su una scala di certezza mostrata su una dashboard, dal verde al rosso. “È l’AI contro l’AI“, afferma Matias. Alcuni, come il video che mostra il leader dell’organizzazione Hezbollah sostenuta dall’Iran che condanna gli attacchi del 7 ottobre, sono chiaramente deepfake (“sfortunatamente”, scherza Matias). Ma altri video non sono così chiari e richiedono il giudizio umano, piuttosto che macchine addestrate dall’intelligenza artificiale.

Clarity non è l’unica startup a combattere i deepfake. Negli ultimi anni sono state lanciate diverse altre startup simili, tra cui Reality Defender a New York e Sentinel in Estonia. Anche i giganti della tecnologia si stanno concentrando sulla falsificazione: a partire da gennaio, Meta richiederà a chi fa campagne politiche di segnalare qualsiasi contenuto generato dall’intelligenza artificiale sugli annunci di Facebook, mentre Google ora include dati sulle origini delle immagini.

Cybersecurity, doppia sfida per le startup israeliane

Anche i governi stanno cercando di contrastare i deepfake. A ottobre, il presidente Joe Biden ha emesso un ordine esecutivo sull’AI “sicura, protetta e affidabile” e ha delegato il Dipartimento del Commercio a trovare modi per autenticare i contenuti come reali e filigranare i media creati con l’AI. Ma senza minacce di sanzioni per coloro che violano le regole.

Nello stesso mese, i funzionari hanno concordato misure simili durante un vertice del Regno Unito sull’AI al quale hanno partecipato 28 paesi, tra cui la Cina. E nell’Unione Europea a 27 nazioni, dove una legge sull’AI che mira ad imporre standard di sicurezza e finanziare le startup si sta facendo strada attraverso un tortuoso processo, gli alti funzionari vogliono infliggere multe gigantesche alle piattaforme di social media che non riescono a reprimere la disinformazione.

Il consenso è sempre più diffuso sul fatto che ci sono rischi catastrofici posti dall’AI“, afferma Ajder, consulente per l’AI nel Regno Unito. “Vogliono evitare una situazione in cui il far West che abbiamo visto negli ultimi 18 mesi si perpetui, in una situazione in cui la posta in gioco diventa sempre più alta”.

La posta in gioco non potrebbe essere più alta della feroce guerra di Israele contro Gaza, con le navi da guerra statunitensi di stanza al largo delle coste e l’Iran e il Libano pronti per una possibile battaglia. Clarity è alle prese con le ripercussioni di settimane di guerra, durante le quali il team continua ad analizzare centinaia di video e foto estenuanti.

L’effetto della visione di video, spesso orribili, sul piccolo team di Clarity è abbastanza chiaro, e Matias dice che avranno sicuramente bisogno di una terapia post-traumatica dopo la fine della guerra. “Sapevamo che stavamo entrando in una guerra altamente personalizzata”, dice, aggiungendo che il lavoro ha lasciato al suo team “un profondo carico emotivo e un incredibile senso di responsabilità”.

La versione originale di questo articolo è su Fortune.com

Una versione di questo articolo appare nel numero di dicembre 2023/gennaio 2024 di Fortune con il titolo “Andare in guerra contro i deepfake“.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.