fbpx

Il nuovo allarme sull’intelligenza artificiale: le armi nucleari

Condividi su facebook
Condividi su google
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp

Di Jonathan Vanian – L’intelligenza artificiale può portare alla guerra, anche ‘involontariamente’. L’allarme è di un’organizzazione che nel 2017 ha vinto il premio Nobel per il suo impegno nell’eliminazione delle armi nucleari. Beatrice Fihn, direttore esecutivo della ‘International Campaign to Abolish Nuclear Weapons’, è convinta che gli hacker possano violare le tecnologie A.I. utilizzate nei programmi nucleari o che potrebbero usare l’intelligenza artificiale per indurre vari Paesi a effettuare lanci missilistici. Ad esempio i deepfakes, i video alterati creati al computer, dall’aspetto incredibilmente realistico, potrebbero essere usati per “creare dal nulla una minaccia inesistente”, avverte Fihn, spingendo i governi a reagire in modo eccessivo.

Fihn ha detto a Fortune di voler convocare un incontro in autunno con esperti di armi nucleari e alcune delle aziende leader nel settore dell’A.I. e della sicurezza informatica. I partecipanti all’evento, ha detto, produrrebbero un documento che la sua organizzazione utilizzerebbe per informare i governi su questo tipo di pericolo.

“Oggi alcune aziende hanno più potere dei governi, in termini di trasformazione della realtà che ci circonda”, ha detto Fihn, che vuole “convincere quelle aziende a pensare a come possano contribuire a un mondo più sostenibile, riducendo la minaccia di estinzione”.

Finora, alcune aziende leader nel settore dell’intelligenza artificiale, tra cui Microsoft e la DeepMind AI di Google, hanno espresso interesse, ha detto Fihn. Microsoft e DeepMind hanno rifiutato di commentare con Fortune .

Fihn ha detto che alcune aziende sono “un po’ intimidite dal problema”, credendo che abba una connotazione fortemente politica. Detto questo, pensa che queste aziende siano consapevoli del proprio potere.

L’intelligenza artificiale è spesso descritta come un enorme vantaggio per l’umanità. Potenzialmente potrebbe portare a trattamenti sanitari più efficaci o ridurre gli incidenti automobilistici con le auto a guida automatica. Ma c’è una dimensione negativa; si tratta di una tecnologia che potrebbe essere utilizzata anche dai criminali e, teoricamente, dalle nazioni stesse, per danneggiarne altre.

“Non vogliamo passare per i sostenitori di eventuali restrizioni sull’intelligenza artificiale”, ha detto Fihn. “Ma questo tipo di sviluppo tecnologico è possibile, sta accadendo, e dobbiamo stare molto attenti”.

Fihn, che viene dalla Svizzera, avverte che la segretezza dei programmi nucleari rende difficile sapere quanta A.I. è stata già usata in questo settore. Ciò che è noto, tuttavia, è che l’intelligenza artificiale può essere usata come strumento per arrivare agli arsenali nucleari, o alle persone che li gestiscono.

“Si tratta di campi totalmente inesplorati”, ha detto Fihn. L’ascesa dell’intelligenza artificiale pone pericoli realistici, “o è la nostra immaginazione che ormai è fuori controllo?”.