NF24
Cerca
Close this search box.

Biden prova a regolare l’AI. E agli esperti l’ordine esecutivo piace

Biden NATO Fortune Italia
Gilead

Per la maggior parte del 2023, il mondo della tecnologia ha aspettato che accadesse qualcosa – qualsiasi cosa – sulla regolamentazione dell’AI. I leader del settore, da Elon Musk a Bill Gates al boss di OpenAI Sam Altman, hanno persino visitato più volte il Congresso per consigliare Washington su come agire su una tecnologia ampiamente considerata rivoluzionaria. Lunedì, la Casa Bianca è intervenuta con un ordine esecutivo che ribadisce il suo impegno a regolamentare l’AI. Le procedure delineate nel documento sono simili a quelle che altri governi hanno impostato sulla regolamentazione dell’AI, ma gli esperti del settore dicono che questo testo va oltre.

Definito “completo” e “intelligente” dagli esperti di intelligenza artificiale che hanno parlato con Fortune.com, il documento fornirebbe anche le armi legali che il governo può usare con le potenze dell’intelligenza artificiale che non rispettano le sue direttive.

“Questo è il primo ordine esecutivo che abbiamo visto che abbia effettivamente dettami legali oltre alle solite raccomandazioni”, ha affermato Neil Serebryany, Ceo di CalypsoAI, che aiuta organizzazioni come l’Air Force e Lockheed Martin a proteggere i suoi modelli di intelligenza artificiale.

L’ordine è di ampio respiro e affronta i maggiori problemi che secondo gli esperti di etica e i consumatori sono sorti negli ultimi mesi, tra cui l’impatto sui lavoratori, i casi d’uso dannosi e la possibilità che l’AI aumenti la discriminazione.

Offre un mix di soluzioni, dalla creazione di nuovi servizi di reportistica che rimediano alle pratiche dannose dell’AI allo sviluppo di best practice in diversi settori che interagiscono con la tecnologia.

In base all’ordine esecutivo, che è una direttiva emessa dal presidente, cioè dal ramo esecutivo, e può essere applicata come legge, le aziende di intelligenza artificiale devono condividere i risultati dei test di sicurezza e altre informazioni con il governo.

Il presidente Joe Biden a luglio si è assicurato alcuni impegni volontari per condividere informazioni da società che si occupano di intelligenza artificiale tra cui Google, Meta, Microsoft e OpenAI, ma il nuovo ordine è legalmente vincolante.

Obbliga le aziende a questo standard attraverso il Defense Production Act, una legge dell’era della Guerra Fredda che consente ai presidenti il controllo di emergenza sulle industrie nazionali.

I presidenti Trump e Biden hanno entrambi invocato la stessa legge per gestire la risposta a Covid-19. In base a questa legge, un ente governativo, probabilmente il procuratore generale, può citare in giudizio le aziende che non si adeguano, ha detto Serebryany a Fortune. Legando questa sezione dell’ordine al Defense Production Act, Biden ha preparato l’industria per un’ulteriore regolamentazione.

Le opinioni degli esperti

Le risposte degli esperti di intelligenza artificiale e del personale del settore che hanno parlato con Fortune sono state ampiamente positive. “Siamo grati al presidente Biden, alla vicepresidente Harris e all’amministrazione Biden per la loro leadership e il loro lavoro per garantire che il governo federale sfrutti il potenziale dell’AI e che i suoi benefici raggiungano tutti gli americani”, ha dichiarato un portavoce di OpenAI in una dichiarazione inviata via e-mail a Fortune.

“È davvero la prima volta in cui il governo è in anticipo sulle cose”, ha detto Michael Santoro, professore di economia all’Università di Santa Clara che lavora su politiche pubbliche ed etica tecnologica.

Gli altri punti dell’ordine esecutivo

Oltre alla sezione sugli obblighi di reporting al governo, ci sono alcuni altri punti dell’ordine che hanno colpito la comunità dell’AI. I Dipartimenti dell’Energia e della Sicurezza Nazionale affronteranno i rischi chimici, biologici e nucleari dell’AI. Santoro ha definito questo approccio come “aggressivo”.

Il National Institute of Standards and Technology stabilirà anche gli standard per i test red-team, ovvero quando gli hacker etici cercano i punti deboli di una tecnologia per prevenire attacchi futuri.

Molte delle azioni che Biden elenca nel suo ordine non sono specifiche. L’amministrazione scrive che “svilupperà strumenti” e “svilupperà le migliori pratiche” senza molti dettagli aggiuntivi, ma è così che dovrebbe essere, ha detto Serebryany a Fortune.

L’innovazione dell’AI si muove così rapidamente che gli obiettivi tangibili potrebbero essere obsoleti in pochi mesi. Il governo può continuare ad affrontare le nuove questioni che si presentano nell’ambito di queste vaghe misure, ha affermato.

La sfida con l’Ue

Mentre l’ordine esecutivo stabilisce gli standard all’interno degli Stati Uniti, le sue implicazioni si ripercuotono su tutto l’Atlantico.

Finora l’UE è stata in gran parte il principale regolatore della tecnologia in tutto il mondo. Le aziende che operano in più regioni, comprese tutte le aziende Big Tech, vogliono un insieme di regole da seguire, e ciò significa rispettare l’organo di governo più rigoroso. Nel settore tecnologico, questa è l’UE.

Gli Stati Uniti hanno ampiamente regolamentato la tecnologia attraverso la legislazione a livello statale e gli standard stabiliti dalle azioni legali collettive, ma c’è una regolamentazione federale limitata sulle questioni tecnologiche esistenti, come la privacy.

L’ordine esecutivo di Biden avvia una battaglia tra gli Stati Uniti e l’UE su chi regolerà l’AI e su come sarà regolamentata, ha affermato Santoro.

“Ci sarà un momento in cui gli Stati Uniti e l’Europa si guarderanno l’un l’altro e negozieranno su come regolamentare la tecnologia”, ha detto Santoro.

Le aziende potrebbero preferire l’approccio statunitense, ha affermato, perché riconosce il potenziale dell’AI per trasformare positivamente il mondo. Biden elenca come l’AI può aiutare lo sviluppo di farmaci salvavita e fungere da risorsa per l’educazione. L’UE si concentra in gran parte sui rischi della tecnologia, piuttosto che sugli aspetti positivi, ha detto Santoro.

L’economia degli Stati Uniti si basa anche in parte sul suo settore tecnologico, che ospita importanti aziende di intelligenza artificiale come Microsoft, OpenAI e Google; non può regolamentarlo così tanto da limitare il suo prodotto interno lordo.

“L’Europa non è sempre così efficace come vorrebbe nel definire una regolamentazione per il mondo intero”, ha detto Santoro a Fortune.

L’articolo originale è disponibile su Fortune.com

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.