NF24
Cerca
Close this search box.

Gli inventori dell’intelligenza artificiale: attenzione, può portare all’estinzione dell’umanità

intelligenza artificiale

L’allerta è massima. Poche righe. Chiare, nette, precise. Le trovate sul sito del Center for AI Safety. La priorità è “mitigare il rischio di estinzione posto dall’intelligenza artificiale dovrebbe essere una priorità globale”, come pandemie e le guerre nucleari. Seguono più di 350 firme illustri, comprese quelle dell’amministratore delegato di OpenAI Sam Altman, del numero uno di Google DeepMind Demis Hassabis e del leader di Anthropic Dario Amodei.

Hanno firmato anche italiani, come il fisico Roberto Battiston e gli esperti di intelligenza artificiale Luca Simoncini e Domenico Talia. Per la prima volta vengono alla luce in maniera chiara, in una sintesi dirompente, due riflessioni che da anni si fanno strada tra esperti di informatica e filosofi. La prima riflessione spiega che “bisognerebbe preoccuparsi di più di rischi che potrebbero portare all’estinzione dell’umanità”. La seconda riflessione “ritiene che il progresso dell’Intelligenza artificiale potrebbe essere fra questi”, spiega Luca Trevisan, professore ordinario di Informatica alla Bocconi, che da tempo si occupa di intelligenza artificiale e che non è tra i firmatari della dichiarazione.

L’obiettivo dell’allerta è indicare la necessità urgente di regole in un settore che sta pervadendo sempre di più ogni aspetto della vita sociale e che si rischia di non riuscire a governare. Si temono “effetti secondari imprevisti”, osserva Battiston, dell’Università di Trento. “Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione per realizzare regole e norme che permettano di gestire l’efficacia di questa tecnologia proteggendoci dai relativi pericoli”. Pensiamo ad esempio, aggiunge, “alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione”.

Per questo, osserva, “occorre prepararsi a gestire queste situazioni. Sollecita regole precise anche un altro dei firmatari, Luca Simoncini, ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche. Per Simoncini la dichiarazione del Cias ricorda il manifesto nel quale Bertrand Russell e Albert Einstein nel 1955 denunciavano i rischi delle armi nucleari. Il caso dell’Intelligenza artificiale è diverso, ma il punto è che servono regole chiare e una presa di coscienza.

Per un altro dei firmatari italiani, Domenico Talia, docente di ingegneria informatica all’Università della Calabria, i recenti sviluppi dell’intelligenza artificiale rappresentano “un momento rivoluzionario”, ma regolamentare il settore è urgente, perché “se attendessimo ancora due o tre anni potrebbe essere troppo tardi”. Per questo, aggiunge, con questa breve dichiarazione online “vogliamo passare un messaggio forte a tutti, non solo agli esperti, ma anche ai governi e ai cittadini, perché ci troviamo di fronte a un momento cruciale, non una semplice evoluzione della tecnologia. I sistemi basati sul deep learning “sono delle black box: significa che neppure gli stessi sviluppatori sono in grado di sapere come funzionano al loro interno e non possono quindi controllarli. Il rischio – afferma – è che ci sfuggano di mano con effetti che ancora non possiamo immaginare e che potrebbero interessare il lavoro, i rapporti sociali e le stesse democrazie”.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.