NF24
Cerca
Close this search box.

L’AI fra rischi per la sicurezza e teorie del complotto

dottorati ricerca intelligenza artificiale sostenibilità mur

Un dirigente di Meta si è mosso per sedare i timori dell’opinione pubblica sulle capacità dell’AI, definendoli un “panico morale” simile ai timori del passato su molte cose, dai videogiochi alla bicicletta. 

Nick Clegg, presidente global affairs di Meta, ha messo in guardia nei confronti di richieste premature di regolamentazione della tecnologia, come hanno riportato il Times di Londra e il Guardian, in vista dell’importante vertice sull’AI che si è tenuto a Bletchley Park, nel Regno Unito, focalizzandosi sulla mitigazione dei potenziali danni dell’intelligenza artificiale.

Elon Musk ha parlato con il primo ministro del Regno Unito Rishi Sunak sulla piattaforma X in merito alla regolamentazione dell’AI. Il vertice, al quale hanno preso parte importanti leader mondiali, tra cui la presidente della Commissione europea Ursula von der Leyen, fa seguito a un ordine esecutivo firmato lunedì dall’amministrazione Biden, che obbligherà le aziende tecnologiche a sviluppare rapidamente forti standard di sicurezza per l’intelligenza artificiale. Biden non ha partecipato al vertice.

Presente invece a Bletchley Park l’ex vice primo ministro britannico Clegg  per cercare di minimizzare le crescenti preoccupazioni sull’AI, dalla possibilità che la tecnologia rubi posti di lavoro alla sua capacità di manipolare gli esseri umani. Clegg ha affermato che i detrattori si stanno superando l’un l’altro con le teorie più stravaganti sul fallimento dell’AI.

Ricordo gli anni ’80. C’era questo panico morale sui videogiochi, ma anche per la radio, la bicicletta, Internet”, ha detto Clegg, come riporta il Times. “Dieci anni fa ci dicevano che non ci sarebbero più stati camionisti perché tutte le auto sarebbero state completamente automatizzate. A quanto mi risulta, adesso negli Stati Uniti c’è una carenza di camionisti”.

I rischi dell’AI

Clegg, che si è unito a Meta dopo quasi due decenni di carriera politica nel Regno Unito, ha condotto una campagna a sostegno dello sviluppo dell’AI; un approccio che lo ha portato a minimizzare i rischi della tecnologia e delle sue capacità.

A luglio, Clegg ha dichiarato al programma radiofonico Today della BBC che i modelli linguistici di grandi dimensioni (LLM), come ChatGPT di OpenAI e Bard di Google, sono al momento “abbastanza stupidi” e “molto lontani” dal livello che dovrebbero raggiungere per diventare autonomi. 

A Meta, Clegg fa parte di una minoranza di dirigenti tecnologici che sostiene senza riserve il potenziale dell’intelligenza artificiale. Meta ha reso open source il proprio LLM, Llama 2, quando lo ha rilasciato a luglio. Secondo i sostenitori, la mossa avrebbe aumentato la trasparenza e democratizzato le informazioni, impedendo che la tecnologia fosse tenuta sotto controllo da poche potenti aziende. 

Tuttavia, i detrattori di questa scelta temono che le informazioni possano essere utilizzate da attori scorretti per accrescere i danni causati dall’AI. OpenAI ha scelto l’open source per il suo codice quando ha lanciato ChatGPT, ma ha presto fatto marcia indietro. Il co-fondatore della società, Ilya Sutskever, ha dichiarato in un’intervista a The Verge che l’open-sourcing dell’AI “non è saggio”.

Avvisi di pericolo

Altri dirigenti del settore tecnologico sono stati molto più espliciti riguardo ai rischi più ampi dell’AI. A maggio, Sam Altman, cofondatore di OpenAI, ha scritto una breve lettera insieme a centinaia di altri esperti per mettere in guardia dai pericoli dell’intelligenza artificiale. 

Musk e il cofondatore di Apple Steve Wozniak erano tra le 1.100 persone che a marzo hanno firmato una lettera aperta in cui si chiedeva una moratoria sullo sviluppo di sistemi avanzati di AI. Tuttavia, Andrew Ng, uno dei padri fondatori dell’AI e cofondatore di Google Brain, ha lasciato intendere che dietro gli avvertimenti delle aziende tecnologiche potrebbero esserci dei secondi fini.

Ng è stato docente del cofondatore di OpenAI Sam Altman a Stanford e ha lasciato intendere che il suo ex studente potrebbe cercare di consolidare un oligopolio di potenti aziende tecnologiche che controllano l’AI.

“Sam era uno dei miei studenti a Stanford. Ha fatto uno stage con me. Non voglio parlare di lui nello specifico perché non posso leggere la sua mente, ma sento che ci sono molte grandi aziende che troverebbero conveniente non dover competere con grandi modelli linguistici open-source”, ha detto Ng in un’intervista all’Australian Financial Review.

Ng ha avvertito che la proposta di regolamentazione dell’AI rischia di soffocare l’innovazione e che nessuna regolamentazione è attualmente migliore di quella proposta. Geoffrey Hinton, un ex ingegnere di Google che si è licenziato per mettere in guardia dai pericoli dell’AI, mette in dubbio i commenti di Ng su un’apparente cospirazione tra le aziende tecnologiche per soffocare la concorrenza.

“Andrew Ng sostiene che l’idea che l’AI possa farci estinguere è una cospirazione delle big-tech. Un dato che non si adatta a questa teoria del complotto è che ho lasciato Google per poter parlare liberamente della minaccia esistenziale”, ha scritto il cosiddetto “Padrino dell’AI” su X, ex Twitter.

L’articolo originale è disponibile su Fortune.com

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.