Se c’è una cosa che Ilya Sutskever conosce bene, sono le opportunità — e i rischi — che derivano dall’avvento dell’intelligenza artificiale.
Ricercatore specializzato nella sicurezza dell’AI e una delle menti più brillanti del settore, è stato per anni il capo scienziato di OpenAI. Il suo obiettivo dichiarato lì era quello di creare reti neurali di deep learning così avanzate da poter un giorno pensare e ragionare tanto bene quanto — o meglio di — qualsiasi essere umano.
L’intelligenza artificiale generale, o AGI (Artificial General Intelligence), è il termine ufficiale per indicare quell’obiettivo. Ancora oggi rappresenta il “Santo Graal” per i ricercatori: l’opportunità per l’umanità di dare finalmente vita a una forma di vita senziente, anche se basata sul silicio anziché sul carbonio.
Ma mentre il resto del mondo discute i pro e i contro di una tecnologia che persino gli esperti faticano a comprendere davvero, Sutskever stava già pianificando il giorno in cui il suo team avrebbe vinto la corsa allo sviluppo dell’AGI.
Secondo alcuni estratti pubblicati da The Atlantic tratti dal nuovo libro Empire of AI, parte di quei piani includevano anche un rifugio anti-apocalisse per i ricercatori di OpenAI.
“Costruiremo sicuramente un bunker prima di rilasciare l’AGI,” disse Sutskever al suo team nel 2023, alcuni mesi prima di lasciare definitivamente l’azienda.
Sutskever riteneva che i suoi colleghi scienziati avrebbero avuto bisogno di protezione in quel momento, poiché la tecnologia sarebbe stata troppo potente per non attirare l’interesse intenso dei governi di tutto il mondo.
“Naturalmente, entrare nel bunker sarà facoltativo,” rassicurò i colleghi di OpenAI, secondo persone presenti all’epoca.
Gli errori che hanno portato al rapido ritorno di Sam Altman
Scritto dall’ex corrispondente del Wall Street Journal Karen Hao e basato su decine di interviste a circa 90 dipendenti ed ex dipendenti di OpenAI coinvolti direttamente o informati sugli eventi, Empire of AI rivela nuovi dettagli sul breve ma spettacolare colpo di scena che portò alla rimozione di Sam Altman da CEO nel novembre 2023 — e su cosa significò per l’azienda dietro ChatGPT.
Il libro attribuisce gran parte della responsabilità a Sutskever e alla direttrice tecnica Mira Murati, le cui preoccupazioni per l’ossessione di Altman nel “far quadrare i conti” a discapito della trasparenza furono alla base della decisione del consiglio no-profit di rimuoverlo.
La coppia, però, si sarebbe mossa troppo lentamente, senza riuscire a consolidare il proprio potere né a conquistare il sostegno degli altri dirigenti. Nel giro di una settimana, Altman era di nuovo al comando e quasi tutto il consiglio d’amministrazione del no-profit fu sostituito. Sutskever e Murati lasciarono entrambi l’azienda nel giro di meno di un anno.
Né OpenAI né Sutskever hanno risposto alle richieste di commento da parte di Fortune al di fuori dell’orario lavorativo. La signora Murati non è stata reperibile.
“Costruire l’AGI sarà come una rivelazione divina”
Sutskever conosce meglio di chiunque altro le capacità straordinarie dell’intelligenza artificiale. Insieme al celebre ricercatore e mentore Geoff Hinton, fece parte del trio che nel 2012 creò AlexNet, considerata da molti esperti come il “Big Bang” dell’IA.
Reclutato personalmente da Elon Musk per entrare in OpenAI tre anni dopo, Sutskever avrebbe poi guidato gli sforzi per sviluppare l’AGI.
Ma il lancio del chatbot ChatGPT fece deragliare involontariamente i suoi piani, scatenando una corsa ai finanziamenti che lo Sutskever attento alla sicurezza non riuscì più a controllare — e che favorì il rivale Sam Altman, secondo gli estratti. Parte di tutto ciò era già stata riportata anche da Fortune.
Alla fine, questo portò allo scontro decisivo con Altman e alla successiva uscita di Sutskever, insieme a molti altri esperti di sicurezza di OpenAI a lui vicini, preoccupati che l’azienda non si preoccupasse più abbastanza di allineare l’AI agli interessi dell’umanità nel suo complesso.
“C’è un gruppo di persone — Ilya è tra loro — che crede che costruire l’AGI porterà a una sorta di rivelazione divina,” ha detto un ricercatore citato da Hao, che era presente quando Sutskever parlò del bunker. “Letteralmente una rivelazione”.
L’articolo completo è su Fortune.com