Cerca
Close this search box.

Ilya Sutskever, chi è l’uomo al centro della rivoluzione ai vertici di OpenAI

Nel turbinio di congetture intorno alla rivoluzione annunciata venerdì ai vertici di OpenAI, l’attenzione si concentra sull’uomo al centro di tutto: Ilya Sutskever. Capo scienziato dell’azienda, Sutskever, fa anche parte del consiglio di amministrazione di OpenAI che ieri ha estromesso il Ceo Sam Altman, affermando in modo un po’ criptico che Altman non era stato “sempre sincero” nei suoi confronti.

Il mese scorso, Sutskever, che generalmente rifugge dai riflettori dei media, ha concesso una lunga intervista a MIT Technology Review. Il manager israelo-canadese ha detto alla rivista che il suo nuovo obiettivo era come impedire a una superintelligenza artificiale – che può superare gli esseri umani ma, per quanto ne sappiamo, non esiste ancora – di comportarsi in modo imprevedibile.

Sutskever è nato nella Russia sovietica ma è cresciuto a Gerusalemme dall’età di cinque anni. Ha poi studiato all’Università di Toronto con Geoffrey Hinton, un pioniere dell’intelligenza artificiale, a volte chiamato il “padrino dell’intelligenza artificiale”.

All’inizio di quest’anno, Hinton ha lasciato Google e ha avvertito che le aziende di intelligenza artificiale si stavano lanciando in una strada pericolosa creando in modo aggressivo strumenti di intelligenza artificiale generativa come ChatGPT di OpenAI. “È difficile capire come si possa impedire a chi vuole usarlo illegalmente o in maniera immorale o dannosa di utilizzarlo per scopi sbagliati”, ha detto al New York Times.

Hinton e due dei suoi studenti laureati, uno dei quali è Sutskever, hanno sviluppato una rete neurale nel 2021 che hanno addestrato per identificare gli oggetti nelle foto. Il progetto, chiamato AlexNet, ha dimostrato che le reti neurali erano in grado di riconoscere i modelli  molto meglio di quanto si pensasse.

Impressionata, Google acquistò lo spin-off di Hinton, DNNresearch, e assunse Sutskever. Mentre lavorava per il gigante della tecnologia, Sutskever ha contribuito a dimostrare che lo stesso tipo di riconoscimento dei modelli mostrato da AlexNet per le immagini avrebbe potuto funzionare anche per parole e frasi.

Ma Sutskever ha presto attirato l’attenzione di un’altra figura di spicco dell’intelligenza artificiale: il Ceo di Tesla Elon Musk. Il lunatico miliardario aveva da tempo messo in guardia dai potenziali pericoli che l’IA rappresenta per l’umanità. Già anni fa era allarmato per il fatto che il cofondatore di Google Larry Page non si preoccupasse della sicurezza dell’intelligenza artificiale, ha ricordato al Lex Fridman Podcast questo mese, e per la concentrazione di talenti dell’intelligenza artificiale in Google, soprattutto dopo l’acquisizione di DeepMind nel 2014.

Su sollecitazione di Musk, Sutskever ha lasciato Google nel 2015 per diventare cofondatore e capo scienziato di OpenAI, allora un’organizzazione no-profit che Musk immaginava come un contrappeso a Google nel campo dell’intelligenza artificiale. (Musk in seguito è uscito da OpenAI, che ha deciso di non essere un’organizzazione senza scopo di lucro e ha accettato miliardi di investimenti da Microsoft, e ora ha un competitor di ChapGPT chiamato Grok.)

“Quella è stata una delle battaglie di reclutamento più difficili che abbia mai avuto, ma è stata davvero la chiave di volta per il successo di OpenAI“, ha detto Musk, aggiungendo che Sutskever, oltre ad essere intelligente, era un “bravo essere umano” con un “buon cuore”.

Elon Musk: “Ho voluto io Ilya Sutskever in OpenAI”

In OpenAI, Sutskever ha svolto un ruolo chiave nello sviluppo di modelli linguistici di grandi dimensioni, tra cui GPT-2, GPT-3 e il modello text-to-image DALL-E.

Poi è arrivato il rilascio di ChatGPT alla fine dello scorso anno, che ha guadagnato 100 milioni di utenti in meno di due mesi e ha dato il via all’attuale boom dell’intelligenza artificiale. Sutskever ha detto a Technology Review che il chatbot AI ha dato alle persone un assaggio di ciò che era possibile, salvo poi deluderle restituendo risultati errati. (Tra i più delusi gli avvocati, in imbarazzo per essersi fidati troppo di ChatGPT.)

Più recentemente l’attenzione di Sutskever si è concentrata sui potenziali pericoli dell’AI, in particolare una volta che arriverà la superintelligenza artificiale in grado di superare gli umani, cosa che secondo lui potrebbe accadere entro 10 anni. (Sutskever sottolinea la differenza con l’intelligenza artificiale generale, o AGI, che può semplicemente essere allo stesso livello degli esseri umani.)

Al centro della rivoluzione ai vertici di OpenAI venerdì c’è stata la questione della sicurezza dell’AI, secondo fonti anonime che hanno parlato con Bloomberg, con Sutskever in disaccordo con Altman sulla velocità con cui commercializzare i prodotti di IA generativa e sui passi necessari per ridurre i potenziali danni pubblici.

“E’ ovviamente importante che qualsiasi superintelligenza che si costruisce non possa ‘ribellarsi'”, ha detto Sutskever a Technology Review.

Con questo in mente, i suoi pensieri si sono rivolti all’allineamento, guidando i sistemi di AI verso gli obiettivi previsti o i principi etici delle persone piuttosto che perseguire obiettivi non intenzionali, come potrebbe accadere alla superintelligenza artificiale.

A luglio, Sutskever e il collega Jan Leike hanno scritto un annuncio di OpenAI su un progetto sull’allineamento della superintelligenza, o “superallineamento”. Hanno avvertito che anche se la superintelligenza potrebbe aiutare a “risolvere molti dei problemi più importanti del mondo”, potrebbe anche “essere molto pericolosa e potrebbe portare alla perdita di potere  o addirittura all’estinzione dell’umanità“.

La versione originale di questo articolo è su Fortune.com

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.