Il CEO di OpenAI, Sam Altman, ha un desiderio per l’intelligenza artificiale: che “ami l’umanità”. Altman è fiducioso che questa qualità possa essere integrata nei sistemi di AI, ma non ne è completamente certo.
“Penso di sì”, ha risposto Altman quando gli è stata posta la domanda durante un’intervista con Debora Spar, preside associata senior della Harvard Business School.
L’idea di una rivolta delle macchine era un tempo relegata alla fantascienza di Isaac Asimov o ai film d’azione di James Cameron. Ma con l’avvento dell’AI, questa tematica è diventata, se non una questione calda, almeno un argomento di dibattito che merita una seria considerazione. Quello che un tempo sarebbe stato considerato il delirio di un visionario è oggi una questione di regolamentazione reale.
Altman ha dichiarato che il rapporto di OpenAI con il governo è stato “abbastanza costruttivo”. Ha inoltre aggiunto che un progetto vasto e di così ampia portata come lo sviluppo dell’AI avrebbe dovuto essere un’iniziativa governativa.
“In una società ben funzionante, questo sarebbe un progetto governativo”, ha affermato Altman. “Dato che non sta accadendo, penso che sia meglio che stia avvenendo in questo modo, come un progetto americano”.
Il governo federale non ha ancora fatto progressi significativi sulla legislazione per la sicurezza dell’AI. In California, c’è stato un tentativo di approvare una legge che avrebbe reso gli sviluppatori di AI responsabili per eventi catastrofici, come l’uso dell’AI per sviluppare armi di distruzione di massa o per attaccare infrastrutture critiche. La legge è stata approvata dalla legislatura, ma il governatore della California, Gavin Newsom, l’ha bloccata con un veto.
Alcuni dei massimi esperti di AI hanno avvertito che garantire l’allineamento dell’AI al bene dell’umanità è una questione cruciale. Geoffrey Hinton, premio Nobel e noto come il “padre dell’AI”, ha dichiarato di non riuscire a “vedere un percorso che garantisca la sicurezza”. Elon Musk, CEO di Tesla, ha spesso avvertito che l’AI potrebbe portare all’estinzione dell’umanità. Musk ha avuto un ruolo fondamentale nella fondazione di OpenAI, fornendo ingenti finanziamenti iniziali all’organizzazione non-profit, un contributo per cui Altman si dice ancora “grato”, nonostante Musk stia attualmente facendo causa a OpenAI.
Negli ultimi anni sono nate diverse organizzazioni, come il non-profit Alignment Research Center e la startup Safe Superintelligence, fondata dall’ex capo scienziato di OpenAI, dedicate esclusivamente a queste questioni.
OpenAI non ha risposto a una richiesta di commento.
Secondo Altman, l’AI, così com’è progettata attualmente, è ben predisposta per essere allineata alle nostre esigenze. Per questo motivo, sostiene, garantire che l’AI non danneggi l’umanità sarebbe più semplice di quanto possa sembrare.
“Una delle cose che ha funzionato sorprendentemente bene è stata la capacità di allineare un sistema di AI per comportarsi in un modo particolare”, ha dichiarato. “Quindi, se possiamo articolare cosa significa in vari contesti, allora sì, penso che possiamo far comportare il sistema in quel modo”.
Altman ha anche proposto un’idea per aiutare OpenAI e altri sviluppatori a “articolare” i principi e gli ideali necessari per garantire che l’AI resti dalla parte dell’umanità: usare l’AI per sondare l’opinione pubblica. Ha suggerito di chiedere agli utenti dei chatbot di AI quali siano i loro valori e di utilizzare quelle risposte per decidere come allineare un’AI al fine di proteggere l’umanità.
“Mi interessa l’esperimento mentale in cui un’AI dialoga con te per un paio d’ore sul tuo sistema di valori,” ha spiegato. “Lo fa con me, con tutti gli altri, e poi dice: ‘Ok, non posso rendere tutti felici tutto il tempo”.
Altman spera che, comunicando con miliardi di persone e comprendendole “a un livello profondo”, l’AI possa identificare le sfide che la società deve affrontare più in generale. Da lì, l’AI potrebbe raggiungere un consenso su cosa dovrebbe fare per promuovere il benessere generale del pubblico.
OpenAI ha un team interno dedicato al “superallineamento”, il cui compito è garantire che le future superintelligenze digitali non vadano fuori controllo, causando danni incalcolabili. Nel dicembre 2023, il gruppo ha pubblicato un primo documento di ricerca in cui spiegava di lavorare su un processo in cui un modello linguistico di grandi dimensioni supervisionerebbe un altro. Tuttavia, nella primavera del 2024, i leader del team, Ilya Sutskever e Jan Leike, hanno lasciato OpenAI, e il team è stato sciolto, secondo quanto riportato da CNBC.
Leike ha affermato di essersi dimesso a causa di crescenti disaccordi con la leadership di OpenAI riguardo al suo impegno per la sicurezza, mentre l’azienda si avvicinava all’intelligenza artificiale generale, un termine che si riferisce a un’AI intelligente quanto un essere umano.
“Costruire macchine più intelligenti degli esseri umani è un’impresa intrinsecamente pericolosa”, ha scritto Leike su X. “OpenAI sta assumendosi un’enorme responsabilità per conto di tutta l’umanità. Ma negli ultimi anni, la cultura della sicurezza e i processi sono passati in secondo piano rispetto a prodotti scintillanti”.
Quando Leike ha lasciato, Altman ha scritto su X che era “molto grato per [i suoi] contributi alla ricerca sull’allineamento e alla cultura della sicurezza di OpenAI”.
Questa storia è stata originariamente pubblicata su Fortune.com.