Lilly H
Cerca
Close this search box.

OpenAI, il board avvisato su una ‘svolta’ AI prima del licenziamento di Altman

sam altman openai ai chatgpt progetto q

Una potenziale svolta nel campo dell’intelligenza artificiale potrebbe aver contribuito alla recente estromissione di Sam Altman dalla carica di CEO di OpenAI. Secondo un report di Reuters che  cita due fonti a conoscenza della questione, diversi ricercatori dello staff hanno scritto una lettera al consiglio di amministrazione dell’organizzazione avvertendo di una scoperta che potrebbe potenzialmente minacciare la razza umana.

Le due fonti anonime affermano che questa lettera informava i dirigenti di un progetto segreto chiamato Q*. Il progetto ha portato l’intelligenza artificiale a risolvere compiti scolastici di matematica, ma ha anche riacceso le tensioni sul fatto che Altman stesse procedendo troppo velocemente nel tentativo di commercializzare la tecnologia.

OpenAI, le parole di Altman prima dell’estromissione

Solo un giorno prima di essere licenziato, Altman potrebbe aver fatto riferimento a proprio a Q* (pronunciato Q-star) durante il vertice dei leader mondiali di San Francisco in cui ha parlato di quella che credeva fosse una svolta.

“Quattro volte nella storia di OpenAI, l’ultima delle quali nelle ultime due settimane, mi sono trovato nella stanza, quando abbiamo scostato il velo dell’ignoranza e spinto in avanti la frontiera della scoperta”, ha detto Altman in una discussione durante la Cooperazione economica Asia-Pacifico.

Da allora è stato reintegrato come CEO in uno spettacolare colpo di scena dopo che il personale ha minacciato di ammutinarsi contro il consiglio di amministrazione.

Secondo una delle fonti, dopo essere stata contattata da Reuters, il chief technology officer di OpenAI, Mira Murati, ha riconosciuto in una nota interna ai dipendenti l’esistenza del progetto Q* e in una lettera inviata dal consiglio di amministrazione.

OpenAI non ha rilasciato commenti.

Sam Altman, da licenziato a Ceo di OpenAI con pieni poteri

OpenAI, qual è il rischio del progetto Q*?

Perché tutto questo sarebbe addirittura allarmante? Le macchine risolvono problemi matematici da decenni, dalla calcolatrice tascabile. La differenza è che i dispositivi convenzionali sono stati progettati per arrivare a una singola risposta utilizzando una serie di comandi che tutti i personal computer impiegano, in cui i valori possono essere solo veri o falsi, 0 o 1.

Sotto questo rigido sistema binario, non c’è alcuna capacità di divergere dalla loro programmazione per pensare in modo creativo.

In confronto, le reti neurali non sono codificate per eseguire determinati comandi in un modo specifico. Invece, sono addestrate proprio come farebbe un cervello umano con enormi set di dati correlati, dando loro la capacità di identificare modelli e dedurre risultati.

Pensiamo alla funzione di completamento automatico di Google che mira a prevedere ciò che un utente di Internet sta cercando utilizzando la probabilità statistica: si tratta di una forma molto rudimentale di intelligenza artificiale generativa.

Ecco perché Meredith Whittaker, una delle maggiori esperte del settore, descrive le reti neurali come ChatGPT come “motori probabilistici progettati per sputare fuori ciò che sembra plausibile”.

Se l’AI generativa si dimostrasse invece in grado di arrivare da sola alla soluzione corretta di problemi matematici, questo suggerirebbe una capacità di ragionamento ancora più elevata. Questo potrebbe potenzialmente essere il primo passo verso lo sviluppo dell’intelligenza artificiale generale, una forma di AI in grado di superare gli esseri umani. Il timore è che un’Agi abbia bisogno di guardrail, poiché un giorno potrebbe arrivare a vedere l’umanità come una minaccia alla sua esistenza.

L’articolo originale è disponibile su Fortune.com

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.