NF24
Cerca
Close this search box.

L’esperto di AI che da Oxford ha scelto la Calabria. Intervista a George Gottlob

intelligenza artificiale lavoro

Da Oxford all’Università della Calabria. L’esperto di intelligenza artificiale George Gottlob, 67 anni, si è trasferito al Sud Italia con il compito di creare una nuova facoltà che metterà insieme Medicina e AI all’università di Rende. “È un incarico che ho accolto da subito con piacere”, ci ha raccontato. Alla terra calabrese, il professore è legato anche da motivazioni personali.

Innanzitutto: perché ha scelto la Calabria per continuare i suoi studi sull’intelligenza artificiale?
In Calabria c’è un’ottima cultura filosofica, filosofia della matematica, dell’informatica che poi si concretizza in progetti all’avanguardia e in un approccio riflessivo alla scienza, caratteristica principale dell’Università, un’eccellenza nel campo dell’informatica. Questo anche grazie all’incessante lavoro svolto sia dall’attuale rettore Nicola Leone, che dal professore Domenico Saccà, fondatore del gruppo di Computer Science negli anni ’80. Dal 1989, dall’inizio della mia carriera a Vienna e poi ad Oxford ho iniziato le mie collaborazioni proprio con figure come Nicola Leone e come Francesco Scarcello, oggi prorettore. Tutte le persone con cui ho avuto modo di lavorare qui sono diventate profonde amicizie. E i miei migliori lavori li ho scritti con colleghi calabresi.

Nella Lectio Magistralis che ha tenuto durante la cerimonia di inaugurazione dell’anno accademico ha parlato di Intelligenza artificiale e di ignoranza artificiale. Un distinguo importante.
Non ci possiamo fidare ciecamente dell’intelligenza artificiale. Chat Gpt fa errori anche banali e ciò è dovuto all’attività di compressione. I sistemi comprimono tutto il web e utilizzano una rete neurale che è più piccola del web e perde informazioni. Quindi, in fase di ricostruzione possono essere collegate tra loro informazioni non coerenti che generano un risultato non corretto. Se chiedo a Chat Gpt di scrivere una lettera, lo fa bene perché non necessita di conoscenza fattuale precisa. Se però chiedo a Chat Gpt di scrivere il mio curriculum, attribuisce a me pubblicazioni di altre persone perché essendoci una perdita di informazioni lavora per similarità. Ovvero: cerca di correggere la mancanza di informazioni estrapolando qualcosa di simile. Ci sono poi altre ‘falle’. Chat Gpt non è stata addestrata in modo uguale su tutti i domini applicativi, ma su alcuni molto di più che su altri. Se applico questo sistema nei domini in cui è avvenuto il training, allora il risultato avrà una probabilità più alta di essere corretto. Altro problema deriva dal fatto che spesso le informazioni con le quali sono state addestrate le intelligenze artificiali non sono corrette se vengono prese direttamente dal web e non verificate. E Chat Gpt non ha pensiero critico e quindi non ha capacità di ragionamento complesso. Infine, spesso i risultati delle richieste fatte ad algoritmi come quelli che usa chat GPT non riportano necessariamente risposte strettamente attinenti alla domanda, ma preconfezionate, ritenute più interessanti o importanti rispetto ad altre solo perché più ricercate o più frequenti.

Recentemente OpenAI è stata travolta da un ‘terremoto’: dall’allontanamento di Sam Altman alla partnership con Microsoft. Lei che idea si è fatto?
Il sospetto è che Altman si sia allontanato dalla natura no profit di Open AI a discapito della sicurezza, tanto da far avvicinare Microsoft ancora di più. Ad oggi una delle poche no profit vere è Wikipedia, tanto da essere sempre vicina all’abisso finanziario. Esempio raro dove chi contribuisce lo fa gratuitamente. Diverso è per Open AI: non si possono avere migliaia di persone che lavorano per una no profit che produce large language model complessi. Meno ancora in un mondo capitalista guidato dal profitto. Forse è meglio così, che esista cioè una forma di controllo di qualche istituzione o struttura responsabile per evitare che chiunque possa piazzare all’interno qualcosa di volutamente sbagliato (e dunque manipolare il sistema).

Il terremoto in casa Chat Gpt sta portando alla ribalta termini come AGI (Artificiale General Intelligence). Può aiutare a far capire anche ai non addetti ai lavori di cosa si sta parlando? 
L’AGI è un’intelligenza simile a quella di un essere umano, che mira a replicare le capacità di apprendimento e ragionamento del cervello umano. Chat Gpt usa i Large Language Model (LLM) generativi che producono testi o risposte che hanno fatto un grande passo verso l’AGI. Ma siamo ancora lontani dall’obiettivo. Quello che fanno Chat GPT o i LLM con le reti neurali somiglia molto a come utilizziamo noi una certa parte del cervello, quella destra, che in modo intuitivo e coerente è in grado di produrre un fiume di parole che nella loro sequenza hanno senso. Il cervello umano sa porre in essere azioni correttive attraverso il ragionamento, però Chat Gpt non ha capacità cognitive. Soltanto se si riuscirà a realizzare un sistema che sappia collegare la parte destra con quella sinistra del cervello allora si potrà veramente parlare di AGI. Nessuno può sapere quanto tempo ci vorrà. Ci sono voluti 3.000 anni perché si sviluppasse la matematica.

Qual è la potenza di calcolo impegnata in queste operazioni e quali i costi?
I modelli di intelligenza generativa hanno bisogno di molta potenza di calcolo con computer dotati di un processore centrale potente corredati di almeno 8 GPU (particolari tipi di processori utilizzati in passato per le elaborazioni grafiche e che ora vengono utilizzati anche per applicazioni di AI), capaci di lavorare in parallelo simulando l’apprendimento. Il costo di tali processori può partire da 20.000 fino a 40.000 euro l’uno, come ad esempio i processori Nvidia.  La speranza è che presto possano essere realizzati dei computer quantistici con una maggiore capacità di elaborazione e al contempo un minore utilizzo di energia per il loro funzionamento.

I governi di tutto il mondo stanno valutando come regolamentare la nascente industria dell’AI. Come può il legislatore (globale) stare al passo con queste tecnologie? Quali i rischi di una AI senza regole?
L’AI senza regole comporta una serie di rischi, un esempio è quello delle reti sociali. Oggi il populismo, in tutto il mondo, viene sostenuto e alimentato dalle reti sociali. L’AI può creare l’avatar di una persona, farle dire cose che non ha mai detto e diffondere il messaggio attraverso il web. La gente penserà che sia vero. Ci sono regole etiche che devono essere seguite. Dal punto di vista legislativo ci potrebbero essere due approcci: il primo, esagerato e che naturalmente sarebbe da evitare, è quello di vietare qualsiasi modello di intelligenza artificiale. Il secondo approccio è che ci siano leggi severe nel caso di un abuso. Mi sembra che i governi dei Paesi Ue siano arrivati a un valido compromesso, mettendosi d’accordo sull’AI Act (ancora provvisorio e forse da rifinire).

Con riferimento ai Deep fake, ovvero video falsi ma molto realistici, come potremo, in futuro, distinguere tra ciò che è reale e ciò che è frutto dell’AI?
Al momento non c’è modo di capire se si tratta di un Deep fake oppure no. Così come non è possibile capire se un testo è stato scritto da un essere umano oppure da Chat Gpt. L’unico modo per poterci proteggere è quello di imporre a chi lo crea di inserire una sorta di marchio.

Quali strategie sarà utile intraprendere per far sì che le nuove generazioni utilizzino l’AI come strumento di supporto e non come scorciatoia e/o sostituzione del pensiero critico?
L’unico modo per sviluppare la capacità critica dei nostri giovani sarebbe quello di introdurre una nuova materia sia nelle scuole che all’università, proprio quella sul pensiero critico.

Lei ha creato diverse startup. Ce ne può parlare?
La prima startup si chiama Lixto. Nata nel 2001 per competitive intelligence, serviva, tra varie applicazioni, a estrarre informazioni dai siti web dei concorrenti di un’azienda e valutare eventuali azioni da intraprendere per contrastare la concorrenza e recuperare quote di mercato. La startup è stata acquisita nel 2013 da McKinsey & Company. Nel 2015 ho co-fondato Wrapidity Ltd, una società impegnata nell’estrazione di dati dal Web, recentemente acquisita da Meltwater, una società di media intelligence. Dopo ho co-fondato Deepreason.ai che si occupava di ragionamento su knowledge aziendale. Il prodotto era un cosiddetto knowledge graph management system per rappresentare la conoscenza aziendale in forma di fatti e regole e dedurne nuovi fatti. Questo sistema ha molte applicazioni ed è, per esempio, alla base di un software utilizzato dalla Banca d’Italia per districare reti estremamente complesse di partecipazioni societarie e così determinare se una data ditta A controlla una data ditta B.  Anche Deepreason.ai è stata acquistata da Meltwater. Da quasi due anni sto lavorando con un’altra startup dal nome Unlimidata Limited, in cui si sviluppano metodi e software per correggere e arricchire automaticamente database mediante Chat Gpt ed altri LLM, ma utilizzando tecniche automatiche di prompting che evitano i soliti errori di questi LLM.

 

 

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.