PGIM_970x250_HEADER

Gli ‘Agenti AI’ sono tra noi, ma dobbiamo capire come coesistere: intervista a Luciano Floridi

luciano floridi ia ai intelligenza artificiale ai
PGIM_970x250_ARTICOLO
Velasco25 Articolo

Il prossimo sarà l’anno degli Agenti AI, e già adesso le intelligenze artificiali autonome e addestrate su compiti specifici sono le protagoniste di convegni tecnologici e annunci in grande stile delle big tech. La tentazione di commentare con un “ve l’avevo detto” Luciano Floridi ce l’ha, ma si limita a sorridere. Il professore italiano che guida il Digital Ethics Center della Yale University (uno dei massimi esperti al mondo se si parla di etica dell’AI) può rispolverare un paper scritto nel lontano 2004 (allora era di casa a Oxford) sugli agenti artificiali. Allora, ricorda Floridi, in pochi se ne occupavano o erano interessati all’argomento. Non c’era sicuramente ChatGpt, né i 10 Agenti AI annunciati da Microsoft, o i 50 targati Oracle. E poi quelli di Lenovo, Linkedin, Salesforce, Claude 3.5 Sonnet di Anthropic, Jarvis di Chrome. Eppure, già allora, Floridi si poneva domande che oggi sembrano ancora più fondamentali.

Ora che agenti artificiali sempre più sofisticati sono destinati a diventare parte integrante della quotidianità di aziende o cittadini, la discussione sulla moralità di quelle stesse tecnologie, pronte a prendere le decisioni più semplici al posto dei professionisti in settori strategici come industria o sanità, è più viva che mai. Attribuire una responsabilità all’AI potrebbe essere fuorviante, ma nell’era dell’industrializzazione della violenza abilitata dalla tecnologia, come la chiama Floridi, riuscire ad applicare il concetto di moralità potrebbe aiutarci a capire come intervenire quando necessario.

Lo studio sugli agenti artificiali

 Il paper di Floridi datato 2004 discute il ruolo degli agenti artificiali (AA), specialmente in ambito cibernetico, come soggetti che possono essere coinvolti in situazioni morali. Lo studio chiarisce il concetto di agente, distinguendo tra moralità e responsabilità, e conclude che, in particolare nell’etica informatica, un agente morale non deve necessariamente possedere libero arbitrio, stati mentali o responsabilità. Il concetto di agente morale si basa su tre caratteristiche a un dato livello di astrazione (LoA): interattività, autonomia e adattabilità. La moralità è vista come una “soglia” su determinati parametri osservabili: un agente è moralmente buono se rispetta questa soglia, moralmente cattivo se la viola.

 

Nel suo paper ha parlato di moralità. Prossimamente anche al grande pubblico verranno resi disponibili agenti AI con un livello di autonomia rilevante. Spesso, si fermano e chiedono indicazioni all’umano quando trovano qualche intoppo. Ma siamo pronti a capire come gestirli?

La moralità è sempre stata legata alla responsabilità. Gli agenti artificiali possono avere implicazioni morali, ma non sono responsabili delle loro azioni. La responsabilità implica la possibilità di attribuire conseguenze, cosa che con questi agenti non possiamo fare, almeno finché non avranno una consapevolezza etica – qualcosa che non esiste. Questa distinzione è importante per capire come gestire gli agenti.

Satya Nadella, Ceo e presidente di Microsoft, prevede milioni di agenti personalizzati.

Come le automobili, che hanno richiesto un ripensamento degli spazi urbani e della mobilità, anche la coesistenza con gli agenti autonomi richiederà coordinazione e armonizzazione. La sfida è farli interagire senza creare conflitti. Si dovrà sviluppare una sorta di regolamentazione tecnologica per garantire una coabitazione pacifica tra esseri umani e agenti autonomi. È già successo che dei bot litigassero tra loro. Leggendario il battibecco tra due di questi sulla necessità di una singola virgola, andato avanti finché non è intervenuto un essere umano. Ora dobbiamo evitare che il problema si amplifichi.

Lei ha sostenuto recentemente che con la AI siamo attualmente in una bolla tecnologica simile a quella delle dotcom. Ha anche criticato parte dell’hype che c’è sulle attuali prestazioni dell’intelligenza artificiale. Anche con gli agenti AI il rischio è di esagerare con il marketing?

Esattamente. C’è un’enorme esagerazione riguardo alle capacità dell’intelligenza artificiale. Spesso, i risultati promessi sono molto lontani dalla realtà. Abbiamo visto casi in cui gli annunci non hanno mantenuto le aspettative. Quando c’è una discrepanza tra ciò che viene promesso e ciò che è tecnicamente realizzabile, ci sono i presupposti per una bolla. Oggi, questo divario è evidente. Basta finire in una catena di email, molte delle quali generate da AI, per vedere come viviamo sempre di più ogni giorno uno tsunami di banalità, e ora la quantità di contenuti banali può solo aumentare. È necessario un uso regolato degli agenti per evitare un aumento di contenuti inutili.

A che punto siamo nel ciclo della bolla tecnologica? Potrebbe esserci un “atterraggio morbido” o si prevede un collasso, come accaduto in passato?

La storia insegna che le grandi espansioni tecnologiche tendono a terminare con una certa durezza, come accaduto con la bolla delle dotcom. Tuttavia, ciò che resta dopo è spesso la parte più solida: aziende come Google o Amazon sono sopravvissute e hanno prosperato. Anche ora, con l’AI, siamo in una bolla (in termini di divario tra investimenti e promesse da un lato e reale messa a terra dall’altro). Una bolla in fase di espansione, ed è importante prepararsi per un potenziale riassestamento. Non sarà un ‘atterraggio morbido.

Nel contesto delle politiche italiane, il rischio di una dipendenza dalle big tech è reale?

Il rischio è molto concreto. Dipendere da grandi aziende tecnologiche significa limitare le possibilità di crescita autonoma. Le politiche attuali non favoriscono sufficientemente lo sviluppo di un ecosistema digitale indipendente. L’Italia dovrebbe concentrarsi su investimenti in competenze e imprenditoria digitale, invece di limitarsi a ospitare data center, una cosa buona ma insufficiente. Attraverso una maggiore autonomia digitale, possiamo trasformare il paese in un leader, anziché restare una semplice base operativa per aziende straniere.

Crede che l’Europa stia seguendo la giusta filosofia nell’impostazione dell’etica digitale?

In Europa si fa molta attenzione a minimizzare i rischi per il consumatore, spesso però a discapito dell’innovazione. È un po’ come la sostenibilità ambientale: dovrebbe essere vista come un valore propositivo, non come un vincolo. Concentrarsi solo sulla riduzione dei rischi può bloccare l’innovazione. Bisognerebbe piuttosto bilanciare protezione e beneficio, creando un’AI che non solo sia sicura, ma anche vantaggiosa per tutti.

Nell’ultimo anno tra DDL intelligenza artificiale, identità digitale, accordi con le big tech, di iniziative ce ne sono state.

Sono cose buone ma non abbastanza. L’Italia è ancora nel gruppo che corre avanti nella maratona digitale, ma non sta vincendo. La focalizzazione del governo italiano sul digitale sembra essere un extra, non una priorità.

Intende dire che non si sta ancora aiutando la crescita di un tessuto imprenditoriale digitale?

Sì, c’è bisogno di una classe politica che prenda sul serio il digitale. Attualmente, i dibattiti politici non si concentrano su questo tema. Invece di togliere le catene a un paese che potrebbe fare tantissimo, continuiamo ad aggiungere vincoli e regolamentazioni. Questo limita l’innovazione e la crescita, anche delle startup.

Da questo punto di vista il discorso sull’etica come si inserisce?

La nostra è un’etica della responsabilità, e spesso scarichiamo quella responsabilità sulla tecnologia. Nell’etica dell’intelligenza artificiale, possiamo concentrarci sulle virtù del cuoco, sulle conseguenze del suo cucinare o sul cliente che si nutre e assapora il piatto. Le teorie etiche devono aggiornarsi per includere l’impatto su chi riceve le conseguenze dell’agire. Di fatto, l’ambiente e le generazioni future.

Quali sono le sue principali preoccupazioni in merito all’uso improprio dell’AI e della tecnologia?

Sono preoccupato dall’uso dei media digitali per atti di vandalismo e bullismo, soprattutto quelli a sfondo sessuale. Siamo arrivati a una forma industrializzata di violenza digitale, che ha effetti devastanti. È fondamentale attuare una regolamentazione seria e promuovere un’educazione digitale completa, affinché le persone possano proteggersi.

Nelle ultime settimane ha rilasciato diverse interviste, partecipato a podcast, ha lanciato uno spettacolo teatrale (Orbits). Qual è la cosa che non le è stata ancora chiesta?

Quello che non chiedono spesso è la parte filosofica più profonda dietro questi argomenti. Si parla molto di digitale, ma meno di come questo influenzi l’identità umana e la società.

Musk: “10-20% di possibilità” di un’AI fuori controllo. Ma la sua startup raccoglie miliardi

PGIM_300x600_ARTICOLO side
PS25 Box

Leggi anche

Ultima ora

Iscriviti alla nostra Newsletter

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.