CDP3Advertisement
CDP4Advertisement
WBF

Il dilemma dell’intelligenza artificiale: ci conosce troppo o troppo poco?

Condividi su linkedin
Condividi su twitter
Condividi su facebook
Condividi su whatsapp
Condividi su email
Aboca banner articolo
Di Michal Lev-Ram“Conosci te stesso”. È stato questo il consiglio offerto dal filosofo, storico e autore best-seller Yuval Noah Harari durante una conversazione sul palco alla Stanford University la scorsa settimana. Prolifico scrittore (e attivista), Harari è stato per lungo tempo un critico di quelle applicazioni dell’intelligenza artificiale che tracciano, aggregano e imparano da ogni nostra mossa, tutti quei piccoli dettagli che a volte neanche noi stessi conosciamo. “Conosci meglio te stesso”, ha detto ancora Harari spiegando il concetto, “perché ora c’è parecchia competizione, sull’argomento”.
Lo Human-Centered AI Institute di Stanford, che mira a sviluppare tecnologie a beneficio dell’umanità, ha co-sponsorizzato l’evento. Ha preso parte alla conversazione anche il professore di informatica Fei-Fei Li, un pioniere nella ricerca sull’intelligenza artificiale e co-direttore dell’istituto multidisciplinare. Entrambi gli esperti si sono concentrati su cosa ci riserva il futuro dell’intelligenza artificiale e su come può essere utilizzata per “sostenere, piuttosto che sovvertire” gli interessi umani. Non sorprende che Harari e Li non abbiano sempre convenuto sul miglior percorso da seguire, o sulla portata e la gravità dei danni che l’A.I. può provocare.

Uno dei suggerimenti di Li, ad esempio, è stato quello di sviluppare sistemi di intelligenza artificiale in grado di spiegare le proprie decisioni. Ma Harari ha sostenuto che queste tecnologie sono diventate troppo complesse per essere spiegate, e che questo livello di complessità può minare la nostra autonomia e il nostro controllo.

Nonostante la conversazione sia stata per lo più fruttuosa e produttiva, ci sono state alcune frecciate, tra gli esperti.

“Sono molto invidioso dei filosofi, perché possono porre domande e aprire dilemmi, ma non sono costretti a dare una risposta”, ha detto Li, facendo sorridere anche Harari.

Probabilmente, il sorriso sornione di Harari derivava dalla consapevolezza di avere delle soluzioni da proporre, anche se anche il suo primo consiglio, “conosci te stesso”, è più facile a dirsi che a farsi. La sfida di conoscere noi stessi meglio dei sistemi di intelligenza artificiale può essere meglio illustrata con un aneddoto condiviso dal filosofo stesso. Harari ha detto al pubblico che non si è reso conto di essere gay fino a 21 anni. “Sono con me stesso 24 ore al giorno”, ha detto, ma un sistema di intelligenza artificiale avrebbe potuto capire la sua identità sessuale più velocemente di quanto abbia fatto lui stesso.

“Che cosa significa vivere in un mondo in cui puoi imparare qualcosa di così importante su di te da un algoritmo?”, ha chiesto al pubblico. “E se quell’algoritmo non condividesse” queste informazioni “con voi, ma con altri”, come “inserzionisti pubblicitari o un regime autoritario?”

I rischi delle A.I. che sanno troppo di noi sono reali e cominciano ad essere affrontati – sia da critici esterni come Harari che, sempre più, da ingegneri, educatori e altri insider come Li. Ma che dire dei rischi del rovescio della medaglia, ovvero quando i sistemi di intelligenza artificiale sanno troppo poco di noi o di interi gruppi demografici?

Sempre la settimana scorsa, ho partecipato al Women Transforming Technology, un evento che si è svolto presso il campus di Palo Alto della società tecnologica VMware. Qui, Joy Buolamwini , ricercatrice presso il Media Lab del Massachusetts Institute of Technology, ha discusso i problemi di bias nelle applicazioni A.I. Gran parte del lavoro di Buolamwini è incentrato sull’incapacità dei sistemi di riconoscimento facciale di identificare con precisione i volti delle donne e, in misura molto maggiore, le persone di colore. Come probabilmente si può intuire, questi sistemi tendono ad essere ancora più in difficoltà nel riconoscere i volti delle donne di colore.

“Praticamente parliamo della maggioranza della popolazione mondiale: donne e persone di colore”, ha detto Buolamwini al suo pubblico.

Il pregiudizio in molte applicazioni di riconoscimento facciale inizia con i set di dati utilizzati per addestrare questi sistemi di intelligenza artificiale. Secondo Buolamwini, la maggior parte delle immagini inserite in questi sistemi di autoapprendimento sono di soggetti maschi e bianchi. I parametri utilizzati per valutare l’accuratezza su questi sistemi, quindi, sono anche ottimizzati per facce maschili e bianche. Questo ha implicazioni vaste e potenzialmente pericolose: basta immaginare un veicolo a guida autonoma che non sia in grado di rilevare qualcuno con la pelle scura con la precisione con cui riesce a ‘vedere’ qualcuno con la pelle chiara.

Sono questi tipi di rischi che hanno portato Buolamwini ad avviare la Algorithmic Justice League, un’organizzazione che mira a evidenziare e alleviare i pregiudizi dai sistemi di intelligenza artificiale. Il ‘collettivo’, come lo chiama la ricercatrice del MIT, riunisce programmatori, attivisti, autorità di regolamentazione e altri attori per lavorare insieme per sensibilizzare su queste importanti questioni tecnologiche e sociali.

Il lavoro di Buolamwini ha probabilmente portato ad alcuni miglioramenti. Durante il suo discorso ha sottolineato i recenti aumenti dell’accuratezza nel rilevare soggetti non-bianchi e non-maschi mediante riconoscimento facciale da parte di IBM , Facebook e altre società. Ma ecco il problema: mentre Buolamwini sta chiaramente spingendo per ulteriori miglioramenti in questi sistemi, è anche molto preoccupata per le applicazioni delle tecnologie di riconoscimento facciale che effettivamente sanno abbastanza di tutti i tipi di persone.

“Puoi avere un riconoscimento facciale accurato e metterlo su alcuni droni, ma potrebbe non essere il mondo in cui vuoi vivere”, mi ha detto Buolamwini durante un’intervista dopo il suo discorso.

Buolamwini ha fornito un altro esempio: se un sistema è difettoso e viene implementato a fini di contrasto della criminalità, non è possibile giustificarne l’utilizzo. Ora, diciamo che si arrivi a correggere i difetti. La domanda a questo punto diventa, nelle parole di Buolamwini, “vogliamo vivere in uno stato di sorveglianza di massa?”. Una domanda alla quale, probabilmente, sia Buolamwini che Harari e Li risponderanno allo stesso modo: no.

CDP1Advertisement
CDP2Advertisement
WBF

Leggi anche

CDP1Advertisement
CDP2Advertisement
WBF
A2A

Ultim'ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.