NF24
Cerca
Close this search box.

Intelligenza artificiale e bias, il ruolo delle donne (e di Agid)

Gilead

“In sala operatoria chi prende le decisioni, alla fine, è il chirurgo”, dice Darya Majidi, imprenditrice ed esperta di AI, durante l’e-talk di Fortune Italia ‘Donne ed AI’, dedicato appunto ai temi della parità di genere e dell’intelligenza artificiale. La metafora funziona, e pone un quesito importante: quante saranno le ‘chirurghe’ che prenderanno decisioni nella sala operatoria dell’AI italiana? È la domanda che abbiamo rivolto durante l’evento a Mario Nobile, Direttore generale AgID, l’agenzia che entro la fine del 2024 dovrà aver messo a punto una strategia per integrare l’AI nella pubblica amministrazione, e che nel Piano nazionale dell’informatica recentemente presentato ha posto attenzione anche al tema della prevenzione dei bias di genere.

AI, Nobile (Agid): sempre più donne coinvolte

Secondo Nobile, le donne coinvolte saranno “sempre di più: abbiamo un discorso di età media alta nei dirigenti pubblici e privati, e un tema di poca competenza, perché spesso chi si occupa di queste cose è una persona che non c’entra nulla con il mondo della trasformazione digitale. È necessario un ricambio. In questo c’è attenzione al tema della parità di genere, e io auspico che anche attraverso il lavoro con le associazioni si possa lavorare su questo”.

Donne e lavoro, l’impatto dell’AI

Associazioni che il talk, moderato da Alessandro Pulcini di Fortune Italia, ha cercato di rappresentare, ospitando role model femminili che da anni lavorano nel mondo dell’intelligenza artificiale.

Darya Majidi, imprenditrice Ceo di Daxo Group, selezionata fra le Most Powerful Women del 2023, è anche presidente dell’associazione Donne 4.0. L’esperta di intelligenza artificiale ricorda i numeri che testimoniano il gender gap nelle materie Stem, e soprattutto nell’informatica in Italia: le iscritte a Informatica sono intorno al 14%. Ma sottolinea anche il “vero dramma” che si delinea con l’impatto dell’AI sul mondo del lavoro: “L’AI distruggerà tutte quelle attività ripetitive e a basso lavoro che purtroppo oggi spesso fanno le donne, dalle catene di montaggio nella manifattura ai call center. Questo scenario ci deve portare tutti alla consapevolezza che le imprenditrici dell’AI vanno aiutate, ad esempio con l’accesso al credito, ricordando la filosofia delle tre C: competenze, cuore e coraggio, dove il coraggio deve essere di tutto l’ecosistema”.

Roberta Di Fabio, Head of Special Project della fintech Manteia, ha spiegato come sia molto difficile trovare le competenze giuste sul mercato per poter lavorare sull’AI, e di come questo diventi una missione quasi impossibile se si cerca di attirare competenze femminili.

Manteia rappresenta un settore, il fintech, dove l’approccio regolatorio basato sulle sandbox, che verrà ripetuto con l’AI, è stato pioneristico. La stessa azienda si è ritrovata con team di sviluppatori esclusivamente maschili seguendo il suo percorso di acquisizioni di aziende esterne, “e questo è un problema che vogliamo gestire”.

Ai tra Stem e materie umanistiche

Gianna Martinengo, Mpw nel 2022, è una pioniera del tech italiano. Ceo di Didael KTS, ideatrice e presidente di Women&Tech, è “umanista di formazione e tecnologa per scelta”, ha detto di se stessa in passato.

Martinengo sa, quindi, cosa significhi avvicinarsi al tech con una formazione umanistica: con l’avvento della Gen AI, potrebbe essere questa una delle chiavi di volta per assicurare una parità di genere nell’implementazione dei modelli? “Siamo di fronte a una disciplina che richiede una grande cultura scientifica e umanistica allo stesso tempo: dalla matematica alla statistica, dalla psicologia all’antropologia: forse nessun altro settore richiede un approccio così olistico, che avvantaggerebbe sicuramente le donne. Il loro ruolo sarà sempre più di primo piano”.

L’intelligenza artificiale e l’arrivo dell’AI Act

Già nel 2021, durante le discussioni che hanno portato all’AI Act europeo, Martinengo avvertiva che l’intelligenza artificiale sarebbe dovuta essere regolamentata con le stesse cautele dei farmaci. Dopo due anni l’AI Act è arrivato, e sicuramente non si può parlare di un documento dove le cautele siano poche.

Mancano dei passaggi (come quello a Strasburgo nel Parlamento europeo) per l’approvazione definitiva dell’AI Act e l’entrata in vigore, che comunque si completerà nel giro di un paio d’anni.

Secondo Emanuela Girardi, Founder e Presidente di Pop AI e membro del direttivo di associazioni come CLAIRE (la confederazione europea dei laboratori per la Ricerca in AI), ADRA (l’Associazione su AI, Data e Robotics) e l’italiana AIxIA, “siamo a una versione abbastanza definitiva di AI Act, ma non sappiamo molto sulla parte di implementazione. A gennaio la Commissione europea ha pubblicato l’Innovation package con una serie di elementi su, ad esempio, l’AI Office che dovrà definire le regole per valutare la conformità dei sistemi rispetto alle raccomandazioni Ue”.

Nella fase di implementazione, dice l’esperta, si potranno rendere più flessibili gli strumenti in modo che possano favorire lo sviluppo dell’innovazione in Europa. Sugli investimenti, intanto, “bisogna fare tanto per il nostro Paese, considerando gli annunci di Microsoft e Google sugli investimenti miliardari in Germania e Francia. Bisogna essere attrattivi”.

Diversi gli spunti emersi durante il talk. Da Majidi, che dà “totale disponibilità al dottor Nobile a coinvolgere anche le donne di questo tavolo a creare una visione strategica” sull’intelligenza artificiale, a Martinengo, che auspica che si aiutino le aziende a capire veramente l’intelligenza artificiale e che si investa sulla ricerca di base.

Un lavoro di divulgazione verso le imprese, secondo Girardi, va fatto anche sugli standard, che rappresentano un fattore “strategico per i prossimi anni. In base a questi verranno valutate le conformità dei sistemi di intelligenza artificiale. A dicembre è stato approvato il primo standard, adesso si sta lavorando a livello europeo su quelli da pubblicare sulla gazzetta europea. Gli standard riguardano la parte di gestione dei rischi, di trasparenza, qualità dei dati. Per poter misurare l’impatto dei sistemi di intelligenza artificiale la vera competitività si misurerà sulla capacità di definire standard armonizzati, e questo dovrebbe essere molto chiaro alle imprese, che dovrebbero partecipare di più”.

Agid “presidia il comitato tecnico che sta operando a livello europeo” sugli standard, dice Nobile, d’accordo sul fatto che “non c’è abbastanza attenzione dal mondo imprenditoriale rispetto ad altri Paesi europei”.

I bias dell’intelligenza artificiale e il Piano triennale per l’informatica

Nelle linee guida del piano triennale per l’informatica, spiega il Dg di Agid, “vogliamo assolutamente valutare gli impatti” dei sistemi di intelligenza artificiale. “L’AI Act è uno strumento generale e bisogna ancora risolvere alcune tematiche, alcune criticità. Il lato buono è che ci sono tante opportunità. Costruendo delle sandbox dove valutare impatti e misurare rischi vogliamo andare nella direzione di un approccio non regolatorio o sanzionatorio, ma che risolva i problemi”.

Problemi storici dell’AI come, appunto, i bias. Nel capitolo 5 del piano si legge che l’obiettivo è “creare e implementare un insieme di linee guida robuste per la raccolta e il trattamento dei dati all’interno della Pubblica Amministrazione. Queste linee guida dovranno mirare a garantire che i dati utilizzati come training per sistemi di intelligenza artificiale siano di alta qualità, privi di bias, rappresentativi della popolazione e trattati nel pieno rispetto della privacy”.

Ma quello dei bias non è un problema facile da affrontare. Nobile fa l’esempio dell’utilizzo dei dati creati artificialmente per addestrare i modelli, che teoricamente aggirano il problema dei pregiudizi ‘umani’ instillati nei sistemi AI, compresi quelli discriminatori dal punto di vista della parità di genere. “Dobbiamo anche porci il problema di come la generazione di dati sintetici puliti rischia di non far riconoscere ai sistemi i bias stessi”.

Le domande da porsi, secondo Nobile, sono “come ci accorgiamo che un contenuto veicolato sui social media può avere un avvelenamento di base? Come ci accorgiamo che altri rischi possano essere minimizzati? Serve un approccio regolatorio che porti a risolvere, insieme pubblico e privato, i problemi. Altrimenti rischiamo di essere un continente composto da semplici consumatori che dietro il paravento delle regole si illuderanno di governare un meccanismo che invece è rimasto ingovernabile”.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.