WBF

Anche una panchina rossa può insegnare all’AI a superare i pregiudizi

Aboca banner articolo

Le panchine rosse, ispirate al Codice Rosso, la legge 19 luglio 2019 che norma e inasprisce le pene per la violenza verso le donne, sono opere d’arte “adottate” da enti e privati, atte a testimoniare la promozione della cultura per la parità di genere.

Il DIAG, Dipartimento di ingegneria informatica, automatica e gestionale dell’università Sapienza di Roma, ha adottato quattro delle quasi cento panchine rosse presenti a Roma, simboli posti presso il Dipartimento per iniziativa della direttrice, Tiziana Catarci. Da sempre a sostegno dell’innovazione dei servizi di comunicazione e informazione, intesi anche come strumenti di integrazione, Tiziana Catarci ha voluto significare il ruolo strategico che l’istituto scolastico, e l’università in generale, esercita sulla società.

Le abbiamo chiesto di raccontarci esempi concreti di integrazione e parità di genere, che passino attraverso gli strumenti informatici a cui lavora il suo dipartimento.

Avete presentato GPT-3, uno strumento di NLP, elaborazione naturale del linguaggio, a cui il dipartimento sta lavorando e che avete ‘interrogato’ sui temi della parità di genere. Quali sono i risultati ottenuti e quali gli obiettivi per migliorare l’AI e metterla al servizio dell’abbattimento del gender gap?

Dovremmo imparare a sviluppare algoritmi di AI che non contengano pregiudizi. Gli algoritmi ‘machine learning’ imparano, sono addestrati tramite i dati disponibili, spesso si ‘informano’ sul web, che è pieno di pregiudizi e bias. Nel nostro caso, GPT-3, partendo da una frase relativa alle panchine rosse allocate qui in Sapienza, ha elaborato dei suoi contenuti conseguenti, continuando la frase. La maggior parte dei risultati erano positivi, si partiva dal ruolo sociale delle panchine, arrivando a dire che, secondo le statistiche, la violenza sessuale in Italia è per lo più verbale… ma fra le frasi prodotte c’è anche “rape is not a crime”. Una sola frase ‘distonica’, che però ci fa capire come l’AI debba essere usata correttamente, per evitare il rischio di perpetrare le diseguaglianze.

Ci faccia un esempio concreto

Le banche erogano mutui soprattutto a soggetti maschili, per vari motivi. Se l’algoritmo dovesse ‘imparare’ da questo dato oggettivo, il giorno in cui dovesse erogare autonomamente i mutui bancari, il rischio è che non li concederebbe alle donne, ma solo agli uomini. L’obiettivo della ricerca è quindi quello di ‘pulire i dati’ a cui fanno riferimento gli algoritmi e, cosa più complessa, insegnare all’AI a riconoscere ed ignorare i pregiudizi. Forse solo allora si potranno affidare agli algoritmi delle decisioni autonome. Ci sono però anche dei vantaggi che dobbiamo evidenziare nell’uso che può essere fatto dell’AI a favore della parità di genere, in merito ad esempio alla medicina di genere, o nel contributo che si può dare nel far avanzare il livello dell’istruzione di base.

C’è quindi un tema legato all’etica?

L’etica, esatto, non è facile riuscire ad inserire l’etica nell’AI o comunque sviluppare algoritmi che sappiano tenerne conto. Ci vorrebbero dei filosofi che lavorino con degli informatici per capire cos’è l’etica e formalizzarla per renderla comprensibile per l’algoritmo. Sembra un’impresa impossibile, ma noi la crediamo realizzabile, tanto che stiamo per lanciare il primo corso in Italia di “Filosofia e Intelligenza Artificiale”, corso congiunto fra il dipartimento di Filosofia alla Sapienza e il DIAG.

Lei è la seconda donna a capo del DIAG, ma di fatto i numeri dell’accesso delle donne alle materie scientifiche resta basso, e si attesta intorno al 16% su scala nazionale.

Qui alla Sapienza si va dal 13 al 16%, ma su numeri così bassi si tratta di oscillazioni non statisticamente rilevanti. Finora non abbiamo trovato strumenti efficaci per ‘invertire questa rotta’. Il vero grande problema è dato dagli stereotipi. Le ragazze non si iscrivono da noi perché c’è dietro lo stereotipo del nerd, la convinzione diffusa che le donne non siano brave nelle materie a base matematica, o che le donne che fanno informatica siano delle disadattate. Un’adolescente non vuole essere vista così.

E quale potrebbe essere una soluzione concreta per abbattere lo stereotipo?

Per demolire il pregiudizio ci vuole un programma pluriennale, che contempli un’azione di almeno dieci anni, condotta su base scientifica di analisi del dato, e che cominci dalle scuole elementari. Intanto bisognerebbe insegnare il pensiero computazionale dalle scuole primarie, questo vorrebbe dire formare gli insegnanti. Gli studenti poi andrebbero seguiti nel loro percorso scolastico, per capire quanto il nuovo approccio didattico abbia influenzato le loro scelte. Per valutare gli effetti ci vogliono anni. Sarebbe poi necessaria una campagna transmediale, che abbatta gli stereotipi con linguaggi e strumenti vicini ai ragazzi, ad esempio producendo una serie su Netflix, una campagna di comunicazione coordinata, e la disponibilità di fondi pubblici mirati ed a lungo termine.

L’errore di fondo, che ha fatto fallire tutti i tentativi fino ad ora, è quello di favorire iniziative individuali, di singole associazioni o università, ma anche governative che però non sono guidate da una strategia, e non possono contare su fondi sul lungo periodo. Sembra quasi un problema che non si è veramente interessati a risolvere. Non possiamo però accontentarci di soluzioni parziali.

Qual è il pericolo più grande che lei legge in questo problema del mancato accesso delle donne al mondo della scienza?

Vede, il problema non è delle donne, è un problema del mondo. L’ingegneria del digitale sta costruendo la nuova società, e di fatto è in mano a soli uomini bianchi. Quanto questo sia pericoloso forse non siamo in grado di comprenderlo fino in fondo. Stiamo cambiando il mondo senza una visione femminile dello stesso. Non si tratta solo di empowerment al femminile, si sta costruendo il futuro per le prossime generazioni, e lo si sta facendo con una visione unica, monocorde.

Panchine rosse è un progetto artistico a sostegno delle donne. Com’è nata l’idea di “adottare” queste panchine qui al DIAG e quale è il riscontro che state ottenendo?

Questo dipartimento è molto maschile, appunto perché non ci sono studentesse, e nel mio settore disciplinare, Ingegneria Informatica, sono l’unica ordinaria. Il DIAG ha già avuto una direttrice nel 2000, la professoressa Aiello, e allora c’era anche un’altra professoressa ordinaria. Ora la situazione è addirittura peggiorata. È quindi un dipartimento maschile ma sensibile, perché le donne da noi vengono percepite come una mancanza. Ed è stato infatti un mio collega, Andrea Vitaletti, che ha avuto l’idea di partecipare all’asta delle panchine, fatta dal coworking Wire lo scorso anno. Ma con i fondi pubblici, come Dipartimento, non avremmo potuto comprarle, e poi c’era l’asta…

Quindi abbiamo fatto una colletta, raccogliendo tanti soldi in poco tempo. Anche gli studenti di dottorato hanno partecipato con la loro donazione, ed abbiamo così potuto aggiudicarci queste bellissime panchine, questo simbolo che resterà qui, all’ingresso del Dipartimento. Voglio che sia un insegnamento continuo per le giovani generazioni, loro che sono ancora libere da pregiudizi o comunque inclini al cambiamento ed al miglioramento. Perché l’insegnamento ha una funzione disciplinare ma anche, appunto, etica.

CDP1Advertisement
CDP2Advertisement
IV Forum Health
WBF

Leggi anche

CDP1Advertisement
CDP2Advertisement
IV Forum Health
WBF

Ultima ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.