Cerca
Close this search box.

Intelligenza artificiale e bias, l’importanza di porsi delle domande

diletta huyskes

Per Diletta Huyskes, dottoranda in sociologia digitale e responsabile advocacy di Privacy network, tutti dovrebbero avere uno sguardo più critico sui bias e interrogarsi sull’impatto dell’AI sulla loro vita. La versione completa di questo articolo è disponibile sul numero di Fortune Italia di marzo 2022

Alla tecnologia ci è arrivata attraverso la filosofia. E si sente. Perché Diletta Huyskes cita pensatori come Gilles Deleuze e Michael Foucault, parla di libero arbitrio, si è formata sulle opere delle filosofe femministe Donna Haraway e Rosi Braidotti. Ed è proprio grazie a loro che ha cominciato ad approfondire la questione del rapporto tra tecnologia e genere che ora è alla base della sua specializzazione come dottoranda in Sociologia digitale all’Università degli studi di Milano, ma anche della sua attività come responsabile advocacy di Privacy Network. Il suo è certamente uno sguardo critico, inteso come “arte giudicatrice” che “ci permette di valutare e interpretare, di non accettare nessuna ipotesi senza prima interrogarsi sul suo contenuto e la sua origine”. Insomma, non andare contro il progresso ma cercare di adattarlo ai bisogni di tutti. “Non penso che qualsiasi utilizzo dell’intelligenza artificiale sia da rifiutare a prescindere. È ovviamente auspicabile ogni forma di innovazione che possa farci stare meglio, però bisogna porsi delle domande”. A suo giudizio, è importante distinguere, per esempio, gli utilizzi a fini creativi da quelli “che impattano direttamente sulla vita delle persone”, come quando si parla di sanità, assistenza sociale, welfare, sussidi o sicurezza. “Dovremmo acquisire un atteggiamento più interessato, come cittadini, come persone, come pubblico che è oggetto del potenziale inserimento di queste tecnologie nella società. Dovremmo decidere quali usi accettare e quali no”.

Se questa premessa rende necessario porsi domande in generale sull’uso della tecnologia, per Diletta Huyskes ancora più pressanti sono gli interrogativi che si impongono quando si riflette sul rapporto tra intelligenza artificiale e bias di genere. Parte da un esempio, qualcosa di realmente accaduto. “Lo scorso anno nello stato di New York è stata avviata un’indagine perché un imprenditore ha raccontato di aver avuto dalla Apple card un limite di credito venti volte superiore a quello che era stato concesso a sua moglie, sebbene avessero presentato una dichiarazione dei redditi congiunta”. Ovviamente non era intenzione della società discriminare le donne. “Spesso gli algoritmi di intelligenza artificiale sono ciechi di fronte al genere, è quello che gli inglesi chiamano gender blindness”. Il problema è sempre alla base. “Questi sistemi vengono allenati su dati storici e finiscono per perpetrare le disuguaglianze del passato, non sono sensibili ai cambiamenti sociali e culturali. C’è un detto molto comune: “Garbage in, garbage out”, cioè se fornisci alla macchina dati fatti male e poco equilibrati nelle fasi di training e testing è probabile che l’output presenterà dei problemi”.

La versione completa di questo articolo è disponibile sul numero di Fortune Italia di marzo 2022. Ci si può abbonare al magazine di Fortune Italia a questo link: potrete scegliere tra la versione cartacea, quella digitale oppure entrambe. Qui invece si possono acquistare i singoli numeri della rivista in versione digitale.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.