NF24
Cerca
Close this search box.

AI alleata della diversità

L’intelligenza artificiale sta rivoluzionando tantissimi aspetti del nostro mondo, configurandosi come un progresso tecnico fondamentale, una tecnologia – come ogni tecnologia d’altro canto – che rappresenta un punto di non ritorno.
L’AI quindi è destinata a restare e pertanto bisogna imparare a farci i conti, passando anche per le sue applicazioni nel campo della diversity e dell’inclusion.

Per quanto riguarda la comunità LGBT, l’AI può essere utilizzata per creare ambienti più inclusivi e accoglienti e può contribuire attraverso l’analisi dei dati all’identificazione e alla mitigazione di eventuali discriminazioni o pregiudizi soprattutto nel mondo del lavoro.

Ad esempio, i ricercatori stanno sviluppando algoritmi in grado di rilevare eventuali discriminazioni nei processi di assunzione o nelle interazioni online, aiutando così a promuovere un ambiente lavorativo più equo e inclusivo per le persone LGBT. Se il mondo del lavoro verrà sconvolto dall’introduzione massiva dell’AI, non sfuggiranno a questa rivoluzione gli ambiti delle risorse umane e in generale il rapporto tra dipendenti e tra dipendenti e datori di lavoro.

Bisogna infatti ricordare che l’AI altro non è che il risultato dell’immissione di un’enorme mole di dati provenienti dal mondo fisico reale nel quale viviamo. Pertanto i modelli di comportamento dell’AI e gli algoritmi su cui si basano non possono non riprodurre pregiudizi, bias e schemi mentali che esistono nella nostra società. In questo senso non vogliamo che i pregiudizi di una società discriminatoria vengano validati da una macchina che li conferma con azioni che riproducono un circolo vizioso.

Ecco perché il Parlamento europeo sta approvando l’AI Act, il regolamento sulle applicazioni dell’intelligenza artificiale in Ue, di cui relatore generale è Brando Benifei, eurodeputato S&D. Il regolamento prevede una procedura di verifica di conformità sull’appropriatezza dei dati con cui i sistemi sono stati addestrati.

In sostanza, in mancanza di un controllo di qualità sui dati con cui sono allenate le AI, possono essere introiettate discriminazioni frutto di un’osservazione statistica priva di discernimento: per esempio un algoritmo può “imparare” che una persona LGBT non può essere adeguata per un determinato lavoro (solo perché vi è un minor accesso a quel tipo di mercato) o ad avere una famiglia (solo perché non sono riconosciute ufficialmente dallo Stato).

Un ambito particolarmente critico è quello della selezione di curricula lavorativi. Esistono sistemi che in modo automatico scremano migliaia di domande con l’aiuto dell’AI, per i quali è necessario applicare sempre più una procedura di verifica dei dati in modo da contrastare il bias algoritmico: donne poco considerate per carriere manageriali, identità trans non riconosciute e così via.

Le tipologie di discriminazioni su cui può agire un’AI lasciata a se stessa sono potenzialmente infiniti e non si fermano certo al contesto lavorativo.

Un altro punto importante del nuovo regolamento europeo obbliga il team di sviluppo dei sistemi a sottostare a una certa diversificazione interna: in questo modo, portando differenti esperienze, identità e punti di vista, i modelli algoritmici creati potranno essere maggiormente improntati alla diversità e all’inclusione.

Ma l’AI, come ogni tecnologia, ha esiti diversi a seconda di come viene impiegata. Secondo Mario Di Carlo, ex presidente e ora consigliere dell’associazione EDGE – LGBTI+ leaders for change, tra gli esempi virtuosi c’è la possibilità di creare esperienze personalizzate e rilevanti per la comunità LGBT, come la raccomandazione di contenuti culturali, servizi sanitari o risorse di supporto, o ancora garantire una maggiore accessibilità e una maggiore aderenza dei servizi per le persone LGBT, migliorando la loro esperienza.

È questo il caso della creazione di testi e immagini con strumenti di intelligenza artificiale generativa, di traduttori automatici, o di strumenti di selezione dei target di marketing digitale, o dell’automazione di micro decisioni: sono tutte sfere – quelle della rappresentazione, del linguaggio, dell’individuazione – fortemente a rischio di discriminazione involontaria, anzi automatizzata.

In questo momento è essenziale che gli strumenti di intelligenza artificiale, soprattutto quelli con un impatto e una capillarità maggiore, siano utilizzati a supporto delle azioni di persone e che queste persone siano adeguatamente formate e consapevoli delle caratteristiche tecniche, dei casi d’uso appropriati e dei limiti degli strumenti che impiegano.

In conclusione bisogna sottolineare che l’uso dell’AI nella comunità LGBT deve essere fatto con consapevolezza e all’insegna del senso di responsabilità verso la società. Si prospetta un futuro prossimo all’insegna di sfide e preoccupazioni riguardanti l’uso improprio dei dati e il rischio di amplificare pregiudizi esistenti. Pertanto è essenziale adottare uno sguardo critico e sensibile – e non compiacente e supino – alle questioni sollevate, in modo da massimizzare i benefici dell’introduzione dell’AI nelle nostre vite aumentando la nostra capacità di incidere sulla realtà, che è meraviglioso! Da grandi poteri, insomma, derivano grandi responsabilità.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.