GILEAD

Algoritmi, i pregiudizi e il desiderio di avere ragione

algoritmi
Gilead

Parlando in termini comunicativi, partendo dai social, viviamo tutti in “bolle. Più o meno micro. Ci vengono infatti proposti, e non solo su Instagram, Facebook, X e altri, argomenti, percezioni e soggetti che più si addicono alle nostre modalità di vivere il web e di condividere esperienze. Insomma, ci sono vere e proprie “stanze” virtuali narrative che possono in qualche modo concordare con il nostro modo di essere, o proporsi come alternative. Quindi, in qualche modo, siamo spesso alla ricerca di offerte di conoscenza e scelte che confermino il nostro modo di pensare e, perché no, anche i nostri pregiudizi.

Il tutto, come del resto accade ed accadrà sempre di più con l’avvento dell’Intelligenza Artificiale, sulla scorta di algoritmi. Perchè ci sono (e ci saranno sempre di più) sistemi che in qualche modo organizzano i percorsi di conoscenza, anche e ben oltre la vita sui social media. Ma astraiamoci un attimo da quelle che sono le nostre preferenze, per provare a definire, con occhio critico, il percorso e i bias che questi algoritmi in grado di autoapprendere e uniformarsi costantemente alle richieste possono realizzare.

Perché se da un lato possono diventare modalità di correttezza nell’accesso alle informazioni, contribuendo a costruire percorsi di conoscenza per tantissime persone, dall’altro potrebbero in qualche modo essere “parziali” nei loro giudizi e nelle loro indicazioni. Proprio come noi. A porre sulla bilancia dello sviluppo anche questa osservazione è una ricerca apparsa su ‘Pnas’, la rivista dell’Accademia Americana delle Scienza. Lo studio pone davvero una domanda importante, per aiutarci a capire in chiave critica quanto davvero dobbiamo chiedere a questi strumenti di progresso.

La ricerca è stata coordinata da Carey Morewedge, professore di marketing della Questrom School of Business dell’Università di Boston. E apre lo sguardo su quelli che possono essere pregiudizi, magari anche solo di genere, che possono influire sulla scelta stessa del processo dell’algoritmo. Fino a comportare, potenzialmente, un vero e proprio problema sociale, come rivela in una nota lo stesso esperto: “Gli algoritmi apprendono e, su larga scala, introducono pregiudizi nelle decisioni umane su cui sono stati formati”.

Insomma: non bisogna pensare sempre e comunque ad algoritmi e processi super partes. Perché i pregiudizi contano. Eccome. Magari influendo sui percorsi che portano a scegliere la persona più indicata per una determinata mansione, rimanendo nell’ambito dell’HR. Il tutto, magari non si esplica in una singola decisione, quanto piuttosto proprio nel processo che conduce alla creazione di un algoritmo di selezione.

Morewedge e i suoi collaboratori – Begüm Çeliktutan e Romain Cadario, entrambi dell’Università Erasmus nei Paesi Bassi – hanno progettato una serie di esperimenti per eliminare i pregiudizi sociali delle persone (inclusi razzismo, sessismo e ageismo).

Il team ha poi confrontato il riconoscimento dei partecipanti alla ricerca su come questi pregiudizi abbiano influenzato le loro decisioni rispetto alle decisioni prese da un algoritmo. Negli esperimenti, i partecipanti a volte vedevano le decisioni di algoritmi reali. Ma c’era un problema: altre volte, le decisioni attribuite agli algoritmi erano in realtà le scelte dei partecipanti.

Così si scopre che alla fine quello che chiediamo ad un algoritmo è sostanzialmente che ci “dia ragione”. E questo diventa un bias pesante, che porta a vedere errori nelle decisioni che si pensa giungano appunto da algoritmi piuttosto che nelle proprie scelte. Esisterebbe infatti una sorta di “punto cieco del pregiudizio”, che porta ad individuare con maggior precisione i pregiudizi negli altri che in se stessi.

Tralasciando gli esperimenti su circa 6.000 persone che puntualizzano e mostrano le nostre facilità a mantenere pregiudizi, anche alla faccia del tracciato offerto dall’algoritmo, lo studio mette in luce una realtà chiara: ognuno di noi, per far fronte ai pregiudizi, deve prima di tutto rendersi conto di averli.

E non cercare la conferma delle proprie idee nell’algoritmo, anche al punto di ritenerlo meno valido ed efficiente se non concorda con il nostro pensiero. Insomma: il futuro passa attraverso una serie di specchi virtuali, che attraverso gli algoritmi ci aiutano a riflettere il nostro pensiero ma possono aiutarci ad identificare i nostri pregiudizi. E questo incide, come le autoasserzioni che vengano dalla presenza di molti soggetti che, sui social, la pensano come noi, fin quasi a trasformare in realtà percepita la nostra riflessione.

La ricerca mostra come dobbiamo mantenerci aperti e meno prevenuti con il pensiero, prima di “scatenarci” sulle indicazioni che vengono da algoritmi di AI. Certo, occorre sempre migliorare questi percorsi invisibili. Ma sempre considerando che dobbiamo imparare a cogliere il meglio da queste traiettorie di progresso e conoscenza. Lo sottolinea lo stesso esperto: “Gli algoritmi sono un’arma a doppio taglio. Possono essere uno strumento che amplifica le nostre peggiori tendenze. Ma possono essere uno strumento che può aiutarci a migliorare noi stessi”.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.