CDP3Advertisement
CDP4Advertisement
WBF

Data Society ed etica, l’innovazione parte da qui

Condividi su linkedin
Condividi su twitter
Condividi su facebook
Condividi su whatsapp
Condividi su email
Aboca banner articolo

La società digitale è al centro di discussioni, analisi, proiezioni verso un futuro che sembra tutto da costruire. Ma quel futuro è già presente, e ci sono regole che vanno definite in fretta, al fine di costruire una società migliore e meno discriminante, dove l’equità sia il criterio guida per l’etica. Ne abbiamo parlato con Ivana Bartoletti, esperta di privacy, security ed etica del digitale,  Global Data Privacy officer della multinazionale Wipro, autrice di An Artificial Revolution, on Power, Politics and AI e curatrice di AI Book guida all’uso dell’intelligenza artificiale nel mondo della finanza.

Women of the Year  – Cybersecurity Award, nel 2019, è il premio che le è stato assegnato per l’impegno nell’ethical challenge, diritti umani, privacy e sicurezza dei dati relativo all’AI e Big Data.
Lei è anche co-founder del Women Leading in AI network, qual è il ruolo che svolge questa lobby di donne nel tech?

Quello che facciamo è cercare di portare più donne ad occuparsi di tecnologia, ce ne sono troppo poche e questo è un grande problema. L’altra cosa, ancora più importante, è che siamo nate per fare lobby sulla definizione delle nuove norme che regolamenteranno la tecnologia. Parliamo di standard, policy ed in particolare del nuovo regolamento europeo sull’Intelligenza Artificiale, che dovrà necessariamente tener conto anche dei diritti umani, al fine di eliminare ogni tipo di discriminazione. L’indirizzo che abbiamo tracciato è quello dell’uso dei dati, fatto in maniera critica. Bisogna entrare nei dibattiti, e non vedere la tecnologia come qualcosa di tecnico, ma come portatrice di grandi questioni trasformative per la società, anche in chiave socio politica.

Women Leading è anche stata promotrice di una grossa campagna contro la discriminazione algoritmica. Ci siamo battute per una normativa sul settore, e per l’uso di algoritmi “impact assesment” nell’ambito della normativa europea sulla privacy. Il nostro network esiste da tre anni ed è costituito da un migliaio di membri più attivi, con le quali organizziamo iniziative, eventi, progetti particolari, un network aperto a tutti, ma guidato da donne.

Il professor Swari Srivastava  analizza il fenomeno della “Algorithmic Governance”, la capacità delle nuove tecnologie di produrre un nuovo ordinamento sociale basato sulla creazione di sistemi di conoscenza che utilizzino la profilatura automatizzata e le predizioni per informare ed eseguire decisioni. Ci aiuti a definire l’importanza di questo tema

I dati sono specchio della società, e se utilizzati al loro stato “puro” comportano delle discriminazioni. I dati vanno elaborati, diventano una vera risorsa solo se concepiti alla luce di un obiettivo da raggiungere.

Negli ultimi anni l’utilizzo dei big data si è rivelato fondamentale in tanti ambiti, ma abbiamo anche visto che se il processo si attua senza controlli, porta al verificarsi di fenomeni preoccupanti. In ambito bancario si è assistito all’assegnazione automatica dei mutui che penalizza le donne. In Inghilterra si è verificato il caso di assegnazione automatica dei punteggi per l’accesso alle università che favoriva i ragazzi provenienti dalle scuole private rispetto alle pubbliche.  Per fare un esempio in ambito medicale, in merito al trattamento dei tumori della pelle, se gli algoritmi sono tarati sulle fenomenologie che riguardano la pelle bianca, faranno poi fatica a riconoscere le stesse problematiche sulla pelle nera. Nei Paesi Bassi, 26mila persone con doppia cittadinanza hanno avuto problemi con il fisco perché l’algoritmo ha classificato quel criterio come dato indicatore di frode fiscale. Tutti questi esempi raccontano un unico problema: i dati hanno un grande valore positivo, ma devono essere usati anche in maniera consapevole per non automatizzare le disuguaglianze già presenti nella società di oggi. È quindi fondamentale che i parametri scelti siano neutri. Bisogna lavorare per identificare i criteri “discriminanti” presenti nei big data, ed eliminarli.

Quando si parlava dell’avvento di internet come della nuova rivoluzione industriale, non si aveva forse chiaro il percorso che ci avrebbe portati all’economia digitale, intesa come nuovo paradigma produttivo. Bisognerebbe però ovviare alla poco democratica disparità di accesso ai dati, soprattutto da parte delle Piccole e Medie Imprese.

Per anni io ho promosso una grossa campagna per la sensibilizzazione al trattamento dei dati, intesi come grande risorsa pubblica, e per aprire anche all’accesso da parte di aziende più piccole. Le aziende, dal canto loro, non devono però lasciarsi affascinare dal “techosoluzionismo”. L’Intelligenza Artificiale può migliorare di molto le condizioni ed il business dell’azienda, in parte è vero ma c’è anche bisogno, soprattutto da parte delle PMI, di un approccio strategico che punti a valutare in quali ambiti le nuove tecnologie e l’AI possano davvero essere determinanti.

 Credit scoring, riconoscimento facciale, tecnologie predittive per identificare i truffatori, strumenti di prevenzione del crimine giovanile, pubblicità guidata dagli algoritmi. Sembra di parlare di un futuro distopico, invece è il presente che stiamo vivendo. Perché non ne abbiamo consapevolezza?

I motivi non sono semplici, purtroppo tanti di questi fenomeni avvengono in maniera opaca, è molto difficile separare questa domanda dal tema della competizione. Abbiamo vissuto per tanto tempo nell’idea che la tecnologia fosse neutra, a beneficio di tutti, ora ci si rende conto che così non è, che la tecnologia è creata da esseri umani e profilata in base a quello che gli umani vogliono farne. La tecnologia va poi avanti più velocemente rispetto alle policy. Penso anche che la classe politica, a livello europeo, si renda ora conto dei rischi, oltre che vantaggi, che le tecnologia ha su società e futuro.

Nelle nostre bolle social, l’algoritmo è ormai costantemente invocato, come se fosse un amico invisibile, soprattutto quando “sbaglia a profilarci”. Come funziona questo “amico invisibile” e come si determina il presunto errore di profilazione?

Dobbiamo considerare che c’è un set di istruzioni che funzionano con un clustering. Ciascuno di noi viene inserito in un “gruppo” definito in base alle abitudini, agli interessi comuni, o anche per collocazione geografica della propria abitazione. Parliamo di una innumerevole quantità di dati, ma l’eccesso di dati può rendere la profilazione inefficace, perché tende anche a prevedere quello che ci potrebbe piacere fra dieci anni. L’effetto del ruolo algoritmico come “gateway”, come filtro su società e vita, contribuiscono anche alla nascita e diffusione di alcune fake news, non che l’algoritmo sia la causa, ma amplifica una tendenza della nostra società.

Gli algoritmi di Google usano 3.5 miliardi di richieste di ricerca quotidiane, per modellare la probabilità che un utente clicchi su un contenuto. Facebook genera più di 4 milioni di predizioni al secondo per circa 2.8 miliardi di utenti. Su questi numeri si basa la grandezza di questi Social, ma in termini pratici come questo si traduce in business per le aziende, ed in perdita di “libertà” per gli utenti?

Quando Zuckerberg fu intervistato per la prima volta dal Congresso americano gli fu chiesto: “ma come guadagnate”? e lui rispose “con l’advertising”. Il modello è semplice: un’azienda dice a Facebook cosa vuole promuovere e loro, usando clustering, big data e struttura algoritmica, trovano utenti interessati e guadagnano offrendo servizio al cliente. Ci vuole una frazione di secondo per generare adv, è un sistema che si basa su un’infrastruttura tecnologica che analizza location data, browsing, ed è messo però in discussione dalla norma sulla privacy, che chiede più chiarezza. Questo assetto ci ha portato nel mondo in cui siamo, ed in cui con ritardo si cerca di capire come mitigare i possibili danni. Il “Souveilance capitalism” è il modello economico vigente. La mia generazione è cresciuta non risolvendo i problemi della società, ma facendo adv, è questo il mondo digitale che vogliamo?

Nell’opera “L’uomo dei Sogni” di Hoffman, del 1815, si narra di Ophelia, una cyborg di cui il protagonista si innamora. Nel 1886 si pubblica Eva Futura di Villiers de l’Isle Adam, che ripropone un tema simile. Oggi si impone la visione del transumanesimo, che immagina una società di uomini e donne che siano per metà cyborg, grazie a degli impianti che potenziano le capacità… questo scenario distopico, potrebbe essere invece reale, quanto complicherebbe la produzione dei dati e l’accesso delle big tech al nostro “vissuto”?

Il cyborg è il sogno dell’uomo di avere una macchina fatta a sua immagine, che sia viva, che faccia quello che il creatore vuole. Questa è una questione complicata soprattutto per le donne. La maggioranza degli assistenti domestici, Cortana, Siri, Alexa, sono nuove forme di servitù digitale, e spesso hanno voci femminili, e questo crea un problema etico fondamentale, a mio avviso. Sono figure femminili che non ribattono, ma fanno quello che chiedi loro. In America è stato riscontrato che dicendo ad Alexa “you’re a bitch” la sua risposta era “mi fai arrossire”. Bisogna riflettere su questo, e sull’impatto che ha sui bambini che stanno crescendo imparando a “dare ordini ad un assistente digitale”. Non dobbiamo lasciar gestire la tencologia ai “tecnologisti”, si tratta di una questione sociale a cui bisogna guardare in maniera olistica. In azienda il tema deve essere di interesse del corporate e non lasciato ai programmatori.

La questione della privacy, poi, è complicata. Dico una cosa impopolare, ma non dovrebbe interessarci la privacy a livello individuale ma collettivo, questo è l’elemento portante per garantire alla società la tutela della propria autonomia. Per esempio negli Usa, alla luce di questa grossa battaglia relativa all’aborto, il dato sconcertante è quello che le informazioni raccolte dalle app di monitoraggio del ciclo mestruale possono essere utilizzate per capire se ci sono donne che hanno comunque deciso di abortire, e che quindi “infrangono la legge” o vanno a farlo in altri paesi.

Su questo si giocano tante questioni relative al nostro futuro. Bisognerà cominciare a progettare la “data society” in modo che usi “smart data”, dati sintetici. La vera innovazione si gioca lì.

 

CDP1Advertisement
CDP2Advertisement
WBF

Leggi anche

CDP1Advertisement
CDP2Advertisement
WBF
A2A

Ultim'ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.