Il grande signore del blu

Share on facebook
Share on google
Share on twitter
Share on linkedin
Share on whatsapp

Se fra tutto ciò che vedete le cose blu diventano via via sempre più numerose, sarete portati a pensare o che il mondo stia subendo una bizzarra mutazione cromatica oppure – se siete più inclini al complottismo – che il ‘grande signore del blu’ stia subdolamente esercitando il proprio potere. In realtà, a causa di un singolare incantesimo siamo proprio noi che stiamo colorando di blu il nostro mondo, senza rendercene conto.
La ragione? La nostra realtà digitale è governata da algoritmi, il cui funzionamento è noto a pochi e controllato da ancor meno. Fantascienza distopica alla Philip K. Dick? No, semplice fotografia di ciò che sperimentiamo ogni giorno sui nostri smartphone, tablet, pc. E che influenza le nostre decisioni quotidiane o di lungo periodo, la sicurezza o insicurezza percepite dell’ambiente in cui viviamo, il modo stesso in cui valutiamo il nostro essere parte di una società.

Gli algoritmi, o meglio complessi sistemi di intelligenza artificiale, raccolgono i nostri dati, li interpretano – imparando dall’esperienza – e su tale base selezionano contenuti informativi o pubblicitari proponendoceli in maniera personalizzata. Parliamo pur sempre e solo di digitale, dirà qualcuno a questo punto. Ma, contando che secondo l’ultimo rapporto dell’Agcom il 55% degli italiani (le percentuali negli altri Paesi non sono diverse) s’informa sul web e che ‘il sentiment’ che emerge dal digitale influenza sempre più i media, a partire dalla televisione (che mantiene il 92% delle preferenze come fonte d’informazione), non è proprio di una nicchia che si sta parlando.
Sia chiaro, non esiste il Grande Fratello di orwelliana memoria, è più – come direbbero i militari – un danno collaterale. Facebook, Google, LinkedIn, Twitter & Co. ci offrono servizi complessi, raffinati, personalizzati e gratuiti. In cambio noi accettiamo, più o meno consapevolmente, che registrino le nostre attività e comprendano i nostri interessi, in modo da proporci la pubblicità sempre più adatta: un ‘marketing ad personam’, si potrebbe dire. Offrirci ciò che ci piace è quindi il vero imperativo categorico degli over the top: sia perché così siamo sempre più invogliati a restare sulle piattaforme sia perché più ci restiamo, più dati cediamo, il vero oro del XXI secolo.

Il danno collaterale, è che così facendo, finiamo per infilarci inconsapevolmente in quelle che vengono chiamate ‘echo chambers’. Se ci piacciono i fiori, tenderemo a usufruire di contenuti che parlano di fiori, le piattaforme lo capiranno e ci mostreranno sempre più contenuti a tema floreale… E alla fine a noi sembrerà che il mondo non parli d’altro che di fiori. In questa dinamica entra quello che gli psicologi cognitivi chiamano confirmation bias, ovvero pregiudizio di conferma: abbiamo un’idea preconcetta e istintivamente ne cerchiamo una riprova. Un meccanismo che funziona anche – e soprattutto – con le paure. Abbiamo paura dei furti? Tenderemo a leggere articoli che parlino di ruberie varie, in modo da poter dire a noi stessi: “Vedi che avevo ragione?”. Le piattaforme lo capiranno e ci proporranno sempre più articoli sui novelli Arsenio Lupin. E anche se questi, in realtà, sono una piccolissima percentuale della popolazione, a noi che non vedremo altro che articoli che narrano di furti con destrezza sembrerà di vivere in un mondo di ladri. Risultato: ‘i ladri’ diventeranno la minaccia da debellare. Una realtà percepita ben diversa da quella fattuale.

Il fatto che è alla base dell’ecosistema digitale in cui viviamo ci sia questa intelligenza artificial genera tre problemi. Problema numero 1: gli algoritmi, per definizione, sono sequenze complesse di operazioni semplici il cui funzionamento è pianificabile ma il risultato non è esattamente prevedibile. Problema numero 2: la loro struttura non è trasparente, è nota solo a chi ne è proprietario, anzi sono protettissimi segreti industriali.

Problema numero 3: se è vero che non conosciamo la struttura esatta degli algoritmi, possiamo “governarne” gli effetti. Basterà cioè proporre a chi ha paura dei ladri, contenuti, veri o falsi (ricordate le fake news?) che parlino di ladri, per attizzare le paure e sfruttare queste dinamiche collaterali delle piattaforme digitali per scopi decisamente poco etici, ad esempio fare propaganda pret-a-porter, semplice, veloce ed economica ma estremamente efficace.
Siamo di fronte alla ‘lato oscuro della Luna’ del web. Una ricetta semplice e immediata per ‘illuminarla’ non esiste, ma essere consapevoli che questo aspetto esista e che abbia una così potente capacità d’influenza sulle nostre capacità cognitive e culturali, è sicuramente un primo, importante passo. Educare al digitale diventa così una priorità, un’emergenza, per non lasciare le ‘leve di comando’ in mano a pochi e non allargare, pericolosamente, il divario fra realtà percepita e realtà fattuale.