Grand entretien : l'impact social des algorithmes (Linkiesta, Italie, 16 mai 2015)

Dans le magazine en ligne italien Linkiesta.it, le journaliste Dario Ronzoni interviewe le sociologue Antonio Casilli sur l’impact social des algorithmes : inégalités, surveillance et stratégies des usagers pour contrer la polarisation politique.

>> “La società degli algoritmi sarà più ingiusta e ineguale”

“La società degli algoritmi sarà più ingiusta e ineguale”

L’automazione potrebbe portare alla polarizzazione tra classi egemoni e nuovi poveri. Il controllo sociale finirà in mano a strumenti opachi
 In principio fu uno studio scientifico, pubblicato nel 1998. Si intitolava The Anatomy of a Large Scale Hypertextual Web Search Engine, e illustrava il prototipo di PageRank, l’algoritmo per motori di ricerca elaborato da due studenti dell’Università di Stanford, Larry Page (da cui deriva il nome dell’algoritmo) e Sergey Brin. Nel giro di pochi anni avrebbero messo alla prova il loro esperimento fondando Google, che funziona proprio con PageRank e conquistando il mondo. PageRank, va notato, è rimasto di proprietà di Stanford, anche se i diritti di utilizzo appartengono ai due creatori.

Da quel momento, nel mondo dei profani, si fa strada il concetto di algoritmo, almeno nell’accezione più ristretta di entità logica, o di formula matematica che condifica alcune operazioni per l’ottenimento di un risultato. Una presenza opaca e sempre più diffusa: è con gli algoritmi che funzionano i programmi e le macchine con cui si interagisce ogni giorno, anche quelle più insospettabili (le lavatrici). La formula matematica porta all’automazione, e l’automazione ha il beneficio di rendere diverse operazioni molto più semplici. Al tempo stesso, però, si appropria di ambiti di azione che, in precedenza erano affidate all’uomo. O che, almeno, erano regolati secondo procedure note. Ora è sempre meno così: capire come agiscono gli algoritmi è sempre più complesso e, in molti casi, si tratta di un segreto commerciale. Il risultato è che molte delle scelte compiute sono incoraggiate e indirizzate da meccanismi ignoti. È un pericolo? Oltre alle conseguenze individuali, che tipo di impatto può avere tutto questo sulla società? Non è semplice.

Antonio Casilli, senior lecturer in Digital Humanities a Telecom Paris Tech e ricercatore di sociologia al Centre Edgar Morin all’Ehess (École des Hautes Études en Sciences Sociales, ricorda che, nonostante quanto sostengono alcuni ricercatori di Facebook, «nessun algoritmo è neutro. Anzi, l’algoritmo per definizione ha la funzione di determinare la direzione e la scelta. Di fronte agli algoritmi occorre sempre farsi due domande: chi ha determinato il risultato da raggiungere? Chi ha deciso le operazioni da compiere? Sono implicazioni fondamentali che hanno conseguenze notevoli».

Che conseguenze hanno gli algoritmi, a livello sociale? Che impatto hanno su un concetto dibattuto come le classi sociali?
Se non ci limitiamo a una definizione tradizionale di classe sociale, cioè fondata sul capitale finanziario, e la allarghiamo ad altre forme di capitale, come quello sociale e quello culturale, vediamo che gli algoritmi hanno un impatto enorme su tutti questi tre aspetti.

Cominciamo da quello finanziario.
Qui si può dire subito che l’effetto è quello di favorire le posizioni già dominanti. Le egemonie economiche si allargano e diventano anche politiche. Non si parla solo degli effetti di piattaforme di trading, ad esempio, o in generale di scambio di titoli borsistici, per le quali esistono e vengono creati ogni giorno algoritmi sempre più sofisticati e complessi. Il lato finanziario riguarda anche ambiti più quotidiani, come le banche o le assicurazioni. Qui uno degli aspetti più inquietanti è la reputazione delle performance personali.

I dati su cui banche e assicurazioni effettuano le loro valutazioni delle persone, però, non sono solo quelli “pubblici”. Ne usano anche molti altri che vengono ottenuti in modo più subdolo

In cosa consiste?
Esistono algoritmi che valutano il rischio associato a una persona. Sono strumenti utilizzati dalle assicurazioni nei confronti degli individui, per decidere eventuali premi, o dalle banche, per accordare prestiti a interessi più o meno alti. Se la reputazione di una persona è buona, allora sarà maggiore la possibilità di ottenere un mutuo a tassi più convenienti.

Come vengono stabiliti questi criteri di classificazione?
Si basano su scelte algoritmiche decise dalle singole istituzioni. I dati su cui effettuano le loro valutazioni delle persone, però, non sono solo quelli “pubblici”, rilasciati in modo consapevole dal cliente. A questi se ne aggiungono molti altri che vengono ottenuti in modo più subdolo, cioè all’insaputa del cliente. Ad esempio, dalle sue pagine social. In questo modo, se uno pubblica sue fotografie in deltaplano, per esempio, potrebbe risultare un cliente più a rischio, almeno per i parametri di una assicurazione. E questo implicherebbe un aumento del premio. Lo stesso può valere per qualsiasi altro aspetto della vita personale: può influire, senza che se ne possa rendere conto, sulla sua “reputazione”, e decidere elementi importanti della sua vita. E non parlo solo del mutuo.

Su cosa altro potrebbe influire?
Ad esempio sull’accesso alle cure mediche. I dati della salute degli individui sono molto ricercati, e da questi si può stabilire a quali cure ciascuno di noi abbia diritto. È un modo molto forte per ingrandire le diseguaglianze nella società e, di fatto, stabilire diversità di grado nel godimento dei diritti fondamentali. Sono le assicurazioni, o gli algoritmi che usano, che un giorno potrebbero decidere le nostre cure, e non è detto che siano sempre ottimali. Anzi. Lo stesso potrebbe valere per l’istruzione. Ci sono algoritmi che propongono percorsi scolastici determinati dalla zona di provenienza, dagli interessi mostrati e dalle disponibilità finanziarie. Anche qui, il rischio è che un individuo veda già, a partire dall’ambiente in cui è nato, quale sarà la sua esistenza futura, che tipo di impiego avrà e che tipo di stipendio potrà ottenere. Senza nessuna possibilità di cambiare la propria situazione di partenza.

L’atteggiamento dell’utente in rete e in generale di fronte all’automazione può fare la differenza. Può essere passivo, cedendo i dati e alimentando tutto l’ecosistema. Oppure cercare di ingannare l’algoritmo

Chi ha determinato la prevalenza degli algoritmi? Chi li introduce e governa?
L’ecosistema che sta dietro agli algoritmi è complesso. I principali attori sono quattro: in primo luogo metterei la classe politica. La loro azione è di sostituire, sempre di più, la funzione algoritmica alle scelte giuridico/politiche. Molte delle decisioni sono demandate all’automazione. In Francia ha fatto molto discutere la legge antiterrorismo presentata dal ministo dell’Interno Bernard Cazeneuve, che comprende anche una serie di provvedimenti automatizzati e decisi da un algoritmo, soprattutto in rete. Ecco, affidare all’automazione – senza previa autorizzazione e, soprattutto, senza che ci sia un consenso informato da parte della popolazione – l’amministrazione politica di un Paese è molto grave.

Chi sono gli altri tre attori?
In secondo luogo, i creatori di piattaforme digitali, come Google o Facebook, che basano sugli algoritmi il proprio business, creandone di volta in volta di nuovi. Al terzo posto i data broker, cioè i “procacciatori di dati”, possessori di immense basi di dati su milioni di persone, li acquistano (o prelevano) e li rivendono a chi li può utilizzare. Al quarto posto metterei, infine, l’utente stesso. Il suo atteggiamento in rete e in generale di fronte all’automazione può fare la differenza. Può essere passivo, cedendo i dati e alimentando tutto l’ecosistema, oppure può cercare di mettere in difficoltà l’algoritmo con tecniche particolari di nascondimento dati.

In che senso?
Si può cercare di navigare in modo anonimo, ad esempio, con sistemi di invisibilità come Tor. Oppure di aprire più pagine su un social network, magari utilizzando un altro nome. Sono mezzi irrituali ma non illegali: mentire a un’assicurazione è illegale, ma mentire a Facebook no, (almeno, per ora). Sono operazioni molto più diffuse di quanto si pensi, ma poco studiate.

Ma che vantaggi possono averne, almeno, a livello immediato, gli utenti che fanno resistenza?
Ad esempio, gli algoritmi tendono a individuare i nostri comportamenti abituali su Internet, e approfittarne. Se siamo abituati a usare un sito particolare per cercare occasioni di viaggio, per esempio, con il tempo troveremo offerte sempre meno vantaggiose: il sistema impara a conoscerci e ci valuta sulle nostre disponibilità. Alla fine ci farà proposte più adeguate a quanto si può spendere. Se si cambia sito, l’algoritmo avrà bisogno di tempo per scoprire chi siamo e quanto possiamo spendere.

La promessa di Facebook è di garantire che noi possiamo mantenere il controllo sui nostri rapporti interpersonali. In realtà avviene il contrario: è Facebook che lo mantiene

Tutto questo per quanto riguarda il capitale finanziario. Cosa succede invece al capitale sociale?
Qui entrano in gioco i social network, cioè programmi di algoritmi che hanno, come compito, di mettere in contatto persone con persone (programmi come Google, ad esempio, mettono in contatto persone con informazioni). Si parla di Facebook, di LinkedIn, e così via. Il loro impatto è molto forte perché si inserisce nei nostri rapporti personali. Su Facebook, ad esempio, non è importante quello che diciamo ma le persone con cui siamo in contatto. Ecco: se la promessa del social network è di avere il controllo sui nostri rapporti interpersonali, si può già dire che è stata disattesa.

Perché?
Perché non siamo noi ad avere il controllo sui nostri contatti, ma Facebook, o LinkedIn. Ogni utente del social network ha una media che va da 130 a 300 contatti. Non sarebbe possibile ricevere, sempre e insieme, gli aggiornamenti di ciascuno. Per questo esiste un algoritmo che decide quali utenti e quali temi sono di maggiore interesse per ciascuno. E ce li fa visualizzare. Lo fa secondo quelle che gli economisti definirebbero le nostre “preferenze rivelate”, cioè quelle con cui interagiamo di più, con cui abbiamo più scambi, che scrivono post su cui ci soffermiamo più a lungo. In ogni caso, siamo di fronte a una manipolazione algoritmica della nostra vita.

Ma cosa ci guadagna il social network?
Oltre alla pubblicità profilata, è un modo per ottenere fidelizzazione. Ridurre il newsfeed a pochi contatti può sembrare monotono, ma è rassicurante. Crea una comfort zone che fidelizza l’utente. Il rischio è che si crei una bolla, cioè una eco chamber, in cui si vedano solo contenuti che ci piacciono e che dicono quello che pensiamo noi. Quando, ad esempio, è avvenuto il caso di Charlie Hébdo, il numero di denunce per apologia del terrorismo ha avuto un picco. Come mai? Si spiega proprio con la bolla, che in quelle ore è saltata. Gli utenti erano avidi di notizie e aggiornamenti su ciò che succedeva a Parigi. Per questo motivo gli articoli e i post che trattavano gli sviluppi della vicenda erano molto alti nel ranking di Facebook. In una parola, venivano messi su tantissime bacheche. Questo ha fatto sì che post di persone o di giornali con visioni politiche precise, anche molto orientate, comparissero all’improvviso sulla bacheca di persone che non erano abituate a vederli. Per molti è stato uno shock: la comfort zone era stata rotta, l’utente si trovava di fronte a frasi, commenti e letture che non era abituato a vedere e che non credeva più nemmeno possibili. La reazione immediata è stata una pioggia di segnalazioni per apologia del terrorismo.

Che conseguenze ci saranno insomma, di fronte a questo strapotere degli algoritmi?
C’è il rischio di una polarizzazione sociale. La classe egemonica potrebbe tendere ad accrescere le proprie disponibilità, sia finanziarie che sociali. Dall’altra parte si potrebbe sviluppare una classe di poveri sempre più ampia, con minori possibilità di crescita economica e culturale. La depauperizzazione è in atto, anche con modi subdoli, classificazioni, divisioni in classi di prezzo e di disponibilità. con provvedimenti anche al di fuori dello stato di diritto. E la cosa grave è che la politica non fa nulla per impedirlo, anzi, propone soluzioni basate su algoritmi, rinunciando al proprio compito decisore e affidandosi a strumenti opachi di cui, perfino, si ignora l’efficacia. È come chiedere a qualcuno di guidare una macchina senza la garanzia che, sterzando a destra, girerà a destra. Chi lo farebbe? Ecco. Più o meno, lo facciamo tutti.