facebook

Facebook contro tutti (intervista in Jacobin Italia, 14 dic. 2018)

Non faccio spesso interviste in italiano, ma quando le faccio passo svariate ore a parlare con il giornaliste Giuliano Santoro. Il risultato è questa intervista-fiume per Jacobin Italia che esplora le relazioni fra Facebook, i mercati, la società e gli stati-nazione.

Facebook e gli altri divoratori di mondi – Jacobin Italia


La tolda dell’astronave madre dell’impero digitale scricchiola davvero? Come evolve il capitalismo delle piattaforme e che rapporto ha con gli stati? Conversazione con Antonio A. Casilli

I segnali  sono arrivati, uno dopo l’altro, nel giro di pochi giorni. Prima il New York Times ha pubblicato un’inchiesta molto dettagliata dalla quale emerge il ruolo dei vertici di Facebook nel nascondere l’evidenza sulla diffusione di fake news ed hatespeech parte di vere e proprie campagne di disinformazione. Per di più, sarebbe emerso che Facebook stesso ha diffuso notizie false e illazioni per intorbidire le acque e intimidire le voci critiche. Secondo il New York Times, Mark Zuckerberg e la direttrice operativa Sheryl Sandberg avrebbero ignorato i segnali di allarme sulle interferenze russe e sullo ruolo di Cambridge Analytica, per negarli e poi sviare l’attenzione dalla società con campagna dietro le quinte contro le rivali, puntando a denigrare la figura del miliardario George Soros. Il Wall Street Journal ha rivelato che lo stesso Zuckerberg avrebbe convocato una cinquantina di luogotenenti per spronarli ad avere un atteggiamento più aggressivo. «Siamo in guerra», sarebbe stato l’allarme del creatore di Facebook. A questa guerra corrisponderebbe il calo delle quotazioni di borsa del titolo  di Facebook e di altri titoli dei giganti digitali. Alcuni teorizzano addirittura che ci troveremmo davanti a una bolla che potrebbe scoppiare. Voci dalla Silicon Valley dicono che per la prima volta e in maniera più consistente, aumenta la sfiducia dei lavoratori di Menlo Park nella capacità dell’azienda e del suo condottiero: sarebbe scesa di 32 punti, al 52%. Infine, da tempo si sostiene che il numero degli abitanti del pianeta Facebook, dei profili, sia in diminuzione.

Stiamo assistendo davvero alla graduale implosione dell’astronave madre dell’Impero? E  se veramente  dovesse accadere, cosa ne sarebbe del rapporto con Internet dei tanti utenti che utilizzano Facebook come unica via di accesso alla rete e scambio di informazioni? Viene in mente la nota metafora utilizzata da David Foster Wallace. Racconta di due pesci che incontrano un pesce proveniente dalla direzione opposta. Questo fa un cenno di saluto e dice: «Salve ragazzi! Com’è l’acqua oggi?». I due pesci proseguono per un po’ finché uno si paralizza e stupito si domanda: «Acqua? Che cos’è l’acqua?». Bene, se l’Acquario di Facebook dovesse prosciugarsi, cosa accadrebbe? Cosa ne sarebbe della nostra esistenza a cavallo tra reale e digitale senza la piattaforma che più di altre contribuisce a creare la nostra esperienza quotidiana? Ne parliamo con Antonio A. Casilli, che – tra le altre cose – insegna digital humanities al Telecommunication College del Paris Institute of Technology ed è ricercatore all’Ecole des hautes études en sciences sociales. Nel 2019 uscirà il suo nuovo libro sul lavoro digitale, che si intitola En attendant les robots. Enquête sur le travail du clic. «Quelli che hai appena elencato sono fenomeni che si verificano nello stesso momento, ma sono diversi tra loro», esordisce Casilli.

Bene, cominciano dalla borsa?
Facebook, così come Snapchat e altre aziende di questo tipo, sono sul mercato da relativamente poco. A parte certi giganti della tech come Amazon, che è quotata dal 1997, o Google, che vende azioni dalla metà degli anni 2000, si tratta di società che sono sui mercati borsistici da meno di dieci anni. Certo Facebook non è soltanto le sue azioni. La piattaforma esiste da prima, dal 2004, e ha una vita indipendente dalla borsa. Ed è una vita movimentata. Dalla sua nascita, è soggetta a delle crisi cicliche. Da questo punto di vista è l’incarnazione perfetta del capitalismo della Silicon Valley. Ha alti e bassi, e non solo in termini di valorizzazione. Spesso queste crisi sono di natura sociale, sono dei momenti di reazione da parte dei suoi stessi utilizzatori che si ribellano e insorgono contro la direzione della piattaforma. Ciò può avere a che fare con le scelte di design dell’azienda, o con alcuni grandi o piccoli scandali. Ad esempio quando, già nel lontano 2005 Facebook introdusse il newsfeed, gran parte degli utilizzatori dell’epoca non apprezzarono questa scelta. 700 mila abbonati, che per l’epoca era quasi il 10% degli utenti registrati, organizzarono petizioni, costrinsero Zuckerberg a chiedere ufficialmente scusa. In quel caso, come in altri, prima Facebook fece  marcia indietro e poi continuò come se niente fosse accaduto. Quando più tardi, nel 2009-2010, Facebook iniziò a pubblicare una serie di informazioni personali dei suoi membri, questi chiamarono in causa la Federal tradecommission. Anche lì Facebook disse che avrebbe tenuto conto delle critiche ma decise in ultimo di ignorarle. Quindi c’è sempre questo ciclo costante di reazione della base-utenti cui segue la contro-reazione di Facebook. Di solito è lo stesso Zuckerberg che si esprime e chiede scusa ufficialmente in una lettera aperta o pubblica un manifesto nel quale spiega le sue motivazioni. Questi documenti seguono sempre più o meno la stessa traccia: Zuckerberg dice che ci ripenserà e poi, immancabilmente, procede come se niente fosse. È la strategia del tango: un passo indietro e due in avanti. La crisi che sembra attraversare Facebook è coerente con questo andamento ciclico dei rapporti tra la piattaforma e il suo pubblico. La piattaforma mantiene un’attitudine totalmente predatoria nei confronti dei suoi abbonati, i quali cercano di farsi ascoltare ed essere riconosciuti. Questi auspici sono costantemente delusi.

Antonio A. Casilli

Ci stai dicendo che le battute d’arresto non sono una novità…

Senz’altro. Nel giugno 2013, ad esempio, Facebook fu al centro delle rivelazioni di Snowden e accusò il colpo del datagate più di altre aziende che pure erano menzionate (ad esempio Skype, Yahoo!, PayPal). Fu uno shock. Allo stesso tempo da noi si è parlato poco di quello che è successo in paesi come Egitto, Thailandia e India a proposito dell’introduzione a partire dal 2016 di un servizio che si chiama Free Basics, una specie di versione povera e non network neutrale di Facebook. Si trattava di un servizio di smartphone a buon mercato che permetteva l’accesso solo a pochi siti, fra cui Facebook. Era venduto in paesi emergenti, in cui ci sono problemi di connettività o in cui il prezzo della connessione era molto elevato. In India però l’autorità di controllo sulla telefonia, la Trai, si è opposta nel 2016, in seguito a manifestazioni, proteste e mobilitazioni online. A Facebook veniva contestata l’intenzione di creare un monopolio e di violare la neutralità della rete. Ma le autorità e la società civile indiane erano andate più in là, accusando Facebook di voler istituire una forma di colonialismo corporate. Zuckerberg cercò di difendersi pubblicando un editoriale sul Times of India nel quale sfoderava i suoi soliti argomenti: stiamo facendo tutto questo per il vostro bene, per permettere l’accesso a Internet, perché più connessione significa più progresso e democrazia. Meno diplomatico, Marc Andreessen, uno dei principali azionisti di Facebook, prese l’accusa di colonialismo alla lettera, lanciandosi in una maldestra apologia dei crimini coloniali. Dichiarazioni mostruose, rivelatrici di un’attitudine della Silicon Valley. Ma alla fine il servizio fu interrotto. Questa è una di quelle volte che Facebook non l’ha spuntata.

È andata così anche nel caso delle vertenze con gli enti preposti alla tutela della privacy?

Facebook è un mercato pubblicitario di dimensioni strabilianti. Funziona come una gigantesca agenzia pubblicitaria che si occupa non di creare servizi per utenti ma di fornire servizi a inserzionisti e aziende che comprano spazi, analisi di mercato, informazioni personali. Nessuno dei giganti del passato è accostabile a Facebook. Forse un po’ Microsoft, che non ha avuto crisi cicliche comparabili. Tutt’al più la società di Bill Gates ha avuto problemi ricorrenti con la Federal trade commission, per questioni di antitrust. Facebook negli anni ha incontrato una serie interminabile di ostacoli, soprattutto legati alla privacy per via di alcune azioni di diversi stati e della società civile in Europa. Ma si è trattato di frecce spuntate. Più volte il Garante della privacy in Italia o la Cnil, l’Autorità francese per la protezione dei dati, hanno comminato multe ai giganti del web. Ma a Facebook finora, è convenuto pagare ogni tanto una multa da 500 mila euro e continuare a macinare guadagni da centinaia di milioni di dollari al giorno. Perfino la sanzione di 10 milioni di euro che l’antitrust italiano gli ha inflitto il 29 novembre 2018 per violazione del Codice del Consumo è un rischio calcolato per Facebook. È come pagare una tassa. Bisogna anche dire che le cose sono cambiate con l’arrivo Gdpr, il regolamento Ue in materia di dati personali e privacy in vigore dallo scorso mese di maggio. Non ne conosciamo ancora gli effetti, ma i segnali sono incoraggianti. Per esempio, la class action None of Your Business lanciata dall’austriaco Max Schrems contro Android, Instagram, Whatsapp e Facebook. O quella lanciata in Francia da La Quadrature du Net contro la stessa Facebook, ma anche Google, Apple, Amazon e LinkedIn. Se queste cause dovessero andare in porto Facebook si troverebbe a pagare parecchie centinaia di milioni di euro. Ciò farebbe la differenza. Comunque finora non ci si è mai avvicinati non dico al colpo fatale, ma ad azioni di cui Facebook semplicemente si accorga dal punto di vista del suo funzionamento.

Dunque, come leggere la flessione sui mercati finanziari?

Bisogna interpretarla tenendo presente il modo in cui Facebook tratta il suo corso in borsa. Al contrario delle grandi aziende tradizionali, le piattaforme digitali non comprano e rivendono i loro stessi titoli per non far stagnare il mercato e dare a vedere ai propri azionisti che c’è una progressione del loro titolo. Facebook, come del resto anche Amazon o Google, non funziona così. Quando fanno dei profitti non li reinvestono per tenere su il corso del loro titolo in borsa. Li reinvestono in innovazione tecnologica, fanno gli investimenti come dovrebbe fare una qualunque azienda, quegli investimenti che le aziende tradizionali hanno smesso di fare. Da questo punto di vista il corso in borsa per le piattaforme digitali va visto più come un segnale da dare ad altri partner e investitori potenziali, invece che un fattore dal quale dipende la sopravvivenza. La sopravvivenza, invece, dipende dal fatto che l’azienda sia sempre in uno squilibrio fecondo, che sormonti crisi dopo crisi. E che importa se andando in fretta, come dice il motto di Zuckerberg, si finisce per «rompere cose». Qui, l’imperativo break things significa produrre innovazione, e il corso in borsa importa relativamente poco.

Il Nasdaq era crollato proprio perché le aziende non distribuivano dividendi agli investitori. Il passaggio al web 2.0 è stato un modo per colmare questo divario riuscendo a mettere al lavoro gli utenti con la scusa della partecipazione. Quando tu descrivi questo modo di stare in borsa, quasi da imprenditori ideali, ci stai dicendo anche che quel modello funziona ancora alla perfezione.

Per certi versi le piattaforme digitali, Facebook in testa, hanno ripreso la missione storica delle imprese tradizionali del secolo scorso. Tutte le altre aziende hanno abdicato a questa missione, sotto i colpi della globalizzazione e della finanziarizzazione. Quindi stanno cercando di trattenere gli investitori ma l’unica cosa che possono fare è promettergli da qui a diciotto mesi un ritorno sugli investimenti del 30%. Facebook non ragiona in questi termini. Paradossalmente, è più all’antica delle aziende pre-Internet! Anzi, si può dire che Facebook, in quanto azienda, spinga all’estremo certi tratti delle entità produttive tradizionali: attira una massa enorme di utenti-lavoratori, che producono conoscenza, dati e contenuti, in cambio di niente o quasi niente e in un contesto di controllo sociale capillare. Non te ne puoi andare da Facebook. Soprattutto, se sei un utilizzatore, e non un inserzionista o un data broker. È l’effetto lock-in, sei chiuso dentro. Una volta che sei catturato, l’unica cosa che ti resta da fare è produrre valore per l’azienda, nella maniera classica: producendo dati, producendo post, producendo reazioni e circolazione di contenuti. Quello che importa a Facebook non è il testo del tuo messaggio, non è la foto del tuo gatto, sono piuttosto i suoi metadati: quando l’hai scritto, con che smartphone hai scattato la foto, quale era il tuo indirizzo Ip. E poi i metadati sociali: quanta gente l’ha condiviso, quante reazioni ha generato. Sono informazioni che servono a fare analytics e che possono essere importantissimi dal punto di vista pubblicitario. Gli iscritti di Facebook lavorano per produrre dati che sono venduti dalla piattaforma. E non dimentichiamo che lavorano anche per produrre dati che sono utilizzati dalla stessa Facebook ai fini dell’automazione. Servono a produrre algoritmi che apprendono, quello che includiamo di solito sotto l’espressione generica machine learning. O per produrre soluzioni automatizzate sul filtraggio di dati, sulla raccomandazione di contenuti, l’Edge Rank stesso, che è l’algoritmo che gestisce il feed. Tutto ciò si basa sul presupposto che gli utenti-lavoratori siano lì, non possano andare via e una volta che stanno lì non possano che lavorare per Facebook.

Come interpretare allora le notizie sul calo degli utenti? Non è un fenomeno che, seppure limitato, potrebbe indicare una tendenza?

C’è da una parte una perdita del ritmo di nuovi arrivi sulla piattaforma, dovuto al fatto che il mercato dei social è saturo. Con quasi due miliardi di accounts e nuovi mercati globali (come l’India o la Cina) irraggiungibili, c’è poco da sperare che «il prossimo miliardo di abbonati» si iscriva presto… Poi c’è anche l’effetto di grossi repulisti nella base dati di Facebook e delle aziende del suo giro. A fine novembre 2018, Instagram ha fatto una specie di purga generale di account vecchi, inerti e fake. In corrispondenza delle elezioni brasiliane, la stessa cosa è successa su WhatsApp. Quando ci sono importanti scadenze politiche o economiche, o per lancio di nuovi servizi, le piattaforme hanno bisogno di fare pulizia nella loro base utenti. Il motivo per cui ne hanno bisogno è legato anche al fatto che spesso in fasi di crescita accettano di tutto. Facebook è esemplare da questo punto di vista. Ha avuto sempre e costantemente fasi di crescita forzata nelle quali i loro i criteri per la creazione dei profili erano meno stringenti. Nel 2011, c’è stato il periodo in cui Zuckerberg esortava a creare profili per bambini ancora non nati  oppure per cani, gatti a altri animali da compagnia. Ci sono stati periodi in cui Facebook chiudeva un occhio sul fatto che una singola persona avesse più profili, magari uno professionale e uno personale. Ma a queste fasi di laissez-faire, seguono periodi di austerità. Appena l’anno dopo, la piattaforma ha imposto la “politica dei nomi veri”: ogni utente doveva registrarsi con una sola identità che doveva per di più essere la sua identità civile, quella certificata dal suo documento.  I cali improvvisi degli iscritti , come è capitato nel 2018 quando Zuckerberg ha rimosso più di 500 milioni di fake, sono dovuti a politiche di zero tolerance verso i profili sotto pseudonimo, messe in atto dopo i vari scandali legati alle elezioni presidenziali statunitensi. Se c’è una decrescita del numero degli utenti, ciò è legato al fatto che le regole sono cambiate e che Facebook è diventato un po’ più esigente.

Sta però accadendo che tra i lavoratori della Silicon Valley circolino dubbi e critiche. È come se avessero maggiore consapevolezza. C’è qualche crepa in questo meccanismo all’apparenza perfetto?

Certo, ma la consapevolezza dei lavoratori della Silicon Valley si concentra in alcune figure professionali, soprattutto nei quadri intermedi. Sicuramente, c’è una presa di coscienza dei crimini economici e politici del capitalismo delle piattaforme, come per esempio quando i lavoratori di Google si oppongono a certe iniziative del loro datore di lavoro, come il programma di droni assassini Maven , o il motore di ricerca censurato Dragonfly. Ma questa conflittualità resta ristretta a poche nicchie di lavoratori privilegiati e non si generalizza. C’è poi il fatto che, da quando Trump è al potere, il mercato del lavoro della tech è diventato meno dinamico a causa delle restrizioni sull’immigrazione, anche di quella specializzata. È rallentato ad esempio il flusso di tecnici provenienti dall’India. Malgrado i lavoratori della Silicon Valley siano contrari in generale a queste restrizioni, è vero però che meno mobilità internazionale significa per loro meno concorrenza per i posti di lavoro. E nella misura in cui attualmente i lavoratori dell’ecosistema della Silicon Valley si sentono meno minacciati dalla concorrenza internazionale, si sentono più sicuri per rivendicare protezione e rispetto.

C’è una precisa ideologia dietro le piattaforme che in qualche modo è strettamente connessa al modello di  business. Forse se il capitalista di un tempo avesse annunciato che lo scopo della sua impresa era portare la pace nel mondo gli avrebbero riso in faccia. Oggi Zuckerberg lo dice, magari non gli si crede ma  non sembra assurdo che lo dica. Eppure, in Italia prima che negli Usa, abbiamo sperimentato che la partecipazione via social non corrisponde automaticamente a maggiore democrazia e partecipazione reale. Al contrario: serve ad abbassare il livello del discorso e premia i contenuti beceri.

Finora abbiamo parlato del modello di affari, questo aspetto invece attiene al modello culturale di Facebook. Il capitalismo novecentesco ha sempre avuto l’ambizione di avere anche una valenza sociale. Le aziende con un messaggio, dall’«automobile per le masse» di Henry Ford agli «United colors of Benetton», sono stati grandi successi industriali che si basavano su quelli che in comunicazione si chiamano «discorsi di accompagnamento». Si tratta di narrazioni, di storytelling, che aiutano l’adozione di una merce o di un servizio. Da questo punto di vista, Facebook ancora una volta si ricollega al capitalismo più classico. Ogni anno, la piattaforma immette sul mercato nuovi servizi di entertainment sociale che servono immancabilmente a produrre dati. E ogni volta, questi servizi sono accompagnati da promesse di rinnovo della società in nome della connettività generalizzata che renderà tutti amici, tolleranti e democratici.

Il che è stato clamorosamente smentito dalla vittoria di Donald Trump e dal ruolo che, volente o nolente, Facebook ha rivestito in quella campagna elettorale!

Certo, e questo ha determinato un cambiamento di rotta. Facebook ha cambiato recentemente il suo posizionamento e la sua promessa. Lo ha fatto nel 2017, quando Zuckerberg ha pubblicato il suo manifesto programmatico “Building Global Community” nel quale auspicava un ritorno a un mondo di piccole comunità coese. «In un mondo in cui le comunità sono in declino – dice in sostanza – Facebook può aiutare a rinforzare le reti di solidarietà umana divenendo una vera e propria infrastrutturasociale che ci salverà da crisi, crimini e catastrofi». Facebook non è più la pozione magica che rende gli uomini più buoni, ma il meccanismo di resilienza contro i cattivi. L’immaginario sociale di Zuckerberg proietta una società fatta di tanti piccoli isolotti che Facebook tiene insieme. Dobbiamo chiederci qual è la performatività di questo messaggio. Vale a dire, nel momento in cui Zuckerberg lo ha divulgato, che effetti concreti ha prodotto? Intanto ha imposto una visione che è anti-statalista e libertariana di destra. È una visione comunitaria nel senso peggiore del termine, di rottura delle basi di lealtà che reggevano gli stati moderni, sostituiti da logiche di mercato. È una visione che, sincera o non sincera, spinge gli utenti a comportarsi di conseguenza. Anche perché sono sotto il controllo degli algoritmi che stabiliscono ad esempio cosa possono guardare, con chi possono connettersi, eccetera. Dal gennaio 2018 questi algoritmi sono diventati ancora più restrittivi. Col pretesto di favorire i “legami forti”, vediamo sempre meno persone che non conosciamo anche nella vita di tutti i giorni. Gli incontri fortuiti con persone al di fuori della nostra cerchia di conoscenze sono diminuiti drasticamente, nel nome della lotta contro spam e troll. Certo, non smettiamo di essere amici di perfetti sconosciuti. Ma i loro contenuti appaiono meno spesso sui nostri muri. Dunque si è spinti a comunicare e produrre messaggi specializzati per comunità o piccoli gruppi. Siamo passati dal Facebook del «Siamo tutti amici» al Facebook del «Ogni uomo è un’isola».

Un ruolo fondamentale affidato a un operatore privato.

È appunto un’infrastruttura, come i binari del treno che conducono da un posto all’altro merci e persone. Solo che il capitalismo infrastrutturale del passato, che produceva energia per tutti o che collegava una città all’altra, era largamente promosso da iniziative statali e non private. Anni fa, l’economista Paul Krugman propose sul New York Times, di considerare Google come un servizio di utilità pubblica – e perciò collettivizzabile. Così anche Facebook, per alcuni è un attore egemonico di mercato, dunque bisogna frammentarlo o, al contrario, nazionalizzarlo. Per evitare questi rischi Zuckerberg, come un Berlusconi redivivo, starebbe pensando a scendere in campo per le elezioni.

Al momento è fantapolitica, però ci dice qualcosa della commistione tra privato e statale.

Più che commistione parlerei di cattura istituzionale. Abbiamo a che fare con una situazione caratterizzata da enormi oligopoli. Il rapporto delle piattaforme nei confronti dello stato è estremamente predatorio e opportunista. Per decenni le aziende della Silicon Valley hanno approfittato di aiuti pubblici, statunitensi e non solo. E continuano ancora! Ma gli stati non sono solo investitori della prima ora delle piattaforme: sono anche tra i migliori clienti. Gli stati delegano sempre più attività a queste grandi aziende. Per esempio responsabilità di sorveglianza di massa. Dopo la metà degli anni 2010, con la grande ondata di attentati in Europa e negli Stati uniti, i governi nazionali sembrano avere normalizzato la logica della violazione sistematica della privacy dei loro cittadini. In maniera cinica, hanno interpretato le rivelazioni di Edward Snowden in un manuale su come spiare sulla vita dei loro cittadini. E in maniera ancora più cinica, le piattaforme hanno trasformato questa contingenza in una occasione di business, fornendo servizi di sorveglianza capillare. È così che è nato il nuovo regolamento europeo approvato il 6 dicembre 2018, che delega alle piattaforme una serie di attività di sorveglianza e censura in nome della lotta al terrorismo. Questi sono i grossi cambiamenti, mai su questa scala c’è stata una delega di potere così importante a strutture private.

È come se gli stati diventassero un’articolazione delle piattaforme…

Gli stati nazionali hanno fallito le loro principali missioni storiche, mi riferisco a cose come produrre il cambiamento sociale  o assicurare il benessere alla gran parte della popolazione. E i mercati si sono resi conto che non hanno bisogno degli stati per funzionare. Se in generale gli stati appaiano meno adatti al mutamento delle aziende, questo è dovuto al fatto che le aziende hanno parassitato gli stati per decenni. La regolazione di Facebook non può arrivare con una misura onnicomprensiva, una mega-legge che disciplinerà tutto. Avverrà piuttosto attraverso una serie di misure attive che trovano la loro origine nella società civile. Facebook si permette abusi e manipolazioni perché con lobbying e pressioni economiche influenza la politica. Lo dimostrano le recenti rivelazioni sulle pratiche del suo direttore generale Sheryl Sandberg. Ma lo strapotere attuale di Facebook è dovuto soprattutto al fatto che da anni gli stati agiscono come i suoi cani da guardia, impedendo alla società civile, agli stessi utenti, di manifestare il loro disaccordo nei confronti delle pratiche della piattaforma. Il corpo sociale non può ribellarsi alla censura, alla sorveglianza, allo sfruttamento di Facebook. Opporsi al capitalismo digitale trionfante di oggi, significa spesso violare le regole di Facebook, a volte addirittura violare le leggi in vigore in diversi stati. È la convergenza tra piattaforma e stato-nazione. Marc Andreessen, ancora lui, ha scritto senza ombra di ironia che il software si sta mangiando il mondo. Lo stesso vale per le piattaforme: sono dei divoratori di mondi.

* Giuliano Santoro, giornalista, scrive di politica e cultura su il Manifesto. È autore, tra le altre cose, di Un Grillo qualunque e Cervelli Sconnessi (entrambi editi da Castelvecchi), Guida alla Roma ribelle (Voland), Al palo della morte (Alegre Quinto Tipo).


Why Facebook users’ “strikes” don’t work (and how can we fix them)?

Another day, another call for a Facebook “users’ strike”. This one would allegedly run from May 25 to June 1, 2018. It seems to be a one-man stunt, though (“As a collective, I propose we log out of our Facebook…”). Also, it claims to be “the first ever” strike of this kind.

Yet, since the Cambridge Analytica scandal, new calls for strikes have been popping up every few days. As far as I know, the first one dates back to March 21 (although the actual strike is scheduled on May 18, 2018). The organizer is a seasoned Boston Globe journo, who likely just discovered what digital labor is and is SO excited to tell you:

“I like the idea of a strike, because we users are the company’s real labor force. We crank out the millions of posts and photos and likes and links that keep people coming back for more.”

On April 9, 2018 an an obscure Sicilian newspaper called a strike action (which, in Italian, sounds like “sciopero degli utenti di Facebook”). It actually turned out to be an article about the “Faceblock” which did take place on April 11, 2018. It was a 24-hour boycott against Instagram, FB and WhatsApp organized by someone who describe themselves as “a couple of friends with roots in Belgium, Denmark, Ireland, Italy, Malta, Mexico, the UK and the US” (a tad confusing, if you ask me).

Of course, May 1st was a perfect time to call for other Facebook strikes. This one, for instance, is organized by a pseudonymous “Odd Bert”, who also mentions a fictional Internet User Union (which seems to be banned by Facebook). This other one looked a bit like some kind of e-commerce/email scam, but produced three sets of grievances.

“On May 1st, 2018, Facebook users are going on strike unless the company agrees to the following terms:

A. Full Transparency for American and British Voters

  1. Facebook shares the exact date it discovered Russian operatives had purchased ads.
  2. Facebook shares the exact dollar amount Russian operatives spent on political ads.
  3. Facebook shares the 3,000+ ads that Russian operatives ran during 2016.
  4. Facebook reveals how many users saw the fake news stories highlighted by BuzzFeed.
  5. Facebook lets an independent organization audit all political ads run during 2016.
  6. Facebook gives investigators all “Custom Lists” used for targeting 2016 political ads.
  7. Facebook stops running paid political ads until January 1st, 2019.
  8. Mark Zuckerberg (CEO) and Sheryl Sandberg (COO) testify before Congress in an open-door (televised) session.
  9. Mark Zuckerberg and Sheryl Sandberg testify before the UK parliament.

B. Full Transparency and Increased Privacy for Facebook Users

  1. Facebook explains to users exactly what personal data is being used for advertising.
  2. Facebook asks users for itemized consent to use photos, messages, etc. for advertising.
  3. Facebook gives users the ability to see a “history” of all the ads they have viewed.
  4. Facebook lets an independent organization investigate all data breaches since 2007.
  5. Facebook agrees to be audited monthly to make sure it is complying with local laws.
  6. Facebook allows users to easily delete their “history” on the platform.

C. Better Safety for Children on Facebook

  1. Facebook increases the minimum age for Facebook users from 13 to 16.
  2. Facebook shuts down the Messenger Kids product.”

Users’ strikes are hardly new. In 2009, the Spanish social media Tuenti was concerned by a huelga de los usuarios against their terms of service. In 2015, Reddit users disrupted the platform when they revolted en masse in solidarity with a wrongly terminated employee. On Facebook, users’ collective action is inherent to the life of the platform, whose history is replete with examples of petitions, lawsuits, and class actions. After the introduction of Beacon in 2007, a 50,000-strong petition led to its discontinuation. In 2010 several users’ groups organized and lobbied US senators and the Federal Trade Commission (FTC) to oppose the introduction of the ‘like’ button social plugin on external websites. In 2011, the association Europe versus Facebook filed numerous complaints with the Irish Data Protection Commissioner (DPC) and a class action which is presently discussed by the Court of Justice of the European Union. In 2016, the real-life protests and general mobilization against the introduction of Free Basics in India led to its successful ban by the telecommunication authority TRAI, over net neutrality and privacy concerns.

As my co-authors and I argued in our 2014 book Against the Hypothesis of the ‘End of Privacy’, the adoption of pervasive data collection practices by social platforms has been highly contentious, with frequent and cyclical privacy incidents followed by strong mass reactions. What these reactions have in common is that they are strategic, organized, collectives actions that rely on existing communities. Which could provide essential clues as to why the 2018 Facebook strikes are so ineffective. Their do not seem to be organized by active members of existing communities and they certainly do not engage with elected officials or institutional bodies. They are launched by journalists, startup bros, anonymous users trying to get noticed. These persons’ idea of grassroots is a naive one: one heroic individual (or a nonexistent “union”) sparks a revolt, hence the masses follow.

Importantly, they seem to put excessive faith in strikes seen as their only available tactic. A recent article published by a group of Stanford and Microsoft computer scientists captures this romanticized vision of “powerful” industrial actions where users stand hand in hand and nobody crosses the picket line:

“Data laborers could organize a “data labor union” that would collectively bargain with siren servers. While no individual user has much bargaining power, a union that filters platform access to user data could credibly call a powerful strike. Such a union could be an access gateway, making a strike easy to enforce and on a social network, where users would be pressured by friends not to break a strike, this might be particularly effective.”

Nevertheless, as past experiences on social platforms have taught us, successful actions adopt a specific repertoire of contention dominated not by strikes (which are usually costly and difficult to coordinate) but by lobbying and litigation. If we expect Facebook users grievances to be heard, a comprehensive and wide-ranging strategy is necessary to boost their rights. Community, organization, and the selection of effective tools are the three pillars of collective action.

Reforme du News Feed : pourquoi pour Facebook le seul réel qui compte est celui façonné par ta grande-mère

                   “Je haïssais les foyers, les familles, tous lieux
                   où l’homme pense trouver un repos — et les
                   affections continues” ~ ~ ~ André Gide, 1897

Olivier Ertzscheid l’avait mentionné lors de son intervention dans le cadre de mon séminaire #ecnEHESS : Facebook abandonne progressivement son modèle WYSIWYG (What You See Is What You Get) au profit d’un modèle WYSIWYWTS (What You See Is What You Want To See). Faut ré-injecter du réel pardi ! Et le réel se manifeste sous forme de plus de poste de votre grande-mère. La nouvelle vient de tomber : Mark Zuckerberg veut nous donner davantage de “friends and family” et moins d’actualités et de contenu public. Bien sûr, il y a plein de conséquences pour les annonceurs (impact sur les budgets publicitaires et sur les mécanismes de viralité). Mais Facebook ne fait pas ça pour les marques, hein. Facebook fait ça pour vous, chers usagers lambda, parce que “research shows that strengthening our relationships improves our well-being and happiness”.

Now, le truc qui me laisse dubitatif est que tout cela semble être le résultat d’un petit putsch scientifique interne de Moira Burke, data scientist chez FB. Vous la connaissez probablement parce que elle a fait récemment le buzz grâce à ce petit communiqué (largement circulé par la presse conciliante). “Is Spending Time on Social Media Bad for Us?”, bien sûr que non (la question est si manichéenne qu’elle n’admet qu’une réponse négative, par ailleurs). Mais pour quelle raison l’usage de médias sociaux n’a pas d’effets négatifs ? Ou plutôt : sous quelles conditions ?

Réponse : il n’y a pas d’effets négatifs sur le bien-être si vous faites un usage actif de FB (“engagement”) pour échanger avec des “strong ties”. C’est bizarre comme cela ressemble aux théories du socio-psychologue Robert Kraut. Tiens, d’ailleurs il est interviewé par Moira Burke dans le même billet… Et — surprise — il y a deux ans, les deux ont aussi co-publié une étude qui dit exactement cela : “Talking online with friends is associated with improvements in well-being, while talking with strangers or simply reading about other people is not.”.
Ce n’est pas pour faire du gossip que je vous raconte tout cela, mais pour signaler que ces résultats ne sont que la version moderne du vieux “internet paradox” de Kraut : si tu passes trop de temps avec tes liens faibles tu délaisses tes liens forts. Et ça, c’est mal. C’était une vielle étude que Kraut avait publiée en 1998 et qui présentait ce que j’avais défini une “version hydraulique” des usages numériques : si tu consacres trop de temps aux interactions en ligne, tu perds le contact avec ta famille et tes proches. Une vision un tantinet simpliste de l’isolement social provoqué par la socialisation en ligne, basé sur des données limitées et une analyse faible. Kraut l’avait par ailleurs rétractée en 2002 dans le texte “Internet paradox revisited”).
 
(Tout cela, je l’avais déjà raconté dans mon ouvrage “Les liaisons numériques” (2010) et dans un petit texte “Bums, Bridges, and Primates” de l’année suivante, où je m’efforçais de résumer les résultats de Kraut et de passer en revue ceux qui me paraissent ses points faibles.)
 
Vingt ans après sa première étude, Kraut revient à l’attaque avec, grosso modo, le même argumentaire. Sauf qu’aujourd’hui il ne se concentre plus sur le clivage offline/online (devenu caduque), mais sur le celui “active engagement with strong ties/passive engagement with weak ties”.
 
Or, non seulement cette posture est tout aussi normative et “hydraulique” que celle de 1998, mais en plus elle-même repose sur des prémisses qui sont tout sauf neutres : que les liens forts soient meilleurs que les liens faibles et que l’engagement avec ces derniers soit toujours passif. Ceci fait l’impasse sur les éléments d'”exploration curieuse” (comme l’aurait dit Nicolas Auray) et marque un retour vers une “société de petites boîtes” (petites communautés étanches d’individus liés par des liens forts) que l’on croyait mise en crise par l’arrivée du “networked individualism” décrit par Barry Wellman.
 
Moralité : jusqu’à hier, nous pouvions *en ligne de principe* être présent sur FB et moduler nos sociabilités selon nos envies d’exploration curieuse. Après la récente intervention de la Sainte-Trinité Kraut/Burke/Zuckerberg, nos usages seront plus prescriptifs et surdéterminées.

 

M, le maudit chatbot (ou, de l’impossibilité de l’automation complète au lendemain de l’échec de l’assistant virtuel de Facebook)

L’année 2018 commence fort chez Zuckerberg. Facebook a décidé de mettre fin à l’expérience de son assistant virtuel, M. Par rapport aux autres chatbots sur le marché, M avait une particularité : il ne cachait pas la présence d’humains derrière les rideaux de l’automation, pour ainsi dire. Facebook allait jusqu’à intégrer cet attribut dans ses arguments de vente. M était présenté comme une intelligence artificielle « mue par des humains » (human powered).

Il s’agissait d’un logiciel qui envoyait des messages via l’application Messenger, initialement disponible pour un nombre limité d’usagers-testeurs (10 000 résidents de San Francisco) qui l’utilisaient surtout pour des opérations commerciales. La plupart des tâches réalisées par le chatbot nécessitaient de personnes pour assister, entraîner, vérifier ses réponses — et parfois se faire carrément passer pour M. D’où la suspicion que son nom ne soit pas un clin d’œil à l’assistant de James Bond, miss Moneypenny, mais une référence assez claire au “micro-travail”…

L’objectif de Facebook avec cet agent conversationnel était de développer une technologie d’intelligence artificielle capable d’automatiser presque n’importe quelle tâche (“Facebook put no bounds on what M could be asked to do“). C’est toujours la vieille promesse du machine learning : tu fais réaliser des tâches par des humains, puis “la machine” apprend et — bam ! tu te débarrasses des humains. Néanmoins, malgré les vastes ressources techniques de Facebook, le taux d’automation de M semble n’avoir jamais dépasse 30%. Presque trois quarts des tâches, donc, étaient effectuées par des petites mains payées à la pièce, entre San Francisco et Katmandou (si le bruit selon lequel elles étaient recrutées via le bureau népalais de la plateforme de micro-travail Cloudfactory était confirmé).

L’histoire de M contient une moralité pour toute entreprise qui développe ou achète des solutions de IA : quand on prend en compte le coût de the human in the loop, l’automation revient très chère. C’est à cause de l’importance de ces coûts (et de la médiocrité des résultats) que Facebook a définitivement décidé de discontinuer M en 2018.

L’autre leçon à retenir ici est que dans la mesure où l’objectif final de M était de préparer le développement de solutions IA qui auraient pu automatiser presque toutes les tâches que les usagers réalisent en ligne, l’automation complète s’avère être un fantasme de silconvallards. A chaque fois qu’on automatise une tâche, les êtres humains avec qui l’IA interagit en redemandent, et de plus en plus complexes. Comme Wired le souligne :

“Another challenge: When M could complete tasks, users asked for progressively harder tasks. A fully automated M would have to do things far beyond the capabilities of existing machine learning technology. Today’s best algorithms are a long way from being able to really understand all the nuances of natural language.”

Il faut alors recommencer et recommencer à concevoir-entraîner-tester-micro-travailler etc. Comme quoi, nous (autant les centaines de millions de tâcherons du clic sur les plateformes de micro-travail que les milliards de micro-tâcherons dissimulés que nous sommes sur les plateformes de médias sociaux) avons devant nous une longue carrière de dresseurs d’IA. Très longue. Interminable même, à en croire certains jeunes experts d’automation. Parmi eux, un nommé Ernest Mandel, lequel affirmait, dans un texte paru en… 1986 :

“Sous le capitalisme, l’automation complète, l’introduction de robots sur grande échelle sont impossibles car elles impliqueraient la disparition de l’économie de marché, de l’argent, du capital et des profits. (…) La variante la plus probable sous le capitalisme, c’est précisément la longue durée de la dépression actuelle, avec seulement le développement d’une automation partielle et d’une robotisation marginale, les deux étant accompagnées par une surcapacité de surproduction sur grande échelle (une surproduction de marchandises), un chômage sur grande échelle, une pression sur grande échelle pour extraire de plus en plus de plus-value d’un nombre de jours de travail et d’ouvriers productifs tendant à stagner et à décliner lentement. Cela équivaudrait à une augmentation de la pression à la surexploitation de la classe ouvrière (en faisant baisser les salaires réels et les prestations de Sécurité sociale), en affaiblissant ou détruisant le mouvement ouvrier organisé et en sapant les libertés démocratiques et les droits de l’homme.”

[Séminaire #ecnEHESS] Nikos Smyrnaios “Les GAFAM : notre oligopole quotidien” (20 mars 2017, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Dans le cadre de notre séminaire EHESS Etudier les cultures du numérique, nous avons le plaisir d’accueillir Nikos Smyrnaios (Université Toulouse 3) et auteur de l’ouvrage Les GAFAM contre l’internet : une économie politique du numérique (INA Editions, 2017).

Pour suivre le séminaire sur Twitter : hashtag #ecnEHESS.

ATTENTION : CHANGEMENT DE SALLE : La séance se déroulera le lundi 20 mars 2017, de 17h à 20h, salle 13, 6e étage, EHESS, 105 bd. Raspail, Paris 6e arr.

Titre : GAFAM: logiques et stratégies de l’oligopole qui a pris le contrôle de nos outils numériques

Intervenant : Nikos Smyrnaios
Résumé : “Quelques startups autrefois ‘sympathiques’ ont donné naissance à des multinationales oligopolistiques qui régissent le cœur informationnel de nos sociétés au point qu’un acronyme, GAFAM, leur soit dédié. Google, Apple, Facebook, Amazon et Microsoft sont les produits emblématiques d’un ordre capitaliste nouveau qu’ils contribuent eux mêmes à forger, légitimer et renforcer. Cet ordre néolibéral s’inscrit résolument contre le projet originel de l’internet. La conférence s’intéressera précisément aux conditions qui ont permis l’émergence de cet oligopole et aux stratégies que celui-ci met en œuvre pour  contrôler nos outils de communication quotidiens et les plateformes qui nous utilisons pour accéder à l’information et aux contenus en ligne (exploitation du travail, évitement de l’impôt, concentration horizontale et verticale, infomédiation, exploitation des données personnelles etc.).”

Prochaines séances

mturk 10 avril 2017
Mary Gray (Microsoft Research)
Behind the API: Work in On-Demand Digital Labor Markets
datanomix 15 mai 2017
Louis-David Benyayer (Without Model) et Simon Chignard (Etalab)
Les nouveaux business models des données
magna 19 juin 2017
Juan Carlos De Martin (NEXA Center for Internet & Society)
Looking back at the 2015 ‘Declaration of Internet Rights’

The business performativity of Mark Zuckerberg’s manifesto

Whenever I hear a businessman talk about building a “healthy society”, my sociologist sense tingles… And although I haven’t been discussing Zuckerberg’s recent tirade, I feel reassured by the fast and compelling reactions I’ve read. Countering Zuckerberg’s brand of simplistic technodeterminism is crucial. For instance, you might want to examine Aral Balkan’s piece, or appreciate the relentless logic of Annalee Newitz, exposing contradictions and dangers in the manifesto.

Of course, we’ve been here before. Facebook’s founder customarily posts messages, rants, and edicts. And unfortunately their criticism is not enough. Because there is a performativity to Zuckerberg’s essays. Although they are constantly spinned to the media as heart-felt cries from Mark-Zuckerberg-the-person, they actually serve as program frameworks for the company run by Mark-Zuckerberg-the-CEO. The fact of stemming from “trainwrecks” (term used by both Annalee Newitz and danah boyd in a seminal paper penned almost a decade ago) doesn’t diminish the power of these pronouncements.

Capitalism feeds on crises. And Facebook (being the ultimate capitalist scheme) feeds on “trainwrecks”— it uses them as devices to establish its dominance. So the 2008/9 “privacy trainwreck” jumpstarted its extensive market for personal data. The 2013 “connectivity crisis” spawned Free Basics. And what will the 2016 “fake news disaster” be exploited for? Smart money says: “turning Facebook’s colossal user-base in a training ground for AI”.

Admittedly, this doesn’t come as a surprise. The ambition to “solve AI” by extracting free/micropaid digital labor from users is evident. Facebook AI Research (FAIR) division is devoted to “advancing the field of machine intelligence and to give people better ways to communicate” by relying on quality datasets produced by… people communicating on Facebook.

What is new is how the “fake news trainwreck” has ended up supporting this ambition by turning Facebook human users into a “social infrastructure” for AI (cf. Zuckerberg). More importantly, it provides a rationale for the company’s strategy. And throws in “terror” for good measure, to render it unavoidable…:

“A healthy society needs these communities to support our personal, emotional and spiritual needs. In a world where this physical social infrastructure has been declining, we have a real opportunity to help strengthen these communities and the social fabric of our society. (…) The guiding principles are that the Community Standards should reflect the cultural norms of our community, that each person should see as little objectionable content as possible, and each person should be able to share what they want while being told they cannot share something as little as possible. The approach is to combine creating a large-scale democratic process to determine standards with AI to help enforce them. (…) Right now, we’re starting to explore ways to use AI to tell the difference between news stories about terrorism and actual terrorist propaganda so we can quickly remove anyone trying to use our services to recruit for a terrorist organization. This is technically difficult as it requires building AI that can read and understand news, but we need to work on this to help fight terrorism worldwide. (…) The path forward is to recognize that a global community needs social infrastructure to keep us safe from threats around the world, and that our community is uniquely positioned to prevent disasters, help during crises, and rebuild afterwards. Keeping the global community safe is an important part of our mission — and an important part of how we’ll measure our progress going forward.”

[Pocast] Surveillance internationale et médias sociaux avec Edouard Baer (Radio Nova, 2 janv. 2017)

Au petit matin, j’ai eu une conversation intéressante avec Edouard Baer et Thomas Baumgartner sur Radio Nova, dans l’émission Plus Près De Toi. On a parlé des douanes américaines qui imposent désormais une démarche “facultative” d’enregistrement des comptes Facebook, Instagram, LinkedIn etc. de tous les voyageurs souhaitant obtenir un visa pour voyager aux Etats-Unis. Quelles implications en termes de surveillance électronique et d’identification des populations ? Special guest : la CIA qui a coupé le son à un certain moment, quand on allait révéler les pseudos internet de tous les présents.

Bref, voilà le lien du podcast : Plus Près De Toi 02/01/17 | NOVAPLANET (Mon entretien commence à 19’15”)

[Vidéo] Grand entretien Mediapart : l’impact des fermes à clic sur les élections (17 déc. 2016)

J’ai rendu visite à la rédaction de Mediapart pour une interview vidéo sur “fake news”, algorithmes et tâcherons du clic.

Je résume mes positions : lorsque le sage montre la désinformation, l’idiot déblatère contre les bulles de filtre. Moi, je regarde plutôt le travail de millions de tâcherons du clic qui créent des effets de résonance de ces messages idéologiquement connotés. L’un des ingrédients majeurs de la campagne de Donald Trump a été sa politique sans scrupules d’achat de clics, likes, followers (v. ma tribune dans l’Obs).

Est-ce que des candidats français d’extrême droite sont en train d’adopter la même stratégie ? La question est légitime. Et il est urgent de vérifier sur les marchés du micro-travail numérique français et internationaux que des acteurs politiques (autant systémiques qu'”anti-système”) ne soient pas en train d’acquérir des clics à la pièce.

C’est en enjeux de démocratie : comme dans les médias audiovisuels on adopte une règle d’égalité du temps de parole des candidats pour garantir le pluralisme, de la même manière il faut s’assurer que les partis politiques ne soient pas en train d’obtenir subrepticement du temps de parole supplémentaire sur internet en achetant des tweets, des likes et des contenus viraux afin de créer des “spirales de silence” qui musèlent les opposants sur les médias sociaux.

Bulles de filtres, spirales de silence, algorithmes et politique (NextINpact, 23 nov. 2016)

(Article paru sur NextINpact, 23 novembre 2016)

Élection de Trump : influence ou innocence, le rôle de Facebook en questions

image dediée
Crédits : fotostorm/iStock
Web

La diffusion massive d’informations erronées aurait contribué à l’élection de Donald Trump à la tête des États-Unis. Facebook, ses algorithmes et son modèle publicitaire ont rapidement été désignés comme principaux responsables. Qu’en est-il vraiment ? Nous avons compilé les critiques et en avons discuté avec le chercheur Antonio Casilli.

Le 8 novembre dernier, Donald Trump était élu président des États-Unis. Une surprise pour nombre de médias américains et français, qui avaient soutenu la candidate démocrate, Hillary Clinton. Au-delà des questions politiques que soulève cet événement, un phénomène a été montré du doigt : la montée d’une « nouvelle droite » dure (alt-right). Elle aurait été portée par la production d’actualités « bidons », diffusées massivement en ligne sans être régulées ou vérifiées.

Nous serions dans l’ère de la post-vérité, où la véracité d’un fait serait moins importante que sa capacité à confirmer notre vision du monde. Outre de sites politiques, ces contenus « bidons » proviendraient de sites dédiés, produisant en masse des articles accrocheurs pour vivre de la publicité. Ces contenus auraient été propulsés par les algorithmes des réseaux sociaux, mettant mécaniquement en avant les articles populaires.

De fausses informations et des « bulles de filtres »

Le Washington Post a d’ailleurs interrogé le propriétaire de plusieurs de ces sites « bidons ». Celui-ci pense avoir joué un rôle dans cette élection, notamment en créant de toutes pièces des événements, largement relayés sans être vérifiés. Ses articles ont d’ailleurs été mis en avant par des proches de Trump, et apparaissaient en bonne place sur Google, en plus des nombreux partages sur Facebook.

Avec Twitter, ce dernier aurait eu un rôle important dans la campagne, en filtrant à outrance les actualités et en maintenant les internautes dans « une bulle de filtres », masquant toute idée ou personne dissonante. L’hyper-personnalisation serait devenue un danger démocratique, d’abord nié par les producteurs des algorithmes, qui ont ensuite promis de s’amender.

Sur le fond, ces événements posent la question du rôle démocratique des plateformes et de la puissance prêtée aux algorithmes (qu’on les estime inoffensifs ou tout puissants). L’émergence récente du concept de « bulle de filtres » renvoie aux réflexions anciennes sur le rôle des médias, que Facebook ou Twitter seraient devenus, à part entière. Pour explorer le sujet, nous avons retracé le cours du débat et discuté avec Antonio Casilli, chercheur spécialiste des réseaux sociaux et du travail numérique.

Les réseaux sociaux accusés d’être des nids à informations « bidons »

Suite à l’élection, les plateformes en ligne ont été rapidement accusées d’avoir contribué à la montée de l’alt-right, en lui fournissant les outils pour étendre son influence et ses nombreuses approximations, voire mensonges répétés en boucle. De quoi déclencher une forte pression publique sur ces sociétés, dans les jours qui ont succédé au scrutin.

Selon une analyse de Buzzfeed News, sur Facebook, les 20 fausses actualités les plus populaires liées aux élections ont été bien plus partagées que les 20 venant de médias grand public. Les contenus de sites « bidons » auraient ainsi été diffusés 8,7 millions de fois, contre près de 7,4 millions de fois pour celles plus sérieuses. En clair, les sites d’hoaxes feraient leur beurre via Facebook.

Le 14 novembre, TechCrunch demandait à Facebook de « combattre la peste des fausses informations avant de gâcher les élections d’autres pays ». Pour le magazine, la plateforme « a eu un rôle important dans l’avènement de Donald Trump ». Elle n’aurait pas suffisamment agi contre les fausses actualités, étant certaines des plus lues et partagées, contribuant d’autant aux résultats financiers de la société californienne.

Une analyse partagée par The Guardian, qui estime que le réseau social n’a aucun intérêt à vraiment lutter contre ces contenus, dont le partage lui rapporte tant. Tout comme TechCrunch, le Washington Post estime surtout que Facebook doit assumer son rôle de média, et non de plateforme faussement neutre qu’elle voudrait se donner.

Des internautes enfermés dans des « bulles de filtres » ?

L’accusation principale reste : l’enfermement des internautes dans une « bulle de filtres », avec des personnes. Cette expression, démocratisée en 2011 par Eli Pariser, cofondateur d’Upworthy, vise à dénoncer l’influence présumée qu’a la personnalisation à outrance de l’information sur chacun de nous.

Après l’élection de Trump, selon Joshua Benton, directeur du Nieman Journalism Lab à Harvard, le premier réseau social mondial a « militarisé la bulle de filtres ». Pour lui, il devrait traiter différemment les contenus « de toute évidence faux », comme l’annonce que le pape François a soutenu le candidat républicain.

Comme nous l’explique le chercheur Antonio Casilli, la notion de « bulle de filtres » aurait un intérêt scientifique limité. Des concepts comme l’entre-soi, l’homophilie ou la chambre d’écho expriment des idées proches depuis des décennies. « C’est une métaphore qui a été popularisée par Eli Pariser, à des fins de mobilisation politique » affirme-t-il. En fait, « choisir de les appeler bulles de filtre, c’est porter un jugement. Un jugement qui ne m’aide pas particulièrement à comprendre ce qu’il se passe dedans ».

Le terme impliquerait que la situation n’a que des inconvénients. « Très souvent, lorsque l’on parle de bulles de filtres, on se limite à dire qu’elles existent et que c’est mal, ce qu’elles ne sont pas forcément » explique Casilli, pour qui il faut dépasser cette simple identification. Des questions comme le contenu de ces bulles, leur intérêt (partager une information ou être ensemble), leur évolution et les ponts entre ces différentes bulles sont « cruciales ».

Le graphe social et les phénomènes de réseaux

À la base, il y a l’idée du graphe social : dans le réseau d’amis d’une personne, chacune est un nœud connecté à d’autres. Comme dans tout réseau, les liens sont bien plus denses dans certaines zones que dans d’autres. Ce sont ces communautés, cet « entre-soi », qui peuvent être appelées « bulles de filtres ».

Comme l’explique Antonio Casilli, avant même toute intervention logicielle d’un Facebook, il y a une tendance humaine à se rapprocher de ceux qui nous ressemblent. « Certains experts, autant de sciences politiques ou des sociologues, ont insisté sur le fait qu’une communauté soudée et dense peut, par exemple, se caractériser par de la solidarité » rappelle le chercheur.

Les « bulles de filtres », comme les chambres d’écho jusqu’ici, dirigent l’analyse vers la manipulation de l’information, et du vote qui en découle dans le cas de la dernière élection américaine. Quand la chambre d’écho (un concept de sciences politiques) se concentre sur l’information, la « bulle de filtres » se concentre sur la structure du réseau, qui serait réduit artificiellement.

Pourtant, « croire que l’échange avec des personnes de tous bords se met en place automatiquement est naïf » nous déclare Casilli. Pour lui, un phénomène contraire aurait joué : la spirale de silence. « Si vous savez qu’autour de vous, des personnes ne partagent pas votre opinion, vous auto-censurez vos avis politiques » résume-t-il. S’agissant d’une spirale, cette censure s’intensifie au fil du temps, avec des effets « désastreux » sur la vie politique d’un pays comme les États-Unis.

« Je me demande dans quelle mesure, plutôt que de parler de bulle de filtres, il faudrait parler de refroidissement de la conversation démocratique aux États-Unis. Malgré les déclarations outrancières de Trump, personne ne s’est efforcé de le démonter complètement d’un point de vue logique et politique » ajoute l’expert.

Selon une étude du sociologue Keith Hampton (PDF), le simple fait de connaître l’étendue de la surveillance de la NSA, suite aux révélations d’Edward Snowden en 2013, aurait eu un effet de refroidissement (chilling effect) sur cette parole politique. Plutôt que d’encourager le débat, cela aurait justement limité sa tenue sur les réseaux sociaux.

Les algorithmes sont-ils responsables ?

Pourtant, les principaux accusés sont les algorithmes des plateformes, qui trient l’information pour l’internaute. Pour Guillaume Chevillon, professeur en économétrie et statistiques, le filtre des algorithmes en matière d’actualité est « dangereux pour le débat démocratique ». Habituellement, ils constituent même une défense pour Facebook, évitant à des humains d’intervenir dans la sélection, qui seraient vraiment taillés pour chaque utilisateur.

Le cœur du débat est donc celui de l’influence réelle des algorithmes, certains estimant qu’ils sont tout puissants, quand d’autres ne leur prêtent aucune agentivité. Pour Antonio Casilli, se dire pour ou contre les algorithmes ne tient d’ailleurs pas à cette puissance présumée. Face à eux qui pensent qu’une influence sur les comportements est nuisible (algophobes), « pour certains techno-enthousiastes extrêmement proches de l’industrie, cette surpuissance peut être considérée comme une bonne chose » estime le chercheur.

Parmi ceux qui estiment que les algorithmes ne jouent pas un rôle déterminant dans les choix des internautes, il y a Facebook lui-même. Dans une étude en 2014, l’entreprise affirmait que, s’il existe bien un effet proche d’un enfermement algorithmique, il découle des choix de l’internaute, qui est le principal responsable. « Cette explication est complètement bidon » analyse sèchement Casilli, pour qui il existe un effet de mise en boucle entre les choix de l’utilisateur et ce que lui propose un algorithme, sur la base de critères prédéfinis.

« Sur 1 000 amis sur Facebook, si je vois toujours les mêmes, j’aurai tendance à penser que ce sont les seules personnes à utiliser le site. D’où cette illusion selon laquelle certains amis sont très actifs, quand les autres sont une majorité silencieuse. Alors qu’il s’agit surtout d’une majorité que l’algorithme déréférence et ne permet pas de voir à tout moment » détaille le spécialiste. Il faudrait donc manipuler la logique algorithmique, en interagissant sciemment avec des personnes plus éloignées, pour revoir cet effet. Autrement dit, il faut effectuer un effort supplémentaire et entrainer l’algorithme dans un autre sens. Autant de travail pour l’utilisateur.

« Croire que l’algorithme est tout puissant est vraiment un piège politique qui nous amène au pire de l’abdication à la résistance et à la négation. De l’autre côté, laisser faire l’algorithme, en disant que l’utilisateur est toujours responsable, est une injonction contradictoire, désastreuse dans d’autres domaines de la vie politique » poursuit-il. Sur-responsabiliser les utilisateurs serait une manière de dédouaner les concepteurs et les propriétaires des algorithmes, y compris le but et les critères qu’ils lui donnent. « L’algorithme n’existe pas, c’est toujours le choix d’un autre » résume Casilli.

Des actions promises contre les sites d’actualités « bidons »

Deux jours après l’élection, Mark Zuckerberg a d’abord nié toute influence de Facebook sur l’élection. Selon lui, les actualités « bidons » sont une part minime des contenus diffusés, et qu’« il faut un grand manque d’empathie pour penser que des gens ont voté Trump uniquement à cause d’actualités bidons ». De même, déterminer la véracité d’un contenu peut être difficile, notamment sur les questions politiques.

Il reste que les nombreuses mises en cause publiques ont porté leurs fruits. À la mi-novembre, Facebook et Google ont annoncé qu’ils refuseront d’afficher des publicités sur des sites diffusant de fausses actualités. Une action forte, censée éliminer l’incitation à créer de faux contenus « à clic », de la part des deux principales plateformes publicitaires du Net… qui vivent elles-mêmes du trafic de ces sites.

Le 18 novembre, Mark Zuckerberg a fourni un plan pour lutter contre ces contenus. Cette fois, il dit prendre « la désinformation au sérieux » et affirme que Facebook a une responsabilité dans l’information. « Nous ne voulons pas devenir des arbitres de la vérité, mais plutôt compter sur notre communauté et des tiers de confiance » explique-t-il.

Concrètement, le réseau social doit mettre en place une meilleure détection de ces contenus, faciliter leur signalement et s’aider de la vérification de tiers de confiance en matière de fact-checking. Il compte aussi afficher des avertissements si un contenu est signalé comme faux, à la lecture ou au partage, en plus d’améliorer la qualité des contenus présents dans le flux d’actualité et de « décourager économiquement les fausses informations ». Cela dans un dialogue constant avec les médias. L’entreprise bat publiquement sa coulpe sur le sujet.

Facebook peut donc difficilement continuer à s’affirmer neutre. « Depuis dix ans, il cherche à se déresponsabiliser, à se présenter comme une entreprise parmi d’autres qui a un rôle modeste dans un monde qui change. C’est une attitude indéfendable, surtout après la manière dont Facebook s’est imposé comme intermédiaire d’information, avec des responsabilités » réagit Antonio Casilli.

Publiée le 23/11/2016 à 09:32

Qui a fait élire Trump ? Pas les algorithmes, mais des millions de “tâcherons du clic” sous-payés

Ce billet a été publié par L’Obs / Rue89 le 19 novembre 2016. Une version en anglais est disponible ici.

Le débat sur les responsabilités médiatiques (et technologiques) de la victoire de Trump ne semble pas épuisé. Moi par contre je m’épuise à expliquer que le problème, ce ne sont pas les algorithmes. D’ailleurs, la candidate “algorithmique” c’était Clinton : elle avait hérité de l’approche big data au ciblage des électeurs qui avait fait gagner Obama en 2012, et sa campagne était apparemment régie par un système de traitement de données personnelles surnommé Ada.

Au contraire, le secret de la victoire du Toupet Parlant (s’il y en a un) a été d’avoir tout misé sur l’exploitation de masses de travailleurs du clic, situés pour la plupart à l’autre bout du monde. Si Hillary Clinton a dépensé 450 millions de dollars, Trump a investi un budget relativement plus modeste (la moitié en fait), en sous-payant des sous-traitants recrutés sur des plateformes d’intermédiation de micro-travail.

Une armée de micro-tâcherons dans des pays en voie de développement

Vous avez peut-être lu la news douce-amère d’une ado de Singapour qui a fini par produire les slides des présentation de Trump. Elle a été recrutée via Fiverr, une plateforme où l’on peut acheter des services de secrétariat, graphisme ou informatique, pour quelques dollars. Ses micro-travailleurs résident en plus de 200 pays, mais les tâches les moins bien rémunérées reviennent principalement à de ressortissants de pays de l’Asie du Sud-Est. L’histoire édifiante de cette jeune singapourienne ne doit pas nous distraire de la vraie nouvelle : Trump a externalisé la préparation de plusieurs supports de campagne à des tacherons numériques recrutés via des plateformes de digital labor, et cela de façon récurrente. L’arme secrète de la victoire de ce candidat raciste, misogyne et connu pour mal payer ses salariés s’avère être l’exploitation de travailleuses mineures asiatiques. Surprenant, non ?

singapore-trump

Hrithie, la “tâcheronne numérique” qui a produit les slides de Donal Trump…

Mais certains témoignages de ces micro-travailleurs offshore sont moins édifiants. Vous avez certainement lu l’histoire des “spammeurs de Macédoine”. Trump aurait profité de l’aide opportuniste d’étudiants de milieux modestes d’une petite ville post-industrielle d’un pays ex-socialiste de l’Europe centrale devenus des producteurs de likes et de posts, qui ont généré et partagé les pires messages de haine et de désinformation pour pouvoir profiter d’un vaste marché des clics.

spam-macedonia

How Teens In The Balkans Are Duping Trump Supporters With Fake News

A qui la faute ? Au modèle d’affaires de Facebook

A qui la faute ? Aux méchants spammeurs ou bien à leur manditaires ? Selon Business Insider, les responsables de la comm’ de Trump ont directement acheté presque 60% des followers de sa page Facebook. Ces fans et la vaste majorité de ses likes proviennent de fermes à clic situées aux Philippines, en Malaysie, en Inde, en Afrique du Sud, en Indonesie, en Colombie… et au Méxique. (Avant de vous insurger, sachez que ceci est un classique du fonctionnement actuel de Facebook. Si vous n’êtes pas au fait de la façon dont la plateforme de Zuckerberg limite la circulation de vos posts pour ensuite vous pousser à acheter des likes, cette petite vidéo vous l’explique. Prenez 5 minutes pour finaliser votre instruction.)

Bien sûr, le travail dissimulé du clic concerne tout le monde. Facebook, présenté comme un service gratuit, se révèle aussi être un énorme marché de nos contacts et de notre engagement actif dans la vie de notre réseau. Aujourd’hui, Facebook opère une restriction artificielle de la portée organique des posts partagés par les utilisateurs : vous avez 1000 « amis », par exemple, mais moins de 10% lit vos messages hilarants ou regarde vos photos de chatons. Officiellement, Facebook prétend qu’il s’agit ainsi de limiter les spams. Mais en fait, la plateforme invente un nouveau modèle économique visant à faire payer pour une visibilité plus vaste ce que l’usager partage aujourd’hui via le sponsoring. Ce modèle concerne moins les particuliers que les entreprises ou les hommes politiques à la chevelure improbable qui fondent leur stratégies marketing sur ce réseau social : ces derniers ont en effet intérêt à ce que des centaines de milliers de personnes lisent leurs messages, et ils paieront pour obtenir plus de clics. Or ce système repose sur des « fermes à clics », qui exploitent des travailleurs installés dans des pays émergents ou en voie de développement. Cet énorme marché dévoile l’illusion d’une participation volontaire de l’usager, qui est aujourd’hui écrasée par un système de production de clics fondé sur du travail caché—parce que, littéralement, délocalisé à l’autre bout du monde.

Flux de digital labor entre pays du Sud et pays du Nord

Une étude récente de l’Oxford Internet Institute montre l’existence de flux de travail importants entre le sud et le nord de la planète : les pays du Sud deviennent les producteurs de micro-tâches pour les pays du Nord. Aujourd’hui, les plus grands réalisateurs de micro-taches se trouvent aux Philippines, au Pakistan, en Inde, au Népal, à Hong-Kong, en Ukraine et en Russie, et les plus grands acheteurs de leurs clics se situent aux Etats-Unis, au Canada, en Australie et au Royaume-Uni. Les inégalités classiques Nord/Sud se reproduisent à une échelle planétaire. D’autant qu’il ne s’agit pas d’un phénomène résiduel mais d’un véritable marché du travail : UpWork compte 10 millions d’utilisateurs, Freelancers.com, 18 millions, etc.

odesk_net_4_no-numbers

Micro-travailleurs d’Asie, et recruteurs en Europe, Australie et Amérique du Nord sur une plateforme de digital labor.

Nouvel “i-sclavagisme” ? Nouvel impérialisme numérique ? Je me suis efforcé d’expliquer que les nouvelles inégalités planétaires relèvent d’une marginalisation des travailleurs qui les expose à devoir accepter les tâches les plus affreuses et les plus moralement indéfendables (comme par exemple aider un candidat à l’idéologie clairement fasciste à remporter les élections). Je l’explique dans une contribution récente sur la structuration du digital labor en tant que phénomène global (attention : le document est en anglais et fait 42 pages).  Que se serait-il passé si les droits de ces travailleurs du clics avaient été protégés, s’ils avaient eu la possibilité de résister au chantage au micro-travail, s’il avaient eu une voix pour protester contre et pour refuser de contribuer aux rêves impériaux d’un homme politique clairement dérangé, suivi par une cour de parasites corrompus ? Reconnaître ce travail invisible du clic, et le doter de méthodes de se protéger, est aussi – et avant tout – un enjeux de citoyenneté globale. Voilà quelques extraits de mon texte :

dllong1 dllong2 dllong3

Extrait de “Is There a Global Digital Labor Culture?” (Antonio Casilli, 2016)

Conclusions:

  1. Pour être plus clair : ce ne sont pas ‘les algorithmes’ ni les ‘fake news’, mais la structure actuelle de l’économie du clic et du digital labor global qui ont aidé la victoire de Trump.
  2. Pour être ENCORE plus clair : la montée des fascismes et l’exploitation du digital labor s’entendent comme larrons en foire. Comme je le rappelais dans un billet récent de ce même blog :

L’oppression des citoyens des démocraties occidentales, écrasés par une offre politique constamment revue à la baisse depuis vingt ans, qui in fine a atteint l’alignement à l’extrême droite de tous les partis dans l’éventail constitutionnel, qui ne propose qu’un seul fascisme mais disponible en différents coloris, va de pair avec l’oppression des usagers de technologies numériques, marginalisés, forcés d’accepter une seule offre de sociabilité, centralisée, normalisée, policée, exploitée par le capitalisme des plateformes qui ne proposent qu’une seule modalité de gouvernance opaque et asymétrique, mais disponible via différents applications.