Monthly Archives: February 2017

The business performativity of Mark Zuckerberg’s manifesto

Whenever I hear a businessman talk about building a “healthy society”, my sociologist sense tingles… And although I haven’t been discussing Zuckerberg’s recent tirade, I feel reassured by the fast and compelling reactions I’ve read. Countering Zuckerberg’s brand of simplistic technodeterminism is crucial. For instance, you might want to examine Aral Balkan’s piece, or appreciate the relentless logic of Annalee Newitz, exposing contradictions and dangers in the manifesto.

Of course, we’ve been here before. Facebook’s founder customarily posts messages, rants, and edicts. And unfortunately their criticism is not enough. Because there is a performativity to Zuckerberg’s essays. Although they are constantly spinned to the media as heart-felt cries from Mark-Zuckerberg-the-person, they actually serve as program frameworks for the company run by Mark-Zuckerberg-the-CEO. The fact of stemming from “trainwrecks” (term used by both Annalee Newitz and danah boyd in a seminal paper penned almost a decade ago) doesn’t diminish the power of these pronouncements.

Capitalism feeds on crises. And Facebook (being the ultimate capitalist scheme) feeds on “trainwrecks”— it uses them as devices to establish its dominance. So the 2008/9 “privacy trainwreck” jumpstarted its extensive market for personal data. The 2013 “connectivity crisis” spawned Free Basics. And what will the 2016 “fake news disaster” be exploited for? Smart money says: “turning Facebook’s colossal user-base in a training ground for AI”.

Admittedly, this doesn’t come as a surprise. The ambition to “solve AI” by extracting free/micropaid digital labor from users is evident. Facebook AI Research (FAIR) division is devoted to “advancing the field of machine intelligence and to give people better ways to communicate” by relying on quality datasets produced by… people communicating on Facebook.

What is new is how the “fake news trainwreck” has ended up supporting this ambition by turning Facebook human users into a “social infrastructure” for AI (cf. Zuckerberg). More importantly, it provides a rationale for the company’s strategy. And throws in “terror” for good measure, to render it unavoidable…:

“A healthy society needs these communities to support our personal, emotional and spiritual needs. In a world where this physical social infrastructure has been declining, we have a real opportunity to help strengthen these communities and the social fabric of our society. (…) The guiding principles are that the Community Standards should reflect the cultural norms of our community, that each person should see as little objectionable content as possible, and each person should be able to share what they want while being told they cannot share something as little as possible. The approach is to combine creating a large-scale democratic process to determine standards with AI to help enforce them. (…) Right now, we’re starting to explore ways to use AI to tell the difference between news stories about terrorism and actual terrorist propaganda so we can quickly remove anyone trying to use our services to recruit for a terrorist organization. This is technically difficult as it requires building AI that can read and understand news, but we need to work on this to help fight terrorism worldwide. (…) The path forward is to recognize that a global community needs social infrastructure to keep us safe from threats around the world, and that our community is uniquely positioned to prevent disasters, help during crises, and rebuild afterwards. Keeping the global community safe is an important part of our mission — and an important part of how we’ll measure our progress going forward.”

[Séminaire #ecnEHESS] Mark Graham & Karen Gregory “Digital Labor and Global Exploitation” (20 févr. 2017, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Une séance spéciale, folks ! Dans le cadre de notre séminaire EHESS Etudier les cultures du numérique, nous allons accueillir Karen Gregory (maître de conférences en digital sociology à l’Université d’Édimbourg) et Mark Graham (professeur d’internet geography à l’Université d’Oxford), deux des plus importants jeunes chercheurs européens sur le digital labor, pour une conférence à deux voix.

De manière exceptionnelle, cette séance du séminaire se déroulera en anglais, le lundi 20 février 2017, de 17h à 20h, salle Lombard, EHESS, 96 bd. Raspail, Paris 6e arr.

Pour suivre le séminaire sur Twitter : hashtag #ecnEHESS.

Title: Three Phases of Digital Labor: Locating Exploitation in the Digital Economy

Speaker: Karen Gregory (University of Edinburgh)

Abstract: This lecture functions not only as introduction to the topic of digital labor, but asks to consider the deeply political implications of the digital economy, particularly as it relates to social, civil, and racial justice. The rise of information and communication technologies has both drawn global economies together, as well as given rise to stark inequalities. We can see three distinct “phases” of digital labor, with each phase speaking to new understandings of exploitation, as well as new arrangements of data collection, surveillance, and control.

Title: The Global Gig Economy and Its Implications for Digital Workers

Speaker: Mark Graham (University of Oxford)

Abstract: A global market for digitally-outsourced work now exists. It offers significant benefits and opportunities but also poses significant risks and costs for digital workers around the world. Some of these risks emerge when work is seen as a commodity to be bought and sold, and workers see themselves as individual entrepreneurs. When that is the case, it is rational to exploit co-workers; and many have internalized these visions of individuality, competition and predatory behavior. Instead of seeing digital work as operating in a global, ephemeral, virtual dimension beyond the realm of regulation or worker organization, we can reflect on its real geographies and reveal sites of strength and solidarity for workers.

(more…)

Une tribune dans Libération (3 janv. 2016)

Avec Paola Tubaro, je co-signe une tribune dans Libération, à partir de notre ouvrage Le phénomène “pro-ana”, paru aux Presses des Mines. Ce texte est publié en partenariat avec CNRS Le Journal.

Deux sociologues spécialistes des communautés en ligne expliquent pourquoi interdire les sites accusés de promouvoir l’anorexie ne ferait qu’isoler davantage les patients. Ils dénoncent la tendance …

Source: (20+) Réprimer les sites «pro-anorexie» : une fausse bonne idée – Libération

Ni bots, ni e-militants : François Fillon et l’exploitation des travailleurs du clic

Ce billet a été publié dans L’Obs / Rue89 le 3 février 2017.

Dans le sillage du PenelopeGate, l’affaire des prétendus “bots” de François Fillon représente une illustration parfaite de l’impact des dispositifs d’extraction de travail implicite de foules d’usagers de plateformes numériques (digital labor) sur les modalités de délibération démocratique. Ici, je présente quelques réflexions (initialement publiées sous forme de tweets) pour encourager le débat sur ces questions.

Tout d’abord, un élément de contexte: en novembre 2016, j’avais commis une tribune dans l’Obs sur le rôle des “tâcherons du clic” dans la campagne de Donald Trump. Il y était surtout question de micro-tâches (une slide, une fake news, un like, un partage) payées quelques centimes (ou parfois beaucoup moins que ça) à des travailleurs issus de pays émergents ou en voie de développement. Certains ont été surpris par ces quelques exemples, mais il existe des vrais marchés du micro-travail, où marques, particuliers ou personnalités politiques passent des annonces comme celui-ci :

Annonce parue sur Freelancer.com

Et en France ? Lors d’un entretien récent sur Médiapart, François Bonnet me demandait si le succès de Fillon à la primaire de la droite était dû au même phénomène. Et moi de lui répondre : “Je ne pense pas que Fillon soit le type de candidat qui va acheter du digital labor dans des fermes à clic” (11’58”).

Par cela je voulais dire que, somme toute, je ne le croyais pas à ce point sans scrupules. Mais les règles du marketing politique contemporain sont impitoyables. Et personne n’y échappe. Même les socialistes français ont eu recours à des plateformes qui monétisent des clics. Mais dans leur cas il s’agissait moins d’un achat direct de fans ou de partages que d’un système pyramidal de sollicitation d’influencers qui à leur tour mettaient à contribution les membres de leurs “commus”. Et on parle de 35-70¢/like— donc on est loin du salaire de la faim des “fermes à clic” dans le Sud global (0,006¢/clic).

Et Fillon dans tout ça ? Suite au PenelopeGate, il a eu besoin d’un petit coup de buzz sur internet. Et tout le monde a hâtivement crié au bot.

Parce que les bots c’est l’avant-garde, parce que les bots font baver les technofuturistes et insurger les luddites à deux sous, parce que les bots font jaser les journalistes qui ont peur d’être remplacé.e.s à leur tour. Néanmoins, quelques minutes après, Libération relate qu’il ne s’agit pas d’une armée d’entités artificielles, mais bien d’une plateforme qui tweete automatiquement à partir de vrais comptes Twitter et Facebook. Rien de différent d’une de ces applis que chacun d’entre nous a pu installer, à un moment ou à un autre, et qui spamme nos followers de messages sur nos exploits sportifs, nos paper.li (remember ?), et nos scores à Pokémon Go (remember ???).

Et comme toujours, derrière le bots se cachent des foules de micro-travailleurs humains. C’est la règle du crowdturfing, terme hybride de crowdsourcing (externalisation de tâches productives à des foules d’usagers/travailleurs) et astroturfing (faux activisme). C’est une pratique qui se généralise pour contrer la capacité des grandes plateformes à reconnaître et intercepter le trafic artificiel : au lieu de payer 100$ à un développeur qui va coder pour vous un logiciel qui envoie 10 000 tweets, vous pouvez recruter 10 000 tâcherons du clic payés 1¢ chacun, voir moins. Simple non ? Voilà un article qui vous explique comment il fonctionne. On retrouve deux cas de figure : la version centralisée du crowdturfing (cf. les fans Facebook de Donald Trump) et celle distribuée (basée sur des recruteurs intermédiaires, comme dans le cas de la Primaire de Gauche).


Source : Serf and Turf: Crowdturfing for Fun and Profit (Wang et al., 2012)

Et la plateforme de Fillon ? Elle fait un crowdturfing d’un type particulier, *sans échange monétaire*. Mais il s’agit bel et bien de digital labor, c’est à dire d’une suite de tâches allouées à des cliqueurs : s’inscrire, se connecter à son compte Twitter et Facebook, “réaliser des actions”.

 


Captures d’écran E-militants de l’Alternance

Zéro spontanéité, zéro loisir, zéro autonomie. Rien qu’une suite d’ordres pénibles et aliénants à réaliser “en zombie”. Le tout est mesuré, tracé, surveillé, et transformé en gratification non pas monétaire (c-à-d un micro-salaire) mais en “points”. Le maître mot ici, c’est gamification. La majorité des tâches valent 1 point. Certaines, plus urgentes/importantes, sont rémunérées 2 ou 3 points. D’autres ont des objectifs a atteindre (116 tweets ou 2k partages FB)…

     

Captures d’écran E-militants de l’Alternance

Mais alors, vous me direz, si ce n’est pas payé et en plus c’est un jeu, ce n’est pas du travail. Ah my dear friends, si vous saviez… Les mécanismes de ludification sont inhérents à la gestion du travail sur les plateformes numériques. Amazon Mechanical Turk les adopte, Uber les adopte, Facebook les adopte.

Derrière la ludification, le spectre de l’exploitation. Déjà en 2013, le philosophe Ian Bogost proposait de remplacer la notion de “gamification” par celle “exploitationware” (logiciel d’exploitation) :

“In particular, gamification proposes to replace real incentives with fictional ones. Real incentives come at a cost but provide value for both parties based on a relationship of trust. By contrast, pretend incentives reduce or eliminate costs, but in so doing they strip away both value and trust.

When companies and organizations provide incentives to help orient the goals of the organization against the desires of its constituency, they facilitate functional relationships, one in which both parties have come to an understanding about how they will relate to one another. Subsequent loyalty might exist between an organization and its customers, an organization and its employees, or a government and its citizens.

For example: an airline offers a view of its business model, and frequent flyers who advance those expectations get rewards. An employer offers a view of its goals, and employees who help meet those goals enjoy raises, perks, and promotions. When loyalty is real it’s reciprocal. It moves in two directions. Something real is at stake for both parties.
Gamification replaces these real, functional, two-way relationships with dysfunctional perversions of relationships. Organizations ask for loyalty, but they reciprocate that loyalty with shams, counterfeit incentives that neither provide value nor require investment.”

[Bogost, I. (2013). Exploitationware. In R. Colby, M. S. S. Johnson, & R. S. Colby (Éd.), Rhetoric/Composition/Play through Video Games (p. 139‑147). Palgrave Macmillan]

Bref, on revient aux bases du digital labor : ce n’est pas parce que vous n’êtes pas payé.e.s que vous ne travaillez pas pour autant. Et ce n’est pas parce que François Fillon inscrit ses tâcherons dans un mécanisme ludique que sa campagne est moins fondée sur l’extraction de valeur à partir de tâches réalisées par des usagers de plateformes numériques. La prise de conscience de cette relation de “parasubordination technique“ entre tâcherons du clics (rémunérés ou pas) et recruteurs (marques, politiques, etc) est nécessaire pour éviter les dérives culturelles et politiques auxquelles ce système nous expose.