digital labor

We need a political subject capable to think an alternative to digital labor (interview Green European Journal, vol. 17, 2018)

[Update: this interview has been translated in portuguese by Priscila Pedrosa]
An interview with Yours Truly and political activist Lorenzo Marsili, published in vol. 17 (“Work on the Horizon: Tracking Employment’s Transformation in Europe”), pp. 80-88 of the Green European Journal. You can download the entire issue here.

Earn Money Online: The Politics of Microwork and Machines

With hype around automation and robotisation at fever pitch, many argue that we will soon see mass labour disappear altogether. Sociologist Antonio Casilli begs to differ. Work is not disappearing, he argues in this interview with Lorenzo Marsili, but is being transformed by the giants of the digital economy. Understanding how the world of work is changing, and in whose interest, is the key political question of the future.

Lorenzo Marsili: You claim that fears of automation are one of the most recurrent human concerns. Do you think the alarm about “robots taking our jobs” should be toned down?

Antonio Casilli: We are afraid of a ‘great substitution’ of humans by machines. This is quite an old concept, one we can trace back to early industrial capitalism. In the 18th and 19th centuries, thinkers like Thomas Mortimer and David Ricardo asked whether the rise of steam power or mechanised mills implied the “superseding of the human race.” This vision was clearly a dystopian prophecy that was never realised in the form originally predicted.

But when jobs were lost, it was because managers and investors decided to use machines – as they still do – as a political tool to put pressure on workers. Such pressures serve to push down wages and, by extension, to expand the profits made by capital. Machines therefore have a precise ideological alignment that typically benefits the part of society which possesses financial means, at the expense of that which works. As a result, the rhetoric around machines as inevitable and neutral job destroyers has been used for two centuries to squeeze the workforce and silence its demands. The discourse that surrounds automation today, with the accompanying fear of robots, is a reproduction of this same rhetoric.

Let’s take a step back. The ‘gig economy’ has become synonymous with underpaid, precarious employment. You choose to focus on the concept of the ‘microtask’. What does this concept refer to?

Microtasks are fragmented and under-remunerated productive processes. Examples include translating one line of a one-page text, watching 10 seconds of an hour-long surveillance video, and tagging the content of five images. Microworkers are usually paid a few cents per task. These tasks are usually posted on microwork platforms which function as labour markets or job search websites. Microworkers can choose the task they want to perform and are allocated a few minutes to complete it. Microtasks are becoming increasingly important in domains as wide-ranging as marketing, computer vision, and logistics, to name just a few. One of the smallest microtasks is the single click, which can be paid as little as one thousandth of a dollar.

The rhetoric around machines as inevitable and neutral job destroyers has been used for two centuries to squeeze the workforce and silence its demands

Are we talking about a significant new phenomenon or is it more of a niche area?

We are faced with a statistical problem when investigating microwork, one shared with the gig economy and indeed every type of informal, atypical, or undeclared work. Their scale and pervasiveness are difficult to gauge with the usual statistical resources such as large-scale surveys, models like the Labour Force Survey, data from the International Labour Organization, or businesses themselves supplying information voluntarily. As far as microwork alone goes, estimates vary wildly. The most conservative, like those of the World Bank, point to just 40 million microworkers. The most exaggerated, meanwhile, describe 300 million in China alone. Personally, I would estimate that there are around 100 million such workers in the world. But the real question is whether these 100 million are the seeds of a much broader tendency. If microwork indicates a way of working that is becoming the norm, how many workers are transforming into microworkers?

And would you say that all work is starting to resemble microwork?

If we look in detail at the evolution of a few particular professions, we can see that they are becoming fragmented and standardised. Take journalists and graphic designers. Instead of producing a campaign, an investigation, or some other project, like 10 or 20 years ago, they find themselves increasingly tasked with producing a small part of a larger project. They are assigned microtasks, to edit a line or to change the colour in a logo, while the rest is distributed to other people. The future of journalism is not threatened by algorithms that write pieces in place of humans, but by the owners of ‘content mills’ that do not demand entire articles but three lines which are used to optimise algorithms. Because the websites in which these texts appear are found by search engines and not by readers, the texts are tailored with the algorithms in mind. Similar kinds of transformations seem to be taking place across a number of sectors.

One interesting aspect of these microjobs is the symbiosis between automated and manual processes. There are jobs that require ‘teaching’ machines and algorithms to make them more efficient for a given task, such as autonomous driving or image recognition. It seems like Star Trek in reverse, where it is no longer the machines that work for the humans but the humans that work for the machines.

In a certain sense, we are seeing the old idea that computers are there for us to command overturned. What’s happening now is that these objects that are a part of our everyday lives – our smartphones, our cars, our personal computers, and many more objects in our homes – are often used to run the automatic processes we call artificial intelligence. By artificial intelligence we mean processes that take decisions in a more or less automatic manner, and which learn, solve problems, and ultimately make decisions, including purchases, in our place. But the problem is that we have this false idea that artificial intelligence is intelligent from its very inception. On the contrary, artificial intelligence needs to be trained, which is why we use terms like ‘machine learning.’ But who teaches artificial intelligence? If we still think the answer is engineers and data scientists, then we are making a big mistake. What artificial intelligence really requires is a huge quantity of examples, and these come from our own personal data. The problem is that this raw information we produce needs to be refined, cleaned, and corrected.

So this is where microwork comes in?

Yes, who wants to do this degrading, routine work? Many people recruited by microwork platforms come from developing countries where the labour market is so precarious and fragmented that they accept minimal remuneration. In return, they perform tasks that might include, for example, copying down a car license plate to provide data for the algorithm managing motorway speeding tickets, or to recognise 10 images, which might be used to provide data on pattern recognition.

But how does this expansion of microwork relate to the stagnation of labour markets in the more advanced capitalist economies? In the UK, for example, there is almost full employment but jobs are increasingly precarious and wages flat.

There is a longer-term trend here that became marked at the end of the 20th century. It consists in the segmentation of the labour market through a pronounced division between ‘insiders’, those who work in ‘formal’ jobs, and ‘outsiders’, who live on ‘odd jobs.’ The so-called outsiders, who are used to moving from one job to another, are the first candidates on microwork platforms. What’s also happening, however, is that insider jobs are becoming less and less formal. The decline of formal work is the result of a political assault on the rights and numbers of salaried workers with the goal of increasing the profit share relative to the wage share. What we see as a result in Western labour markets is an ongoing movement of people from jobs that were traditionally in the formal sector into informal work. This trend is both a result of the huge wave of layoffs seen in recent years, as well as of the outsourcing of productive processes. Outsourcing sees people leave formal jobs to become informal providers for the same company that previously employed them. These people are sometimes asked to leave companies to create their own small businesses and become subcontractors of their former employer.

So labour is not so much destroyed as transformed. Can this development be explained by today’s new monopoly capitalism, with a few large monopolies each dominating a specific platform service?

I would say that there is a process of concentration of capitalism but I don’t agree completely with the notion of monopoly capitalism. I tend to follow the school of thought presented by Nikos Smyrnaios, a Greek researcher, who wrote a book about oligopolistic capitalism, specifically regarding online and digital platforms. The point of his analysis is that there is no such thing as a monopolistic approach to the digital economy. What actually happens is that, for structural and political reasons, these platforms tend to become big oligopolistic economic agents and tend to create what economists would describe as ‘oligopsonies’, or markets dominated by a few buyers, in this case buyers of labour. Thus a handful of big platforms buys labour from a myriad of providers, as happens on microtask services like Amazon Mechanical Turk. These platforms cannot become actual monopolies because they tend to compete amongst themselves.

Citizens are facing relentless efforts deployed by digital capitalists to fragment, standardise, and ‘taskify’ their activities

One way of describing it today is by using quick acronyms like the GAFAM (Google, Apple, Facebook, Amazon, and Microsoft). There are four or five big actors, big platforms, which despite being known for a specific product – whether it is the Google search engine or the Amazon catalogue – don’t really have a ‘typical’ product either. Instead, they are ready to regularly shift to new products and new models. Look at Google’s parent company, Alphabet: it trades in everything from military robot-dogs to think-tanks to fighting corruption. The only thing that is constant for these platforms across products and services is that they rely heavily on data and automated processes, that which we now call artificial intelligence. To capture the data they need to nourish the artificial intelligence they create and sell, they need people to create and refine this data. And so we are back to our role as digital producers of data.

So you would agree with the late Stephen Hawking: the problem is not the robots, but capitalism or, put differently, whoever controls the algorithmic means of production.

This has always been the main problem. The point today is that the algorithmic means of production have become an excuse for capitalists to take certain decisions that would otherwise cause popular uproar. If I were a CEO of a big platform and I declared that my intention was to “destroy the labour market”, I would of course provoke a serious social backlash. But if I said, “I’m not destroying anything, this is just progress, and you cannot stop it”, nobody would react. Nobody wants to be identified with obscurantism or backwardness, especially on the Western Left, whose entire identity is rooted in historical materialism and social progress. So the cultural discourse of “robots who are definitely going to take our jobs” is designed to relieve industrial and political decision-makers from their responsibilities, and to defuse any criticism, reaction, or resistance.

So we need to push against the portrayal of these transformations as natural or magical events, as opposed to political choices. As you know, in the 1970s there was an early re-reading of Marx’s Fragment on Machines, led by Toni Negri and others, which developed the idea of a ‘cognitariat’ as a new political class that could rise up from new forms of immaterial labour. Where do you think that a political force to contest top-down automation might come from?

My own personal history is rooted in a specific intellectual milieu: Italian post-workerism. Nevertheless, some of its hypotheses need to be critically reappraised. I can think of three in particular. The first one is the Marxist notion of a general intellect. With today’s platforms, we are not facing such a phenomenon. Our use of contemporary digital platforms is extremely fragmented and there is no such thing as progress of the collective intelligence of the entire working class or society. Citizens are facing relentless efforts deployed by digital capitalists to fragment, standardise, and ‘taskify’ their activities and their very existences.

The second point is that the bulk of ‘Italian theory’ is based on the notion of immaterial labour. But if we look at digital platforms, and the way they command labour, we see that there is no such thing as a dematerialisation of tasks. The work of Uber drivers or Deliveroo riders relies on physical, material tasks. Even their data is produced by a very tangible process, resting on a series of clicks that an actual finger has to perform.

And finally, we need to dispute the idea that such a political entity, a class of proletarians whose work depends on their cognitive capacities, actually exists. Even if it did, can we really characterise this political subjectivity as a cognitariat? If you read Richard Barbrook’s 2006 book The Class of the New, you’ll see there’s a long list of candidates for the role of Left-sponsored ‘emerging political subjectivities’, one for each time we experience technological or economic change. Between the ‘lumpenproletariat’, the ‘cognitariat’, the ‘cybertariat’, the ‘virtual class’, and the ‘vectorialist class’, the list could go on forever. But which one of these political and social entities is best suited to defending rights and advancing the conditions of its members? And more importantly, which is able to overcome itself?

What do you mean by overcome itself?

The world doesn’t need a new class that simply establishes digital labour and the gig economy as the only way to be. We need a political subject that is able to think about an alternative.

What do you think should be the role of the state? It seems that the only two national ecosystems trying to govern artificial intelligence are the US and China: Silicon Valley and the state-driven ‘Great Firewall of China’. Where does this leave Europe?

There is a question of what the role of the nation state is in a situation where you have a dozen big players internationally whose power, influence, and economic weight are so vast that in some cases they surpass those of the states themselves. Yet states and platforms are not competitors; they collude. U.S. multinationals are just as state driven as Chinese ones. U.S. government funds and big agency contracts have been keeping Silicon Valley afloat for decades. Moreover, there’s a clear revolving door effect: Silicon Valley CEOs going to work for Washington think tanks or for the Pentagon, like Google’s Eric Schmidt for example.

To be extremely blunt, states should heavily regulate these multinationals, but at the same time they should adopt a policy of extreme laissez faire when it comes to individuals, citizens, and civil society at large. Yet so far exactly the opposite has happened: generally speaking, states are repressing any kind of development or experimentation coming from civil society. They stigmatise independent projects by accusing them of being possible receptacles for terrorists, sexual deviants, and hostiles. Meanwhile, the big platforms are left free to do whatever they want. This situation has to change if we are to have actual political and economic progress.

Why Facebook users’ “strikes” don’t work (and how can we fix them)?

Another day, another call for a Facebook “users’ strike”. This one would allegedly run from May 25 to June 1, 2018. It seems to be a one-man stunt, though (“As a collective, I propose we log out of our Facebook…”). Also, it claims to be “the first ever” strike of this kind.

Yet, since the Cambridge Analytica scandal, new calls for strikes have been popping up every few days. As far as I know, the first one dates back to March 21 (although the actual strike is scheduled on May 18, 2018). The organizer is a seasoned Boston Globe journo, who likely just discovered what digital labor is and is SO excited to tell you:

“I like the idea of a strike, because we users are the company’s real labor force. We crank out the millions of posts and photos and likes and links that keep people coming back for more.”

On April 9, 2018 an an obscure Sicilian newspaper called a strike action (which, in Italian, sounds like “sciopero degli utenti di Facebook”). It actually turned out to be an article about the “Faceblock” which did take place on April 11, 2018. It was a 24-hour boycott against Instagram, FB and WhatsApp organized by someone who describe themselves as “a couple of friends with roots in Belgium, Denmark, Ireland, Italy, Malta, Mexico, the UK and the US” (a tad confusing, if you ask me).

Of course, May 1st was a perfect time to call for other Facebook strikes. This one, for instance, is organized by a pseudonymous “Odd Bert”, who also mentions a fictional Internet User Union (which seems to be banned by Facebook). This other one looked a bit like some kind of e-commerce/email scam, but produced three sets of grievances.

“On May 1st, 2018, Facebook users are going on strike unless the company agrees to the following terms:

A. Full Transparency for American and British Voters

  1. Facebook shares the exact date it discovered Russian operatives had purchased ads.
  2. Facebook shares the exact dollar amount Russian operatives spent on political ads.
  3. Facebook shares the 3,000+ ads that Russian operatives ran during 2016.
  4. Facebook reveals how many users saw the fake news stories highlighted by BuzzFeed.
  5. Facebook lets an independent organization audit all political ads run during 2016.
  6. Facebook gives investigators all “Custom Lists” used for targeting 2016 political ads.
  7. Facebook stops running paid political ads until January 1st, 2019.
  8. Mark Zuckerberg (CEO) and Sheryl Sandberg (COO) testify before Congress in an open-door (televised) session.
  9. Mark Zuckerberg and Sheryl Sandberg testify before the UK parliament.

B. Full Transparency and Increased Privacy for Facebook Users

  1. Facebook explains to users exactly what personal data is being used for advertising.
  2. Facebook asks users for itemized consent to use photos, messages, etc. for advertising.
  3. Facebook gives users the ability to see a “history” of all the ads they have viewed.
  4. Facebook lets an independent organization investigate all data breaches since 2007.
  5. Facebook agrees to be audited monthly to make sure it is complying with local laws.
  6. Facebook allows users to easily delete their “history” on the platform.

C. Better Safety for Children on Facebook

  1. Facebook increases the minimum age for Facebook users from 13 to 16.
  2. Facebook shuts down the Messenger Kids product.”

Users’ strikes are hardly new. In 2009, the Spanish social media Tuenti was concerned by a huelga de los usuarios against their terms of service. In 2015, Reddit users disrupted the platform when they revolted en masse in solidarity with a wrongly terminated employee. On Facebook, users’ collective action is inherent to the life of the platform, whose history is replete with examples of petitions, lawsuits, and class actions. After the introduction of Beacon in 2007, a 50,000-strong petition led to its discontinuation. In 2010 several users’ groups organized and lobbied US senators and the Federal Trade Commission (FTC) to oppose the introduction of the ‘like’ button social plugin on external websites. In 2011, the association Europe versus Facebook filed numerous complaints with the Irish Data Protection Commissioner (DPC) and a class action which is presently discussed by the Court of Justice of the European Union. In 2016, the real-life protests and general mobilization against the introduction of Free Basics in India led to its successful ban by the telecommunication authority TRAI, over net neutrality and privacy concerns.

As my co-authors and I argued in our 2014 book Against the Hypothesis of the ‘End of Privacy’, the adoption of pervasive data collection practices by social platforms has been highly contentious, with frequent and cyclical privacy incidents followed by strong mass reactions. What these reactions have in common is that they are strategic, organized, collectives actions that rely on existing communities. Which could provide essential clues as to why the 2018 Facebook strikes are so ineffective. Their do not seem to be organized by active members of existing communities and they certainly do not engage with elected officials or institutional bodies. They are launched by journalists, startup bros, anonymous users trying to get noticed. These persons’ idea of grassroots is a naive one: one heroic individual (or a nonexistent “union”) sparks a revolt, hence the masses follow.

Importantly, they seem to put excessive faith in strikes seen as their only available tactic. A recent article published by a group of Stanford and Microsoft computer scientists captures this romanticized vision of “powerful” industrial actions where users stand hand in hand and nobody crosses the picket line:

“Data laborers could organize a “data labor union” that would collectively bargain with siren servers. While no individual user has much bargaining power, a union that filters platform access to user data could credibly call a powerful strike. Such a union could be an access gateway, making a strike easy to enforce and on a social network, where users would be pressured by friends not to break a strike, this might be particularly effective.”

Nevertheless, as past experiences on social platforms have taught us, successful actions adopt a specific repertoire of contention dominated not by strikes (which are usually costly and difficult to coordinate) but by lobbying and litigation. If we expect Facebook users grievances to be heard, a comprehensive and wide-ranging strategy is necessary to boost their rights. Community, organization, and the selection of effective tools are the three pillars of collective action.

Une loi sur les fake news : à quoi bon ? Tribune dans L’Obs (1 mars 2018)

Si la notion de « fausse nouvelle » est déjà définie par la loi sur la liberté de la presse de 1881, la « loi de fiabilité et de confiance de l’information » annoncée par Emmanuel Macron en 2018 va soi-disant obliger les plateformes numériques à plus de transparence sur les contenus sponsorisés. Toutefois, nous ne connaissons pas suffisamment bien les modes de diffusion de l’information problématique, ni les incitations économiques des grandes plateformes étrangères et des petits producteurs de faux contenus et fausses intéractions qui peuplent leurs écosystèmes. “L’Obs” a demandé à trois intellectuels (Slavoj Žižek, Emmanuel Todd et moi-même) de réfléchir à ce problème qui touche à la nature même du débat public en démocratie.


jeudi 1 mars 2018 – p. 91,92,93,94

Faut-il une loi sur les “fake news” ?


A l’heure où le gouvernement veut légiférer sur les fausses informations, le sociologue et spécialiste d’internet Antonio Casilli explique comment elles se fabriquent, et révèle les dessous d’un marché mondial.

Les colporteurs, d’après l’édition 1751 de l’« Encyclopédie », étaient « anciennement des gens de mauvaise foi qui rodoient de ville en ville, vendant & achetant de la vaisselle de cuivre, d’étain, & autres semblables marchandises ». Un peu marchands, un peu charlatans, ils vendaient du rêve sous forme de livres et de gazettes truffées d’histoires mêlant le monstrueux au prodigieux. Il serait aisé de tracer un parallèle historique entre la littérature de colportage et les fake news actuelles. L’Histoire pullule d’exemples de systèmes organisant la circulation d’informations non vérifiées. Citons les écrits apocryphes de l’Antiquité, qui entretiennent des similitudes avec les « faits alternatifs » et les théories complotistes actuelles, ou encore l’invention de la dezinformatsiya dans le « bureau spécial de désinformation » du KGB créé par Staline en 1923, et qui a servi de modèle à la production active d’ignorance et de confusion à des fins politiques. Mensonges et propagande ont toujours fait partie de la sphère publique. A première vue, les traits distinctifs des fake news ne ressortent pas de manière évidente. Même en admettant que la propagation actuelle de rumeurs et contre-vérités s’inscrive dans un cadre culturel et technologique inédit, dominé par les médias numériques, la cause de cette confusion généralisée demeure inconnue. Est-ce la possibilité que le web offre à n’importe qui de publier n’importe quoi qui ébranle la capacité des citoyens à se forger une opinion éclairée? Ou alors, comme le rappelle le chercheur Nikos Smyrnaios, serait-ce l’opinion largement partagée d’une presse soumise aux pouvoirs économiques et politiques qui pousse les publics à rechercher « une information “alternative”, pour le meilleur et pour le pire » ? Quelle qu’en soit la raison, la perte de légitimité des médias traditionnels a créé un appel d’air pour la production de fake news. Mais contrairement à ce qu’on dit souvent, leur diffusion n’est pas le fait de hordes de « colporteurs numériques » venus répandre librement leurs fausses nouvelles. C’est bien la manière dont les grandes plateformes numériques, comme Google ou Facebook, ont décidé de sélectionner l’information qui pose problème.

Les modèles économiques des médias sociaux s’appuient sur des régies publicitaires comme AdSense et AdWords de Google ou Audience Network de Facebook, qui collectent et mettent à profit les informations personnelles de leurs usagers : historiques de navigation, listes d’amis, localisation géographique, visionnages de vidéos ou « J’aime » sur des photos constituent cette fameuse data que vont monnayer les Gafam [Google, Apple, Facebook, Amazon et Microsoft]. Dès lors que les médias sociaux ont intérêt à retenir leurs abonnés le plus longtemps possible pour collecter davantage de données personnelles, ils finissent par mettre en place des incitations économiques qui favorisent les contenus sensationnalistes. Dans le jargon des annonceurs, les histoires outrancières seraient plus sticky, plus « collantes ». Les contenus doivent émouvoir et polariser les opinions pour constituer une occasion de partage, d’engagement de l’attention, d’échanges entre amis et ennemis sur les médias sociaux – qu’importe leur degré de fiction. Cet intérêt pour l’attention des internautes pousse les producteurs d’information en ligne à se débarrasser des standards éthiques et des méthodes d’autorégulation qui avaient caractérisé le journalisme d’avant internet.

La ville de Veles, en Macédoine, en donne un exemple flagrant. Sans grande perspective d’emploi dans cette cité désindustrialisée, des jeunes ont mis en ligne des sites tels que,,, qu’ils ont utilisés comme base pour propager sur Facebook des millions de mèmes. Ces images cocasses ou choquantes, propageant des mensonges sur les adversaires politiques du candidat républicain, ont généré des flux de revenu publicitaire qui ont permis à ces adolescents, souvent en rupture scolaire, de joindre les deux bouts. Les modèles économiques des plateformes numériques ne favorisent pas tant la militance spontanée émanant de la base d’un parti, que des campagnes de propagande et de dénigrement montées de toute pièce. Les Américains les désignent par le néologisme crowdturfing, issu du terme anglais crowd (« foule ») et de la marque de gazon artificiel AstroTurf.

Mais l’artificialité du phénomène ne réside pas là où on le croit. Car ces contenus factices ne sont généralement pas créés par des « bots » – des agents automatiques, trop vite repérés par les filtres anti-spam des plateformes et par les usagers avec lesquels ils sont censés interagir. Les propagateurs sont en réalité des faux comptes animés par des êtres humains, qui la plupart du temps n’ont que faire de l’opinion politique des images ou textes qu’ils diffusent. Les faux followers, par exemple, sont créés par des internautes qui s’abonnent volontairement à une page, une chaîne, un compte en échange d’un micropaiement. Vu que pour le reste, leurs comportements sont ceux d’usagers communs, il est difficile de les détecter. En outre, ils peuvent influencer les électeurs par leurs messages et comportements. Le crowdturfing vise à produire des vagues de trafic et de viralité de l’information qui servent à « amorcer la pompe ».

Les campagnes électorales à l’heure des grandes plateformes se basent donc sur des masses grandissantes d’influenceurs numériques qui se font passer pour des militants mais sont essentiellement motivés par l’appât du gain. Ce phénomène ne se résume pas à la production d’intox : l’interaction sociale qui accompagne les fake news est tout aussi importante que leur contenu. Il existe sur internet des plateformes de crowdturfing où l’on achète à prix cassé commentaires, partage et retweets de messages haineux ou diffamatoires. Moyennant des paiements d’à peine quelques centimes d’euro, les experts en marketing politique peuvent recruter des myriades d’ouvriers du clic pour assurer la circulation des fake news, ou les faire remonter dans le référencement des moteurs de recherche et dans les tendances émergentes des médias sociaux. Pendant la présidentielle française de 2017, le chercheur belge Nicolas Vanderbiest a pu détecter sur Twitter des réseaux d’influence nationaux (Patriosphère, Sens Commun, etc.) et internationaux (provenant des Etats-Unis, de la Russie, et même de l’Arabie saoudite), qui ont vraisemblablement acheté le travail de foules de faux militants pour mettre en avant les hashtags #MacronLeaks, #PenelopeGate, etc.

La majorité de ces ouvriers du clic opèrent depuis chez eux et sont recrutés sur des services en ligne tout à fait légitimes comme UpWork ou FreeLancer. Selon une étude de l’université de Santa Barbara, entre 70% et 95% des requêtes négociées sur certaines plateformes de microtravail (MinuteWorkers, ShortTask, MyEasyTask, MicroWorkers) consistent en la création de faux profils, faux avis, faux liens vers sites web, etc. L’origine géographique des acheteurs de clics (Etats-Unis, Canada et Royaume-Uni, mais aussi France, et Espagne) et celle des producteurs (Bangladesh, Pakistan, Népal, Indonésie, Sri Lanka, Inde, Kenya, Madagascar) reproduit des tendances globales de délocalisation de « sales boulots » vers des zones du monde où la force de travail est marquée par une forte vulnérabilité à l’exploitation. Partager des messages de haine, faire augmenter le compteur de visionnage d’une vidéo diffamatoire voire créer des profils qui s’abonnent au fil d’une personnalité de l’extrême droite xénophobe : voilà les tâches que ces travailleurs se voient proposer. Selon les révélations de Business Insider, en 2015 Donald Trump aurait acheté près de 60% des fans de sa page Facebook aux Philippines, en Malaisie et… au Mexique.

Les grands médias sociaux jouent un rôle extrêmement ambigu dans cette économie du clic. D’une part, Facebook et Google s’engagent depuis 2016 dans des remaniements réguliers de leurs algorithmes de référencement et de ciblage publicitaire afin de corriger les biais qui ont permis aux fake news de se répandre et ils s’adonnent depuis toujours à des « purges » de faux profils, voire proscrivent les utilisateurs ayant recours aux plateformes de crowdturfing. Mais, d’autre part, le réseau de Mark Zuckerberg semble fonctionner grâce à des mécanismes d’achat de visibilité qui entretiennent de nombreuses similitudes avec le fonctionnement des usines à faux clics.

Entre 2012 et 2014, des experts ont mené des expériences à partir de pages-appâts conçues pour attirer des lecteurs. Tous arrivent à la même conclusion : l’essentiel des profils ayant partagé leurs contenus ont des comportements suspects, ils sont fans de milliers de marques et de personnalités politiques disparates situées en Inde comme en Amérique du Nord. Autre conclusion de ces expériences : ces faux clics ne sont pas un détournement mais bien le résultat de la politique commerciale de Facebook Facebook ne vend pas directement du clic, mais propose à ses usagers de « booster leurs publications », voire d’en augmenter la visibilité moyennant un petit paiement. Or selon ces mêmes experts, ce visionnage vendu par Facebook provient des mêmes pays en voie de développement. C’est ainsi que le crowdturfing chassé des profils reviendrait par la fenêtre de la publicité. Cela redimensionne considérablement les prétentions d’authenticité de l’information qui circule sur ces réseaux. La distinction entre expression politique « artificielle » et « vraie conviction » devient floue. Sans vouloir entrer dans les débats philosophiques sur « ce qu’est la vérité », il nous faut admettre une chose : les fake news mettent à mal la possibilité de s’entendre sur la réalité même d’une action politique bien informée, indépendante des logiques commerciales et dans laquelle les intermédiaires politiques et culturels opéreraient de manière transparente.

Toute intervention législative sur les fake news qui manquerait de prendre en compte ces aspects serait destinée à l’échec. Au lieu de cibler exclusivement les petits dealers de mal-information, il est nécessaire de se concentrer sur leurs mandataires et sur les infrastructures techniques qui rendent possible leur action. Il faudrait par exemple établir l’obligation, pour les formations politiques, de publier un « bilan numérique » faisant état des dépenses et de la nature de leur marketing politique sur internet, de façon à les décourager d’effectuer des opérations clandestines à base de marchandage de clics. Tout comme les médias audiovisuels adoptent une règle d’égalité du temps de parole des candidats pour garantir le pluralisme, il est urgent de s’assurer que les partis politiques n’obtiennent pas subrepticement du « temps de cerveau » supplémentaire en achetant des tweets, des « like » et des contenus viraux lors des campagnes.

Mais la responsabilité informationnelle des organisations politiques doit se conjuguer avec un renouvellement des modèles économiques des médias sociaux numériques, qui ont reposé jusqu’à présent sur l’expropriation des données personnelles de leurs usagers à des fins publicitaires et sur la mise en place de longues chaînes de sous-traitance de tâches informationnelles vers des pays dits « du Sud ». C’est non seulement leur viabilité économique, mais aussi leurs admissibilités politique et éthique qui doivent être aujourd’hui questionnées. Une dernière recommandation politique concerne alors la défense des droits des travailleurs du clic, non pas pour normaliser le système du crowdturfing mais pour s’en affranchir. Le respect des normes internationales du travail, la garantie pour ces travailleurs d’une rémunération équitable et de conditions de travail décentes – bref la possibilité de résister au chantage au travail à la micro-pièce – constituerait un levier de négociation qui leur permettrait de refuser de contribuer au système des fake news. Reconnaître le travail invisible de ces ouvriers du clic et les doter de méthodes pour se protéger et pour faire entendre leurs voix, est aussi – et avant tout – un enjeu de citoyenneté globale.

Pour un tournant décolonial numérique (Télérama, 5 févr. 2018)

Dans Télérama, l’entretien accordé au journaliste Romain Jeanticou.

La domination des géants du numérique est-elle un nouveau colonialisme ?

Romain Jeanticou Publié le 05/02/2018.

Google, Apple, Facebook, Amazon, Microsoft… En offrant nos données personnelles à ces géants aussi puissants que des Etats, nous les laissons nous exploiter, selon le sociologue et chercheur italien Antonio Casilli, qui plaide pour un “tournant décolonial numérique”.

On les dit plus puissants que certains Etats. Les géants de l’économie numérique – Google, Apple, Facebook, Amazon et Microsoft en tête – n’ont qu’à jeter un œil par les fenêtres que nous leur ouvrons sur nos vies pour savoir ce que nous faisons, ce que nous consommons ou ce à quoi nous rêvons. Sans nous en rendre compte, nous produisons chaque jour, gratuitement, et parfois même avec délectation, des données personnelles monétisées et revendues à des entreprises tierces ou à des Etats. L’autonomie des utilisateurs vantée par les plateformes cache en réalité l’exploitation de cette production bénévole : nous travaillons tous gratuitement pour Facebook ou Google. Nous serions même devenus de la « chair à algorithmes », comme le dénonce une tribune datée du 5 février, parue dans Le Monde, invitant chacun à monnayer ses données personnelles. 

Une position à laquelle s’oppose fermement le sociologue et chercheur italien Antonio Casilli, maître de conférences en humanités numériques à Télécom ParisTech et auteur, en 2010, des Liaisons numériques. Vers une nouvelle sociabilité ? (éd. Seuil). Dans un article paru en fin d’année dernière dans la revue académique américaine International Journal of Communication, il met toutefois en parallèle la « mise au travail » des internautes avec les modes de subordination appliqués à ses travailleurs par l’économie numérique. Dans le Nord – les chauffeurs Uber – mais aussi et surtout dans le Sud – les employés des « fermes à clics », ces « micro-travailleurs » engagés pour accomplir de toutes petites tâches censées enrichir ces mêmes plateformes.

Ces asymétries et ces rapports de force font émerger un discours critique de la situation de puissance des entreprises du numérique, de plus en plus assimilée à une forme de colonisation. Pour autant, Antonio Casilli appelle à définir ces relations de pouvoir inédites à l’aide de nouveaux concepts, parmi lesquels la « colonialité ».

Est-il pertinent de comparer les géants du numérique à des Etats ?

C’est très cohérent avec la rhétorique commerciale de ces entreprises. Etre comparé à un Etat est très flatteur lorsque l’on se présente comme capable de le remplacer. Plusieurs dirigeants des entreprises de la Silicon Valley sont proches des postures politiques libertariennes qui prônent le remplacement des structures publiques par des sociétés privées. Lorsque Google propose aux villes de développer des services de « smart cities », à Toronto par exemple, elle cherche à se substituer aux administrations locales. En développant ces services, ces entreprises nous mettent face à la possibilité de nous passer d’un gouvernement démocratiquement élu. Cette posture est possible parce que nos démocraties sont imparfaites et montrent leurs limites : depuis le tournant néolibéral de la fin du siècle dernier, elles ne garantissent plus le minimum de services indispensables d’un Etat-providence. Cette déficience crée un appel d’air qui permet aux plateformes de s’imposer comme fournisseurs de ces services tout en créant une proximité avec les citoyens. Avec un téléphone dans sa poche, on est toujours plus proche d’Apple que de l’administration publique.

Les tâcherons du clic

Selon vous, la dynamique d’exploitation de ces plateformes est double : la mise au travail des utilisateurs dans les pays riches, celle des micro-travailleurs dans les pays pauvres. Nous serions tous des ouvriers du travail numérique.

Ces plateformes, même les plus ludiques, sont basées sur des mécanismes de mise au travail de leurs usagers. Quatre milliards d’êtres humains connectés produisent en permanence des biens, des contenus et des données qui constituent l’actif immatériel de ces plateformes. Ceux-ci sont ensuite revendus et monétisés à des entreprises tierces ou à certains Etats. Vos recherches Internet permettent par exemple à des sites de vente en ligne de vous proposer des publicités ciblées. Il faut ajouter à cela une utilisation de ces données à des fins d’automatisation, c’est-à-dire pour l’apprentissage des machines à intelligence artificielle qui seront chargées d’évaluer, d’analyser et de trier ce contenu.

Ces bases de données sont produites quotidiennement par nous-mêmes, mais aussi par des « tâcherons du clic », ces travailleurs rémunérés en centimes pour cliquer sur des publicités ou modérer du contenu. Ils évoluent dans des conditions de précarité et de volatilité de revenus extrêmes. Le tout sans encadrement contractuel ni protection sociale. Cette économie est florissante dans le sud de l’hémisphère : dans les pays émergents ou en voie de développement comme les Philippines, l’Inde, le Népal, le Mexique, la Colombie…

Comment les gouvernements occidentaux participent-ils à la construction de ces systèmes de domination et d’exploitation ?

Il y participent par omission. A l’exception de certains efforts de réflexion comme ceux de France Stratégie [institution d’expertise rattachée au cabinet du Premier ministre, ndlr] ou du Conseil national du numérique en France, on assiste à une forme d’aveuglement des gouvernements face au développement de l’automatisation. Ils n’y voient que l’aspect technique – la montée en puissance de l’intelligence artificielle – et oublient l’humain dans l’équation – les ouvriers chargés d’entraîner les machines. Cette économie n’est pas faite que de robots, ni seulement d’ingénieurs ou d’experts de la gestion de données. Elle épouse même des formes de délocalisation : les entreprises occidentales achètent du clic à des usines de micro-travailleurs au Kenya ou en Thaïlande pour augmenter leurs revenus. C’est parfois cohérent avec l’histoire coloniale de certains pays : la France en Afrique, le Royaume-Uni en Inde, les Etats-Unis aux Philippines… Comme de nombreux autres secteurs de l’économie mondiale, cette mise au travail est construite sur des formes d’asymétrie globale qui ont affaire à des logiques d’exploitation historiques du Sud par le Nord.

Cette nouvelle économie est parfois comparée à du « néocolonialisme » ou à du « cybercolonialisme ». Quelles sont les limites de ces comparaisons ?

La première est l’historicisation immédiate qui en résulte. Le terme « colonialisme » a une histoire, celle de catastrophes humaines et économiques dont les effets courent encore sur de nombreux territoires de l’hémisphère Sud. Le récupérer, c’est risquer l’appropriation et l’effacement de ces spécificités historiques.

La deuxième limite se trouve dans la coupure opérée entre le Nord, que l’on assimilerait à de la production à forte valeur ajoutée et à de la contribution intellectuelle, et le Sud, qui ne produirait que de la matière brute. Ce dualisme contient un jugement de valeur qui fait fi de la production massive de contenu culturel dans le sud du monde. En Chine, on trouve à la fois d’immenses usines à clics et certaines des structures les plus innovantes de la planète en matière de haute technologie.

Enfin, il faut éviter de tomber dans le piège de l’orientalisme : en reléguant le Sud à un schéma statique et passif, on l’éloigne de toute évolution possible. Cette exotisation mène à considérer ces pays comme des territoires arriérés incapables de se défaire de leur position historique. En réalité, beaucoup ont la volonté de devenir compétitifs dans le secteur technologique, à l’image d’une ville comme Bangalore, aujourd’hui considérée comme la Silicon Valley indienne grâce à son important pôle de recherche et de production.

Un travail exploité et invisibilisé

A « colonialisme », vous préférez le concept philosophique de « colonialité ». Pourquoi ?

C’est un concept initié par le chercheur Nelson Maldonado-Torres, qui cherche à élargir la notion de colonialisme. Nous avons besoin d’une notion qui exprime ces formes d’asymétrie politique, économique et culturelle entre le Nord et le Sud tout en dépassant les caractéristiques historiques du colonialisme. La colonialité est détachée de l’expérience coloniale dans le sens où elle renvoie à un ressenti que l’on peut tout aussi bien trouver dans des pays sans histoire coloniale, voire dans des pays du nord de la planète. Lorsque l’on exploite ou vole nos données, nous sommes tous dans cette situation où le travail que nous fournissons pour ces entreprises est exploité et invisibilisé.

Vous plaidez désormais pour un « tournant décolonial numérique ».

On y vient petit à petit. De plus en plus de personnes se rendent compte de cette mise au travail et de sa non-reconnaissance, autant dans le nord que dans le sud. Cette prise de conscience se retrouve chez les chercheurs, mais aussi chez les travailleurs. Pensons aux luttes syndicales en cours : les travailleurs d’Uber et autres Deliveroo contestent partout le management algorithmique auquel ils sont soumis. Ajoutons à cela les groupes d’utilisateurs qui se demandent comment redistribuer la valeur créée sur ces plateformes, via la fiscalité numérique ou la contractualisation des algorithmes, pour contrôler la production de leurs contenus. Les syndicats en France, au Royaume-Uni, en Italie ou en Allemagne s’emparent de ces questions, mais dans le sud aussi une prise de conscience est en cours pour contrer la puissance de ces plateformes, à l’image de l’Inde et du Brésil qui se sont opposés à Facebook et WhatsApp.



100 milioni di microlavoratori e… 4 miliardi di operai del click (Il Manifesto, Italia, 27 genn. 2018)

Nell’edizione del 27 gennaio 2018 de Il Manifesto, l’inserto settimanale Alias ospita una dossier assai completo su lavoro, piattaforme e nuove prospettive dell’azione politica in cui compare un mio lungo articolo intitolato Sulle piattaforme digitali siamo tutti operai del click. Fra le altre firme presenti in occasione dell’uscita di “Forza Lavoro”, il nuovo libro di Roberto Ciccarelli, ritroviamo Ippolita, Toni Negri, Valerio De Stefano, Tiziana Terranova.

La vie privée et les travailleurs de la donnée (Le Monde, 22 janv. 2018)

Dans Le Monde du 22 janvier 2018, je publie avec Paola Tubaro une tribune à l’occasion des 40 ans de la CNIL.

Attention : La tribune a été traduite en portugais et publié sur le site brésilien Outras Palavras.


Notre vie privée, un concept négociable

Antonio Casilli (Télécom ParisTech/EHESS) et Paola Tubaro (CNRS)

La défense de nos informations personnelles ne doit pas exclure celle des droits des travailleurs de la donnée

L’idée que nous nous faisons de la vie privée a profondément changé ces dernières années. Lorsque, en 1890, les juristes américains Samuel Warren et Louis Brandeis définissaient the right to privacy comme ” le droit d’être laissé en paix “, ils ignoraient qu’un siècle plus tard, cette définition n’aurait pas de sens pour 4 milliards d’êtres humains connectés. Nous n’assistons pas à sa fin, mais à la transformation de la -notion héritée de la tradition étasunienne. Pour ceux d’entre nous qui sont activement en quête de correspondants, d’amis, de partenaires sur un réseau numérique, le souci de défendre nos informations personnelles d’ingérences extérieures se révèle accessoire par rapport au droit de savoir combien de personnes exactement les possèdent et quel usage en est fait.

Nos informations ne sont plus ” chez nous “. Elles sont disséminées sur les profils Facebook de nos amis, dans les bases de données des commerçants qui tracent nos transactions, dans les boîtes noires algorithmiques qui captent le trafic Internet pour les services de renseignement. Il n’y a rien de plus collectif qu’une donnée personnelle. La question est donc moins de la protéger de l’action d’intrus qui cherchent à en pénétrer la profondeur que d’harmoniser une pluralité d’acteurs sociaux qui veulent y avoir accès.

Exit la notion de privacy comme pénétration qui était à la base de la loi Informatique et libertés de 1978, place à celle de privacy comme négociation. Communiquer des informations personnelles ou même sensibles à des tiers divers et variés fait désormais partie de l’expérience quotidienne de tout individu, que ce soit pour accéder à des biens commerciaux ou à des services publics. Il s’agit par exemple de consulter son compte Ameli, de vérifier un itinéraire sur son GPS, parfois d’organiser une rencontre sur Tinder ou de mesurer sa performance sportive par un bracelet connecté. Auparavant, le consentement à la captation, au traitement et à la conservation des données était nécessaire pour qu’une -pénétration de l’intimité ne soit pas une violation. Maintenant, sa fonction a changé. On donne son consentement contre un service.

C’est là le premier sens de l’idée de négociation de la vie privée : un échange, marchand ou pas, où les données personnelles font fonction de monnaie. S’arrêter à cette seule interprétation serait pourtant fourvoyant et politiquement myope. La vie privée est aujourd’hui surtout une négociation collective, une -concertation entre plusieurs parties afin de définir des obligations réciproques et d’organiser une relation. Cette relation peut être conflictuelle. De la campagne indienne contre l’usage des données par l’application Free -Basics à la plainte de l’ONG Europe-v-Facebook invalidant l’accord Safe Harbor, qui autorisait la plate-forme à transférer les informations des citoyens européens vers les Etats-Unis, les usagers de médias sociaux s’insurgent régulièrement contre des conditions perçues comme abusives.

Notre privacy cesse aujourd’hui d’être un droit individuel et se rapproche de l’idée d’un faisceau de droits et de prérogatives à allouer entre les citoyens, l’Etat et les entreprises du numérique. La négociation n’est pas simple et se complique d’autant plus que, par leurs -algorithmes, de puissantes plates-formes -tentent d’infléchir nos comportements. Un contact créé par deux usagers de leur propre initiative et un contact créé sous le conseil d’un système de recommandation automatisé sont-ils équivalents? Qui détient un droit sur les informations que cette relation engendre?

Il faut alors s’interroger non seulement sur les conditions d’usage, mais aussi sur les -modes de production des données, lesquels sont profondément influencés par les modèles d’affaires et les architectures logicielles -imposées par les plates-formes.

En effet, au-delà de la production de données brutes, des problèmes d’ordre nouveau apparaissent lorsqu’on étend son regard à leurs enrichissement, codage, étiquetage, mise en forme – opérations nécessaires pour rendre les données exploitables par des techniques de machine learning, soit l’apprentissage automatique. Les photos des vacances mises en ligne par les usagers d’une plate-forme sociale peuvent, par exemple, être labélisées par des tags qui identifient les lieux. Ces informations ont une valeur économique : -elles peuvent être vendues à des régies publicitaires ou, mieux, être utilisées pour calibrer des intelligences artificielles qui proposent automatiquement de prochains séjours aux vacanciers. Parfois, ce sont les usagers eux-mêmes qui ajoutent ces informations; parfois, les entreprises ont recours à du ” microtravail ” payé à la pièce. Moyennant quelques centimes, des services comme Amazon -Mechanical Turk leur permettent de demander à des myriades d’ouvriers du clic, souvent situées dans des pays en voie de développement, de trier ou d’améliorer photos, textes ou vidéos. Ces services recrutent des prestataires majoritairement précaires et peu rémunérés, remettant en question d’anciens acquis en termes de conditions de travail et d’appropriation de son produit. Ces nouvelles formes de digital labor s’imposent comme une -urgence pour le régulateur.

Pour corriger les distorsions et les abus provoqués par cette situation, la solution -consiste à élargir le domaine d’action des autorités de régulation des données comme la CNIL. Il s’agit non seulement de s’intéresser aux architectures techniques des plates-formes qui permettent l’extraction et la circulation des données personnelles, mais aussi de créer les conditions pour que le travail de production et d’enrichissement des données (autant de la part des services de microtravail que des usagers de plates-formes généralistes comme Instagram ou Google) reste respectueux des droits des personnes et du droit du travail. Le défi qui attend la CNIL est de devenir non pas un gardien de la propriété sur les données, mais un défenseur des droits des travailleurs de la donnée.

Antonio Casilli et Paola Tubaro

Pourquoi la vente de nos données personnelles (contre un plat de lentilles) est une très mauvaise idée

Jacob dit : ‘Vends-moi aujourd’hui tes données”.
“Voici”, s’exclama Esaü, “je m’en vais mourir de faim !
A quoi me servent ces données ?” (…) Alors Jacob donna
à Esaü du pain et du potage de lentilles. Il mangea et but,
puis se leva et s’en alla. C’est ainsi qu’Esaü méprisa le droit
de disposer des fruits de son travail numérique. (Génèse 25:31-34 ?)

The Economist (ou du moins le journaliste Ryan Avent qui a écrit l’article paru sous le titre “The digital proletariat” dans la première livraison de 2018 du magazine britannique) découvre avec une décennie de retard l’existence du digital labor, au hasard de la lecture d’un “fascinating new economics paper”.  Pour la petite histoire, le papier en question vient tout juste d’être publié sur ArXiv et s’intitule “Should we treat data as labor?”. Il s’agit d’un résumé en clé économiciste des études existantes dans le domaine, mais avec un twist très Jaron Lanier (qui est par ailleurs l’un des co-auteurs) : “les données sont le fruit du travail des usagers, sauf si ces derniers les revendent DE MANIERE TOUT A FAIT TRANSPARENTE ET EQUITABLE HEIN à des multinationales qui ne veulent que leur bonheur.”.

Et si cela résonne avec les propositions ultra-libérales de certains think tanks bien de chez nous, qui vous proposent de vendre vos données en échange du proverbial “plat de lentilles” (v. le récent rapport de Génération Libre), et bien… c’est parce que c’est la même chose. Sachez quand même que celle-ci est une position très minoritaire au sein des études sur le digital labor, qui revendiquent en général une approche plutôt “commoniste” des données. Comme je le disais ailleurs (2016), “il n’y a rien de plus collectif qu’une donnée personnelle”. Et, comme je le répète depuis 2015 :

“[La proposition de revendre les données issues du digital labor] pose d’abord un problème éthique: de fait, la commercialisation des données personnelles créerait un énième « marché répugnant », formule parfois utilisée pour définir les marchés (comme l’achat d’organes, ou les paris en bourse sur les attentats terroristes) qui sont problématiques et intrinsèquement imprudents. A-t-on le droit de vendre un bras ou un œil? Le fait de vendre les données pose le même type de difficultés car ce marché présupposerait un droit de propriété privée sur les données personnelles. C’est une dérive très dangereuse vers la « privatisation de la privacy », que j’ai dénoncée ailleurs. Ces considérations s’appliquent à plus forte raison au digital labor, qui produit de la valeur en s’appuyant sur un contexte collectif – les sociabilités ordinaires, le partage au sein de communautés d’utilisateurs. Quoique personnelles, ces données, ces productions digitales, ne sont pas du ressort de la propriété privée, mais le produit d’un commun, d’une collectivité. Par conséquent, la rémunération devrait chercher à redonner aux commons ce qui a été extrait des commons.”

La solution n’est pas, AMHA, une rémunération individuelle des données, sous forme de royalties ou de micro-paie. La rémunération à la pièce est déjà en vigueur sur les plateformes de micro-travail–et cela se solde par un nivellement par le bas des rémunérations de ceux qui y travaillent, surtout dans le cas des fermes à clic installées aux Philippines, au Madagascar, au Kenya, etc. Au vu des asymétries d’information et de pouvoir entre les grands oligopoles numériques et les usagers, cette situation est destinée à se reproduire dans les négociations avec les publics généralistes. Une contractualisation sur base individuelle de la valeur de la donnée n’entraînerait qu’une généralisation de la condition de sous-prolétaire numérique. Pour en sortir, j’ai à plusieurs reprises prôné un revenu universel numérique financé par des impôts sur les profits des plateformes. Dans une interview récente, je résumais ma position de la manière suivante :

“[A universal basic income would protect the digital labor workforce] by recognizing the data labor that flows through the platforms. This has already been argued by a report by the French Ministry of Finance in 2013, and in a report by the Rockefeller Foundation last year. The digital giants should not be taxed on the basis of how many data centers or offices they have in a country, but on the basis of the data produced by the users of the platforms. If there are 30 million Google users in Italy, it is fair to tax Google based on the profits they made from these users’ activities. In this way, one could fund a basic income, arising from the digital labor that each of us carries out on the internet or on the mobile apps we use.”

PS. Pour aller plus loin, n’hésitez pas à consulter ces quelques articles, ouvrages ou chapitres que j’ai publié entre 2013 et 2017 :

M, le maudit chatbot (ou, de l’impossibilité de l’automation complète au lendemain de l’échec de l’assistant virtuel de Facebook)

L’année 2018 commence fort chez Zuckerberg. Facebook a décidé de mettre fin à l’expérience de son assistant virtuel, M. Par rapport aux autres chatbots sur le marché, M avait une particularité : il ne cachait pas la présence d’humains derrière les rideaux de l’automation, pour ainsi dire. Facebook allait jusqu’à intégrer cet attribut dans ses arguments de vente. M était présenté comme une intelligence artificielle « mue par des humains » (human powered).

Il s’agissait d’un logiciel qui envoyait des messages via l’application Messenger, initialement disponible pour un nombre limité d’usagers-testeurs (10 000 résidents de San Francisco) qui l’utilisaient surtout pour des opérations commerciales. La plupart des tâches réalisées par le chatbot nécessitaient de personnes pour assister, entraîner, vérifier ses réponses — et parfois se faire carrément passer pour M. D’où la suspicion que son nom ne soit pas un clin d’œil à l’assistant de James Bond, miss Moneypenny, mais une référence assez claire au “micro-travail”…

L’objectif de Facebook avec cet agent conversationnel était de développer une technologie d’intelligence artificielle capable d’automatiser presque n’importe quelle tâche (“Facebook put no bounds on what M could be asked to do“). C’est toujours la vieille promesse du machine learning : tu fais réaliser des tâches par des humains, puis “la machine” apprend et — bam ! tu te débarrasses des humains. Néanmoins, malgré les vastes ressources techniques de Facebook, le taux d’automation de M semble n’avoir jamais dépasse 30%. Presque trois quarts des tâches, donc, étaient effectuées par des petites mains payées à la pièce, entre San Francisco et Katmandou (si le bruit selon lequel elles étaient recrutées via le bureau népalais de la plateforme de micro-travail Cloudfactory était confirmé).

L’histoire de M contient une moralité pour toute entreprise qui développe ou achète des solutions de IA : quand on prend en compte le coût de the human in the loop, l’automation revient très chère. C’est à cause de l’importance de ces coûts (et de la médiocrité des résultats) que Facebook a définitivement décidé de discontinuer M en 2018.

L’autre leçon à retenir ici est que dans la mesure où l’objectif final de M était de préparer le développement de solutions IA qui auraient pu automatiser presque toutes les tâches que les usagers réalisent en ligne, l’automation complète s’avère être un fantasme de silconvallards. A chaque fois qu’on automatise une tâche, les êtres humains avec qui l’IA interagit en redemandent, et de plus en plus complexes. Comme Wired le souligne :

“Another challenge: When M could complete tasks, users asked for progressively harder tasks. A fully automated M would have to do things far beyond the capabilities of existing machine learning technology. Today’s best algorithms are a long way from being able to really understand all the nuances of natural language.”

Il faut alors recommencer et recommencer à concevoir-entraîner-tester-micro-travailler etc. Comme quoi, nous (autant les centaines de millions de tâcherons du clic sur les plateformes de micro-travail que les milliards de micro-tâcherons dissimulés que nous sommes sur les plateformes de médias sociaux) avons devant nous une longue carrière de dresseurs d’IA. Très longue. Interminable même, à en croire certains jeunes experts d’automation. Parmi eux, un nommé Ernest Mandel, lequel affirmait, dans un texte paru en… 1986 :

“Sous le capitalisme, l’automation complète, l’introduction de robots sur grande échelle sont impossibles car elles impliqueraient la disparition de l’économie de marché, de l’argent, du capital et des profits. (…) La variante la plus probable sous le capitalisme, c’est précisément la longue durée de la dépression actuelle, avec seulement le développement d’une automation partielle et d’une robotisation marginale, les deux étant accompagnées par une surcapacité de surproduction sur grande échelle (une surproduction de marchandises), un chômage sur grande échelle, une pression sur grande échelle pour extraire de plus en plus de plus-value d’un nombre de jours de travail et d’ouvriers productifs tendant à stagner et à décliner lentement. Cela équivaudrait à une augmentation de la pression à la surexploitation de la classe ouvrière (en faisant baisser les salaires réels et les prestations de Sécurité sociale), en affaiblissant ou détruisant le mouvement ouvrier organisé et en sapant les libertés démocratiques et les droits de l’homme.”