IA

“En attendant les robots” choix de Philomag (févr. 2019)

Dans le numéro de février 2019 de Philosophies Magazine.

À en croire la prophétie, le développement de l’intelligence artificielle conduirait notre humanité vers la fin du travail. Mais les faits sont têtus : malgré un marketing axé sur l’automation, les plateformes numériques ne peuvent fonctionner sans des myriades de petites mains palliant leurs maladresses. Des petites mains très humaines qui effectuent le digital labor, ce travail du clic « tâcheronnisé, fragmenté et souvent occulté ». « En attendant les robots », ce sont les travailleurs qui sont réduits à l’état d’automates pour une industrie qui esquive toutes les obligations de l’employeur. La passionnante enquête du sociologue des réseaux Antonio Casilli nous emmène à la découverte de ce travail invisible dans les chaînes de sous-traitants numériques, néoprolétaires du Nord et du Sud chargés d’éduquer les algorithmes par des tâches répétitives, mais assez ludiques pour faire oublier leur nature laborieuse. Tout aussi ignoré est le travail gratuit du consommateur-producteur sur les réseaux sociaux, grassement revendu à des fins publicitaires. Cet ouvrage engagé et stimulant n’annonce ni la fin du travail, ni sa conversion émancipatrice dans l’économie collaborative, mais questionne ce que nous avons coutume de nommer travail.

Un weekend “En attendant les robots” sur France Culture (5-6 janv. 2019)

A l’occasion de sa parution, France Culture a consacré trois émissions à mon ouvrage En attendant les robots – Enquête sur le travail du clic (Editions du Seuil, 2019).

Samedi 5 janv. 12h45 – La Suite dans les Idées.

Je suis en conversation avec Sylvain Bourmeau, Filipe Vilas-Boas à propos des “très artificielles intelligences artificielles”.

Derrière le mythe toujours plus médiatique de la prise du pouvoir par les machines de l’intelligence artificielle se cache la réalité de profondes transformations de l’économie et du travail. Le sociologue Antonio Casilli a mené l’enquête.

The Punishment, une œuvre de Filipe Vilas-Boas
The Punishment, une œuvre de Filipe Vilas-Boas• Crédits : Filipe Vilas-Boas

Nous en avons sans doute tous fait l’expérience. En prévision d’un séjour à l’étranger, nous avons eu recours à un site internet spécialisé pour trouver au meilleur prix une chambre d’hôtel. Et depuis, des années plus tard parfois, nous continuons de recevoir dans notre boite mail des propositions de réservation de chambre d’hôtel dans la ville où nous avions séjourné et dans laquelle nous n’avons a priori aucune espèce d’intention de retourner. De la même manière, comment ne pas être agacé par l’indigence des recommandations que nous font sans cesse d’autres plateformes web, telle Amazon qui croit que parce que nous avons consulté ceci sur ses pages nous aimerions acheter cela auprès d’elle… Ou Netflix dont l’interface s’avère d’une confondante médiocrité au regard du catalogue qu’il propose. Ces expériences quotidiennes viennent pour le moins contredire les discours de plus en plus enthousiastes qui nous vantent les progrès spectaculaires de l’intelligence artificielle. Une intelligence décidément pas très maligne. Et surtout, une intelligence bien plus artificielle encore qu’on l’imagine. Il suffit pour s’en assurer d’ouvrir quelques boîtes noires. Ce qu’a méthodiquement fait le sociologue Antonio Casilli. Mais aussi ce que fait, d’une autre façon, l’artiste Filipe Vilas-Boas, qui nous rejoindra en seconde partie.

Samedi 5 janv. 18h10 – Avis Critique.

Julie Clarini, Joseph Confavreux et Raphaël Bourgois proposent un compte rendu de mon ouvrage pour raconter “une histoire de domination”.

Je vous propose de commencer par le livre d’Antonio Casilli, En Attendant les robots : enquête sur le travail du clic publié au Seuil. L’auteur est sociologue et maître de conférences en humanités numériques à Télécom ParisTech. Ce livre est le résultat d’une longue enquête sur les transformations du travail à l’ère du capitalisme de plateforme pour reprendre le titre du livre de Nick Scnircek dont il a été question il y a quelques semaines dans cette émission. Casilli avait déjà signé en 2015 sur ce sujet, avec Dominique Cardon, Qu’est-ce que le digital labor ? chez INA Editions, et il revient avec une version francisée de la question puisqu’il parle ici du « travail du clic ».

Robot au milieu des fleurs
Robot au milieu des fleurs• Crédits : Donald Lain SmithG

Il revient donc sur ce sujet apparu dans le débat public plutôt autour des enjeux de la gratuité : l’idée selon laquelle les internautes, utilisateurs de Google ou Facebook avait accès à ces plateformes gracieusement, en échange d’un travail non rémunéré. Leurs clics, leurs données sont les matières premières qui permettent à ces sites de vivre. Mais il y a un autre aspect du digital labour, c’est de considérer les taches qui sont désormais effectuées par des robots ou des intelligences artificielles comme un grave danger pour les emplois.

Même s’il consacre un certain nombre de pages à ces évolutions, ce n’est pas ça qui intéresse fondamentalement Antonio Casilli. Il va beaucoup plus loin dans l’exploration des transformations du travail et de la valeur en menant une analyse fine de Google, Facebook mais aussi Amazon ou Uber… analyse qui montre que le vrai danger n’est pas le grand remplacement machinique, la disparition du travail, mais sa transformation profonde par l’instauration de nouveaux rapports de dépendance des travailleurs transformés en prolétaires du clic.

La première force du livre, qui est vraiment extraordinaire, c’est l’idée que les robots ne vont pas remplacer les humains. (Julie Clarini)

Il ne faut pas croire que si vous ne travaillez pas dans le digital labour, vous n’êtes pas menacé par les transformations qu’il induit. L’auteur dit bien qu’une entreprise de plus en plus numérisée fait déborder le digital labour sur le travail habituel. C’est là que l’on rejoint les thèses habituelles, de Dominique Méda notamment, selon lesquelles parcelliser, fragiliser, saccager le travail, c’est fragiliser le monde social. (Joseph Confavreux)

Dimanche 6 janv. 20h – Soft Power.

J’ai été l'”invité innovation” de Zoé Sfez et Fréderic Martel dans l’émission Soft Power.

Dans son livre “En attendant les robots”, le sociologue Antonio Casilli rend visible le travail précaire du clic derrière l’intelligence artificielle et les algorithmes et démystifie ainsi l’illusion de l’automation.

.
.• Crédits : DAMIEN MEYERAFP

.@AntonioCasilli « On peut penser qu’Uber est un service classique mais le coeur du modèle d’Uber c’est la production de données » #SoftPower— Frederic Martel (@martelf) January 6, 2019

.@AntonioCasilli « Le travail ne disparaitra jamais mais l’emploi peut-être. Il faut se resyndicaliser, créer des plateformes collaboratives et penser les plateformes comme créatrice de richesses communes » #SoftPower— Frederic Martel (@martelf) January 6, 2019


[Vidéo] Conférence de lancement de “En attendant les robots” (Musée des Arts et Métiers, 3 janv. 2019)

Vidéo de la soirée de présentation de mon ouvrage En attendant les robots. Enquête sur le travail du clic (Éditions du Seuil), qui a eu lieu le 3 janvier 2019 au Musée des Arts et Métiers de Paris. La rencontre, dans le cadre du cycle “Paroles d’auteurs”, a été animée par Thomas Baumgartner.


L’essor des intelligences artificielles réactualise une prophétie lancinante : avec le remplacement des êtres humains par les machines, le travail serait appelé à disparaître. Si certains s’en alarment, d’autres voient dans la « disruption numérique » une promesse d’émancipation fondée sur la participation, l’ouverture et le partage.
Les coulisses de ce théâtre de marionnettes (sans fils) donnent cependant à voir un tout autre spectacle. Celui des usagers qui alimentent gratuitement les réseaux sociaux de données personnelles et de contenus créatifs monnayés par les géants du Web. Celui des prestataires des start-ups de l’économie collaborative, dont le quotidien connecté consiste moins à conduire des véhicules ou à assister des personnes qu’à produire des flux d’informations sur leur smartphone. Celui des microtravailleurs rivés à leurs écrans qui, à domicile ou depuis des « fermes à clic », propulsent la viralité des marques, filtrent les images pornographiques et violentes ou saisissent à la chaîne des fragments de textes pour faire fonctionner des logiciels de traduction automatique.
En dissipant l’illusion de l’automation intelligente, Antonio Casilli fait apparaître la réalité du digital labor : l’exploitation des petites mains de l’intelligence « artificielle », ces myriades de tâcherons du clic soumis au management algorithmique de plateformes en passe de reconfigurer et de précariser le travail humain.

Sur BFMTv (17 déc. 2018)

Nice et Marseille testeront des dispositifs de reconnaissance faciale à l’entrée de deux lycées

Elsa TRUJILLO (Journaliste) 17/12/2018 à 14h34

Des portiques dotés d’une technologie de reconnaissance faciale seront déployés dès janvier 2019 dans le lycée des Eucalyptus, à Nice, et dans le lycée Ampère, à Marseille, pour contrôler l’entrée des élèves.

Des portiques virtuels pour remplacer les pions. Deux lycées de la région Provence-Alpes-Côte d’Azur- celui des Eucalyptus, à Nice, et le lycée Ampère, à Marseille – expérimenteront dès janvier 2019 des dispositifs de reconnaissance faciale pour contrôler l’identité des lycéens à leur entrée.

Les portiques virtuels seront développés par la société américaine Cisco, rapporte Nice-Matin. Si un intrus essaie de pénétrer sans autorisation, et que son profil ne correspond pas à la base de données détenue par l’établissement, une alerte sera envoyée au personnel en charge de la surveillance.

Le quotidien niçois fait état d’un “feu vert” de la CNIL pour le lancement d’un tel projet. En réalité, l’autorité française de protection des données a accompagné la région Provence-Alpes-Côte d’Azur pour définir les modalités d’élaboration de cette initiative. “Ce projet de portiques virtuels a pour but d’évaluer l’efficacité d’un contrôle d’accès par comparaison faciale à l’entrée des deux lycées concernés”, complète la CNIL auprès de BFM Tech.

“L’expérimentation est basée sur le consentement des personnes concernées. Les personnes qui n’auront pas accepté le traitement de leurs données biométriques ne seront pas concernées.” Une séparation physique sera mise en place pour séparer les lycéens ayant accepté des autres, qui feront l’objet d’un contrôle classique.

Deux classes à Nice

Pour cette phase d’expérimentation, seules deux classes, soit environ une soixantaine d’élèves, seront concernées à Nice, relève le quotidien local. Les portiques sont censés “apporter une assistance aux agents assurant l’accueil du lycée afin de faciliter et réduire la durée des contrôles, lutter contre l’usurpation d’identité et détecter le déplacement non souhaité d’un visiteur non identifié”, fait savoir la Région.

Les réserves sont néanmoins nombreuses. Le Syndicat national des enseignements de second degré (SNES) s’enquiert du coût du projet, de l’utilisation des fichiers, qui comprendront notamment les horaires d’entrée et de sortie des élèves, et du remplacement du personnel par des machines. 

“L’un des problèmes majeurs de ce projet a trait au régime commercial qui sera appliqué à ces données”, complète Antonio Casilli, professeur de sociologie à Télécom ParisTech et à l’EHESS. “Leur circulation dans les infrastructures d’une entreprise américaine constitue une forme de valorisation abusive. Par ailleurs, la reconnaissance faciale est en soi répressive, invasive et discriminante et a tendance à comprendre des biais et à surcibler des minorités. En l’occurrence, elle habituera les lycéens au fait d’être constamment enregistrés, comparés et jugés.”

Les deux lycées niçois et marseillais ne sont pas les premiers établissements à tester la reconnaissance faciale dans la région. Des bornes intégrant cette technologie ont été mises en place au terminal 2 de l’aéroport de Nice, pour fluidifier le contrôle aux frontières. Le deuxième aéroport français, qui fait face à une forte hausse de fréquentation, entend ainsi limiter l’attente de ses voyageurs.

An open letter to tell Google to commit to not weaponizing its technology (May 17, 2018)

Following an invitation by Prof. Lilly Irani (UCSD), I was among the first signatories of this ICRAC “Open Letter in Support of Google Employees and Tech Workers”. The letter is a petition in solidarity with the 3100+ Google employees, joined by other technology workers, who have opposed Google’s participation in Project Maven.

Following our joint action, on June 7 2017 Google has released a set of principles to guide its work in AI in a document titled “Artificial Intelligence at Google: our principles,”. Although the company pledges not to develop AI weapons, it does says it will still work with the military.

Open Letter in Support of Google Employees and Tech Workers

Researchers in Support of Google Employees: Google should withdraw from Project Maven and commit to not weaponizing its technology.

An Open Letter To:

Larry Page, CEO of Alphabet;
Sundar Pichai, CEO of Google;
Diane Greene, CEO of Google Cloud;
and Fei-Fei Li, Chief Scientist of AI/ML and Vice President, Google Cloud,

As scholars, academics, and researchers who study, teach about, and develop information technology, we write in solidarity with the 3100+ Google employees, joined by other technology workers, who oppose Google’s participation in Project Maven. We wholeheartedly support their demand that Google terminate its contract with the DoD, and that Google and its parent company Alphabet commit not to develop military technologies and not to use the personal data that they collect for military purposes. The extent to which military funding has been a driver of research and development in computing historically should not determine the field’s path going forward. We also urge Google and Alphabet’s executives to join other AI and robotics researchers and technology executives in calling for an international treaty to prohibit autonomous weapon systems.

Google has long sought to organize and enhance the usefulness of the world’s information. Beyond searching for relevant webpages on the internet, Google has become responsible for compiling our email, videos, calendars, and photographs, and guiding us to physical destinations. Like many other digital technology companies, Google has collected vast amounts of data on the behaviors, activities and interests of their users. The private data collected by Google comes with a responsibility not only to use that data to improve its own technologies and expand its business, but also to benefit society. The company’s motto “Don’t Be Evil” famously embraces this responsibility.

Project Maven is a United States military program aimed at using machine learning to analyze massive amounts of drone surveillance footage and to label objects of interest for human analysts. Google is supplying not only the open source ‘deep learning’ technology, but also engineering expertise and assistance to the Department of Defense.

According to Defense One, Joint Special Operations Forces “in the Middle East” have conducted initial trials using video footage from a small ScanEagle surveillance drone. The project is slated to expand “to larger, medium-altitude Predator and Reaper drones by next summer” and eventually to Gorgon Stare, “a sophisticated, high-tech series of cameras…that can view entire towns.” With Project Maven, Google becomes implicated in the questionable practice of targeted killings. These include so-called signature strikes and pattern-of-life strikes that target people based not on known activities but on probabilities drawn from long range surveillance footage. The legality of these operations has come into question under international[1] and U.S. law.[2] These operations also have raised significant questions of racial and gender bias (most notoriously, the blanket categorization of adult males as militants) in target identification and strike analysis.[3] These problems cannot be reduced to the accuracy of image analysis algorithms, but can only be addressed through greater accountability to international institutions and deeper understanding of geopolitical situations on the ground.

While the reports on Project Maven currently emphasize the role of human analysts, these technologies are poised to become a basis for automated target recognition and autonomous weapon systems. As military commanders come to see the object recognition algorithms as reliable, it will be tempting to attenuate or even remove human review and oversight for these systems. According to Defense One, the DoD already plans to install image analysis technologies on-board the drones themselves, including armed drones. We are then just a short step away from authorizing autonomous drones to kill automatically, without human supervision or meaningful human control. If ethical action on the part of tech companies requires consideration of who might benefit from a technology and who might be harmed, then we can say with certainty that no topic deserves more sober reflection – no technology has higher stakes – than algorithms meant to target and kill at a distance and without public accountability.

We are also deeply concerned about the possible integration of Google’s data on people’s everyday lives with military surveillance data, and its combined application to targeted killing. Google has moved into military work without subjecting itself to public debate or deliberation, either domestically or internationally. While Google regularly decides the future of technology without democratic public engagement, its entry into military technologies casts the problems of private control of information infrastructure into high relief.

Should Google decide to use global internet users’ personal data for military purposes, it would violate the public trust that is fundamental to its business by putting its users’ lives and human rights in jeopardy. The responsibilities of global companies like Google must be commensurate with the transnational makeup of their users. The DoD contracts under consideration by Google, and similar contracts already in place at Microsoft and Amazon, signal a dangerous alliance between the private tech industry, currently in possession of vast quantities of sensitive personal data collected from people across the globe, and one country’s military. They also signal a failure to engage with global civil society and diplomatic institutions that have already highlighted the ethical stakes of these technologies.

We are at a critical moment. The Cambridge Analytica scandal demonstrates growing public concern over allowing the tech industries to wield so much power. This has shone only one spotlight on the increasingly high stakes of information technology infrastructures, and the inadequacy of current national and international governance frameworks to safeguard public trust. Nowhere is this more true than in the case of systems engaged in adjudicating who lives and who dies.
We thus ask Google, and its parent company Alphabet, to:

  • Terminate its Project Maven contract with the DoD.
  • Commit not to develop military technologies, nor to allow the personal data it has collected to be used for military operations.
  • Pledge to neither participate in nor support the development, manufacture, trade or use of autonomous weapons; and to support efforts to ban autonomous weapons.

__________________________
[1] See statements by Ben Emmerson, UN Special Rapporteur on Counter-Terrorism and Human Rights and by Christof Heyns, UN Special Rapporteur on Extrajudicial, Summary and Arbitrary Executions.

[2] See for example Murphy & Radsan 2009.

[3] See analyses by Reaching Critical Will 2014, and Wilke 2014.