machine learning

Interview pour l’Institut Français (14 mai 2019)

RencontreDébat d’idées

Antonio Casilli
Les géants du Net ont le pouvoir de décider ce que nous regardons et apprenons

Au lendemain de l’adoption de la directive portant sur le droit d’auteur en mars 2019, le sociologue français Antonio Casilli, spécialiste des réseaux sociaux et auteur de En attendant les robots, Enquête sur le travail du clic (Seuil, 2019), nous livre son regard sur les géants du Net, l’Intelligence Artificielle et les désillusions provoquées par la transformation digitale globalisée.

Antonio Casilli est maître de conférences en humanités numériques à Télécom ParisTech et chercheur associé au LACI-IIAC de l’EHESS.

Antonio Casilli

Quelle place occupent les géants du Net à l’heure actuelle ?

Il faut bien s’entendre sur ce que l’on appelle les géants du net. En plus des GAFAM (Google, Amazon, Facebook, Apple, Microsoft), il faut inclure d’autres grandes entreprises comme IBM, Baidu et Alibaba côté chinois, Naver – l’équivalent de Google en Corée… Ce sont des plateformes oligopolistiques, c’est-à-dire relativement peu nombreuses et qui ont tendance à phagocyter les concurrents plus petits : elles occupent sur leur marché une position d’hégémonie, avec une concentration des pouvoirs dangereuse d’un point de vue économique et qui menace également les libertés publiques. Qui dit pouvoir économique dit aussi pouvoir sur les imaginaires et sur la production culturelle : ces entreprises ont en effet tendance à standardiser la production culturelle. Elles y parviennent moins en soutenant directement des contenus qu’en mettant en place des pratiques indirectes de sélection « algorithmique », de modération « automatique » et de distribution des œuvres…Ces entreprises ont en effet tendance à standardiser la production culturelle

Comment limiter leur puissance ? La voie législative est-elle une réponse ? 

L’approche par la règlementation ne suffit pas et peut même s’avérer contreproductive, comme l’attestent deux initiatives récentes au niveau européen. La directive dite « copyright » adoptée le 26 mars 2019, qui réglemente le droit d’auteur sur internet ; et le règlement européen pour la prévention de la diffusion de contenus à caractère terroriste en ligne adoptée en première lecture par le Parlement européen le 17 avril 2019. La première donne aux plateformes un pouvoir de censure sur le contenu qu’elles hébergent. Il ne sera ainsi théoriquement plus possible de partager ne serait-ce qu’une citation sur Facebook, au nom de la protection du droit d’auteur. Que cette crainte s’avère fondée ou non dépend des choix des plateformes numériques, qui ont ici une marge de manœuvre énorme… Le règlement, quant à lui, prévoit que les juges puissent demander de retirer en une heure de n’importe quelle plateforme un contenu qu’ils jugent douteux. Or, aucune plateforme ne pourra respecter cette obligation sans utiliser les outils de filtrage développés par les GAFAM. La censure en ligne se verrait alors massivement gérée par les géants du Net, les sites les plus petits n’ayant pas la capacité de modérer leur contenu eux-mêmes 24 heures sur 24.

La directive a fait couler beaucoup d’encre dans les médias, alors que le règlement est passé quasi inaperçu, ce qui est particulièrement grave considérant que ces nouvelles règles ont toutes deux des conséquences importantes sur ce que l’on peut dire et faire sur internet. Elles donnent aux géants du Net le pouvoir de décider ce que nous allons regarder et apprendre. C’est une démarche qui aurait mérité plus de réflexion de la part de nos hommes politiques : ils viennent d’offrir à ces plateformes un immense pouvoir sur notre culture.Elles donnent aux géants du Net le pouvoir de décider ce que nous allons regarder et apprendre

L’Europe cherchait cependant à contrer les géants américains…

En réalité, la France et les États-Unis vont hélas dans le même sens. Malgré les textes de loi et une posture affichée d’opposition à la Silicon Valley, l’Europe reproduit les mêmes mécanismes oligopolistiques, sans offrir d’alternative. Les initiatives nationales n’ont pas une meilleure éthique que les géants du Net : les startups et les « pépites » du secteur technologique français auront probablement elles aussi recours à des travailleurs sous-payés aux Philippines ou à Madagascar… N’est-on pas  en train de s’inventer une virginité éthique alors qu’au fond, on se heurte aux mêmes contradictions morales, voire politiques – puisque cela touche au droit du travail ?

Ces travailleurs sous-payés font partie de ces « travailleurs du clic » que vous évoquez dans votre dernier ouvrage, En attendant les robots… 

Les travailleurs du clic vont de l’utilisateur lambda qui signale un contenu jugé illégal au modérateur bénévole payé en nature ou micropayé quelques centimes et délocalisé aux Philippines… Ils permettent d’améliorer la qualité des contenus, à l’image de ce que fait YouTube, qui identifie et supprime les contenus vidéos les plus controversés, mais se fait aussi police et juge de la propriété intellectuelle quand elle fait supprimer des contenus dont le droit d’auteur n’est pas respecté. Or les plateformes prétendent effectuer ce travail à l’aide de robots intelligents – les fameux « bots ». Il s’agit en réalité d’une exploitation du travail humain.

Le droit d’auteur peut-il s’appliquer à l’Intelligence Artificielle ?

Croire qu’une Intelligence Artificielle puisse ressembler à l’intelligence humaine et développer une capacité créative est un pur fantasme. La création vient exclusivement de l’inventeur de cette Intelligence artificielle, et c’est donc cette personne, humaine, qui en est l’auteur. Si l’on pousse la réflexion encore un peu plus loin, on peut dire que ce n’est pas seulement l’ingénieur ou le propriétaire qui en est l’auteur mais que ce sont tous les collectifs, voire les foules de travailleurs du clic qui permettent à l’IA de fonctionner en lui fournissant des données en permanence. D’ailleurs, le terme Intelligence artificielle devrait être remplacé par celui de machine learning qui décrit mieux le phénomène.Le terme Intelligence artificielle devrait être remplacé par celui de machine learning

Quel conseil donneriez-vous aux dernières générations d’internautes ?

Il y a un travail d’information et d’éducation à mener, pour les plus jeunes mais aussi pour les enseignants et les parents. Le numérique doit être enseigné car personne n’est en réalité « natif du numérique ». Ma recommandation : éduquez-vous, et renseignez-vous.

[Vidéo] Conférence de lancement de “En attendant les robots” (Musée des Arts et Métiers, 3 janv. 2019)

Vidéo de la soirée de présentation de mon ouvrage En attendant les robots. Enquête sur le travail du clic (Éditions du Seuil), qui a eu lieu le 3 janvier 2019 au Musée des Arts et Métiers de Paris. La rencontre, dans le cadre du cycle “Paroles d’auteurs”, a été animée par Thomas Baumgartner.


L’essor des intelligences artificielles réactualise une prophétie lancinante : avec le remplacement des êtres humains par les machines, le travail serait appelé à disparaître. Si certains s’en alarment, d’autres voient dans la « disruption numérique » une promesse d’émancipation fondée sur la participation, l’ouverture et le partage.
Les coulisses de ce théâtre de marionnettes (sans fils) donnent cependant à voir un tout autre spectacle. Celui des usagers qui alimentent gratuitement les réseaux sociaux de données personnelles et de contenus créatifs monnayés par les géants du Web. Celui des prestataires des start-ups de l’économie collaborative, dont le quotidien connecté consiste moins à conduire des véhicules ou à assister des personnes qu’à produire des flux d’informations sur leur smartphone. Celui des microtravailleurs rivés à leurs écrans qui, à domicile ou depuis des « fermes à clic », propulsent la viralité des marques, filtrent les images pornographiques et violentes ou saisissent à la chaîne des fragments de textes pour faire fonctionner des logiciels de traduction automatique.
En dissipant l’illusion de l’automation intelligente, Antonio Casilli fait apparaître la réalité du digital labor : l’exploitation des petites mains de l’intelligence « artificielle », ces myriades de tâcherons du clic soumis au management algorithmique de plateformes en passe de reconfigurer et de précariser le travail humain.

[Séminaire #ecnEHESS] Quels fondements épistémologiques pour le machine learning ? (Jean-Gabriel Ganascia, 12 févr. 2018, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Notre séminaire EHESS Etudier les cultures du numérique se poursuit par une intervention qui s’annonce tout à fait passionnante de Jean-Gabriel Ganascia (Université Pierre et Marie Curie). Son exposé portera sur les fondements épistémologiques—et les limitations—du machine learning. Spécialiste en intelligence artificielle et en modélisation cognitive, il est l’auteur de plusieurs ouvrages, parmi lesquels : Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? (Seuil, 2017), Voir et pouvoir : qui nous surveille ? (Le Pommier, 2009), Idées reçues sur l’intelligence artificielle (Editions Cavalier bleu, 2007).

Le séminaire aura lieu le lundi 12 février 2018, de 17 h à 20 h (EHESS, salle M. & D. Lombard, 96 bd Raspail 75006 Paris).

Titre : Epistémologie de l’apprentissage machine

Résumé : L’écho grandissant que reçoivent les big data et l’apprentissage profond (Deep Learning) depuis quelques années masque mal leurs limitations. Si ces techniques apportent et apporteront beaucoup dans un grand nombre de secteur, par exemple dans le domaine médical, pour aider à diagnostiquer des maladies, ou dans le champs social, pour faire de la prédiction et rationaliser certains choix, elles reposent sur l’induction, c’est-à-dire sur le raisonnement qui va du particulier au général. En conséquence, elles sont soumises aux limitations logiques de toute induction, que nous tâcherons de rappeler ici. De plus, comme nous le montrerons, ces techniques permettent de détecter des corrélations qui ne correspondent pas toutes à des relations de causalités, et qui s’avèrent parfois trompeuses. Enfin, nous verrons que l’emploi abusif de procédures de décision fondées sur l’apprentissage machine peut avoir des effets prédateurs sur la société, car loin d’être objectifs, les choix reposent sur des implicites qui peuvent éventuellement avoir des effets discriminatoires.

M, le maudit chatbot (ou, de l’impossibilité de l’automation complète au lendemain de l’échec de l’assistant virtuel de Facebook)

L’année 2018 commence fort chez Zuckerberg. Facebook a décidé de mettre fin à l’expérience de son assistant virtuel, M. Par rapport aux autres chatbots sur le marché, M avait une particularité : il ne cachait pas la présence d’humains derrière les rideaux de l’automation, pour ainsi dire. Facebook allait jusqu’à intégrer cet attribut dans ses arguments de vente. M était présenté comme une intelligence artificielle « mue par des humains » (human powered).

Il s’agissait d’un logiciel qui envoyait des messages via l’application Messenger, initialement disponible pour un nombre limité d’usagers-testeurs (10 000 résidents de San Francisco) qui l’utilisaient surtout pour des opérations commerciales. La plupart des tâches réalisées par le chatbot nécessitaient de personnes pour assister, entraîner, vérifier ses réponses — et parfois se faire carrément passer pour M. D’où la suspicion que son nom ne soit pas un clin d’œil à l’assistant de James Bond, miss Moneypenny, mais une référence assez claire au “micro-travail”…

L’objectif de Facebook avec cet agent conversationnel était de développer une technologie d’intelligence artificielle capable d’automatiser presque n’importe quelle tâche (“Facebook put no bounds on what M could be asked to do“). C’est toujours la vieille promesse du machine learning : tu fais réaliser des tâches par des humains, puis “la machine” apprend et — bam ! tu te débarrasses des humains. Néanmoins, malgré les vastes ressources techniques de Facebook, le taux d’automation de M semble n’avoir jamais dépasse 30%. Presque trois quarts des tâches, donc, étaient effectuées par des petites mains payées à la pièce, entre San Francisco et Katmandou (si le bruit selon lequel elles étaient recrutées via le bureau népalais de la plateforme de micro-travail Cloudfactory était confirmé).

L’histoire de M contient une moralité pour toute entreprise qui développe ou achète des solutions de IA : quand on prend en compte le coût de the human in the loop, l’automation revient très chère. C’est à cause de l’importance de ces coûts (et de la médiocrité des résultats) que Facebook a définitivement décidé de discontinuer M en 2018.

L’autre leçon à retenir ici est que dans la mesure où l’objectif final de M était de préparer le développement de solutions IA qui auraient pu automatiser presque toutes les tâches que les usagers réalisent en ligne, l’automation complète s’avère être un fantasme de silconvallards. A chaque fois qu’on automatise une tâche, les êtres humains avec qui l’IA interagit en redemandent, et de plus en plus complexes. Comme Wired le souligne :

“Another challenge: When M could complete tasks, users asked for progressively harder tasks. A fully automated M would have to do things far beyond the capabilities of existing machine learning technology. Today’s best algorithms are a long way from being able to really understand all the nuances of natural language.”

Il faut alors recommencer et recommencer à concevoir-entraîner-tester-micro-travailler etc. Comme quoi, nous (autant les centaines de millions de tâcherons du clic sur les plateformes de micro-travail que les milliards de micro-tâcherons dissimulés que nous sommes sur les plateformes de médias sociaux) avons devant nous une longue carrière de dresseurs d’IA. Très longue. Interminable même, à en croire certains jeunes experts d’automation. Parmi eux, un nommé Ernest Mandel, lequel affirmait, dans un texte paru en… 1986 :

“Sous le capitalisme, l’automation complète, l’introduction de robots sur grande échelle sont impossibles car elles impliqueraient la disparition de l’économie de marché, de l’argent, du capital et des profits. (…) La variante la plus probable sous le capitalisme, c’est précisément la longue durée de la dépression actuelle, avec seulement le développement d’une automation partielle et d’une robotisation marginale, les deux étant accompagnées par une surcapacité de surproduction sur grande échelle (une surproduction de marchandises), un chômage sur grande échelle, une pression sur grande échelle pour extraire de plus en plus de plus-value d’un nombre de jours de travail et d’ouvriers productifs tendant à stagner et à décliner lentement. Cela équivaudrait à une augmentation de la pression à la surexploitation de la classe ouvrière (en faisant baisser les salaires réels et les prestations de Sécurité sociale), en affaiblissant ou détruisant le mouvement ouvrier organisé et en sapant les libertés démocratiques et les droits de l’homme.”

[Séminaire #ecnEHESS] L’idéologie du machine learning avec Bernie Hogan (Oxford), 4 déc. 2017, 17h

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Après une première séance riche et passionnante, notre séminaire EHESS Etudier les cultures du numérique revient avec un invité de marque. Le 4 décembre, nous aurons l’honneur d’accueillir Bernie Hogan, Senior Research Fellow du Oxford Internet Institute. Les travaux de Hogan portent sur comment les plateformes numériques gèrent l’identité et les données personnelles de leurs usagers, ainsi que sur les modalités de représentation des mondes sociaux à travers les réseaux. Par-delà ses articles publiés dans des revues savantes (Field Methods, Social Networks, New Media and Society) et ses interventions régulières dans les grands médias internationaux (BBC, Reuters, Times), il a participé au développement de plusieurs logiciels de visualisation de réseaux sociaux, dont le dernier en date est Network Canvas.

ATTENTION : Le séminaire aura lieu le lundi 4 décembre 2017, de 17 h à 20 h. Au vu du nombre important (et toujours croissant !) de participants, l’EHESS nous a accordé l’amphithéâtre François-Furet, au 105 bd Raspail 75006 Paris.


Title: Control, Privacy, Generativity: Big Data after the Ideology of Machine Learning

Speaker: Bernie Hogan (Oxford Internet Institute)

Abstract: This talk will unpack the three competing tensions for platforms in the age of big data. Users expect autonomy and privacy, platforms expect control and third parties expect privacy. It is not plausible to optimise for all three. Yet, in the absence of regulations for third parties and platforms, as well as public ignorance of important technical details, platforms will seek ever more control. The purpose of control is foster increasing strategies for predictability and monetization. What is lost when control is gained has been called “generativity” or the capacity to foster innovation and imagination through technology. Social network visualization will be presented as a case study in how both the user and third parties lose when we are left to view data solely through the eyes of the platform’s preferred interface.


La présentation et les débats se dérouleront en anglais.

[Séminaire #ecnEHESS] Antonio Casilli : Intelligences artificielles et travail des plateformes (13 nov. 2017)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Pour la première séance de l’édition 2017/18 de notre séminaire #ecnEHESS Étudier les cultures du numérique : approches théoriques et empiriques, je vais présenter mes travaux récents sur le lien entre digital labor, plateformisation et intelligence artificielle.

Le séminaire aura lieu le lundi 13 novembre, de 17 h à 20 h (salle M. & D. Lombard, 96 bd Raspail 75006 Paris).

Des intelligences pas si artificielles : plateformes, digital labor et la « tentation d’automatiser »

L’un des penseurs classiques de l’industrialisme, David Ricardo, consacrait à la question de la « destruction du travail » par les machines le chapitre 31 de ses Principes de l’économie politique. À ses yeux, l’utilisation de solutions technologiques n’était pas un destin inéluctable, aboutissant à la substitution complète des travailleurs, mais plutôt un choix humain, résultant d’une « tentation d’employer des machines » [temptation to employ machinery] qui habitait le capitaliste. Était-ce un véritable aménagement libidinal qui poussait ce dernier à préférer l’automation à d’autres méthodes pour recruter de la main-d’œuvre meilleur marché, telle la délocalisation ou la mise au travail des familles des ouvriers ?

Cette présentation interroge le parcours culturel et socio-économique qui, de cette vision, nous a conduit aux sombres présages actuels du « grand remplacement » des humains par les technologies intelligentes. Le débat contemporain est marqué par les prophéties dystopiques de la disparition de 47% des emplois à cause des solutions automatisées, ou par les fantasmes de la gouvernance algorithmique du travail. Ceux-ci représentent autant de discours d’accompagnement de l’essor des plateformes numériques dont les modèles d’affaires sont de plus en plus structurés autour de l’automation des processus métier.

Bien que dans le contexte politique présent retentissent les annonces du dépassement des catégories héritées de la culture du travail des siècles passés (emploi, protection, subordination, pénibilité), l’heure d’une civilisation « post-laboriste » n’a pas encore sonné. Le fait est que les activités productives ont tellement évolué que le travail est en manque de reconnaissance. Pour le voir à nouveau, nous devons faire appel à la catégorie du digital labor, qui nous permet d’analyser l’articulation complexe de consommateurs/producteurs, de tâcherons du clic, de faux-freelances organisés en chaînes mondiales de sous-traitance. La centralité de la notion de travail est alors réaffirmée, à condition de jeter un regard derrière les rideaux de l’automation, pour observer le recours généralisé de la part des plateformes à des modalités intensives de captation de la valeur à partir des micro-tâches réalisées par des êtres humains afin de – justement – entraîner les intelligences artificielles, enseigner aux algorithmes d’apprentissage automatique, faire circuler les véhicules autonomes.