machine learning

[Séminaire #ecnEHESS] Quels fondements épistémologiques pour le machine learning ? (Jean-Gabriel Ganascia, 12 févr. 2018, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Notre séminaire EHESS Etudier les cultures du numérique se poursuit par une intervention qui s’annonce tout à fait passionnante de Jean-Gabriel Ganascia (Université Pierre et Marie Curie). Son exposé portera sur les fondements épistémologiques—et les limitations—du machine learning. Spécialiste en intelligence artificielle et en modélisation cognitive, il est l’auteur de plusieurs ouvrages, parmi lesquels : Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? (Seuil, 2017), Voir et pouvoir : qui nous surveille ? (Le Pommier, 2009), Idées reçues sur l’intelligence artificielle (Editions Cavalier bleu, 2007).

Le séminaire aura lieu le lundi 12 février 2018, de 17 h à 20 h (EHESS, salle M. & D. Lombard, 96 bd Raspail 75006 Paris).

Titre : Epistémologie de l’apprentissage machine

Résumé : L’écho grandissant que reçoivent les big data et l’apprentissage profond (Deep Learning) depuis quelques années masque mal leurs limitations. Si ces techniques apportent et apporteront beaucoup dans un grand nombre de secteur, par exemple dans le domaine médical, pour aider à diagnostiquer des maladies, ou dans le champs social, pour faire de la prédiction et rationaliser certains choix, elles reposent sur l’induction, c’est-à-dire sur le raisonnement qui va du particulier au général. En conséquence, elles sont soumises aux limitations logiques de toute induction, que nous tâcherons de rappeler ici. De plus, comme nous le montrerons, ces techniques permettent de détecter des corrélations qui ne correspondent pas toutes à des relations de causalités, et qui s’avèrent parfois trompeuses. Enfin, nous verrons que l’emploi abusif de procédures de décision fondées sur l’apprentissage machine peut avoir des effets prédateurs sur la société, car loin d’être objectifs, les choix reposent sur des implicites qui peuvent éventuellement avoir des effets discriminatoires.

M, le maudit chatbot (ou, de l’impossibilité de l’automation complète au lendemain de l’échec de l’assistant virtuel de Facebook)

L’année 2018 commence fort chez Zuckerberg. Facebook a décidé de mettre fin à l’expérience de son assistant virtuel, M. Par rapport aux autres chatbots sur le marché, M avait une particularité : il ne cachait pas la présence d’humains derrière les rideaux de l’automation, pour ainsi dire. Facebook allait jusqu’à intégrer cet attribut dans ses arguments de vente. M était présenté comme une intelligence artificielle « mue par des humains » (human powered).

Il s’agissait d’un logiciel qui envoyait des messages via l’application Messenger, initialement disponible pour un nombre limité d’usagers-testeurs (10 000 résidents de San Francisco) qui l’utilisaient surtout pour des opérations commerciales. La plupart des tâches réalisées par le chatbot nécessitaient de personnes pour assister, entraîner, vérifier ses réponses — et parfois se faire carrément passer pour M. D’où la suspicion que son nom ne soit pas un clin d’œil à l’assistant de James Bond, miss Moneypenny, mais une référence assez claire au “micro-travail”…

L’objectif de Facebook avec cet agent conversationnel était de développer une technologie d’intelligence artificielle capable d’automatiser presque n’importe quelle tâche (“Facebook put no bounds on what M could be asked to do“). C’est toujours la vieille promesse du machine learning : tu fais réaliser des tâches par des humains, puis “la machine” apprend et — bam ! tu te débarrasses des humains. Néanmoins, malgré les vastes ressources techniques de Facebook, le taux d’automation de M semble n’avoir jamais dépasse 30%. Presque trois quarts des tâches, donc, étaient effectuées par des petites mains payées à la pièce, entre San Francisco et Katmandou (si le bruit selon lequel elles étaient recrutées via le bureau népalais de la plateforme de micro-travail Cloudfactory était confirmé).

L’histoire de M contient une moralité pour toute entreprise qui développe ou achète des solutions de IA : quand on prend en compte le coût de the human in the loop, l’automation revient très chère. C’est à cause de l’importance de ces coûts (et de la médiocrité des résultats) que Facebook a définitivement décidé de discontinuer M en 2018.

L’autre leçon à retenir ici est que dans la mesure où l’objectif final de M était de préparer le développement de solutions IA qui auraient pu automatiser presque toutes les tâches que les usagers réalisent en ligne, l’automation complète s’avère être un fantasme de silconvallards. A chaque fois qu’on automatise une tâche, les êtres humains avec qui l’IA interagit en redemandent, et de plus en plus complexes. Comme Wired le souligne :

“Another challenge: When M could complete tasks, users asked for progressively harder tasks. A fully automated M would have to do things far beyond the capabilities of existing machine learning technology. Today’s best algorithms are a long way from being able to really understand all the nuances of natural language.”

Il faut alors recommencer et recommencer à concevoir-entraîner-tester-micro-travailler etc. Comme quoi, nous (autant les centaines de millions de tâcherons du clic sur les plateformes de micro-travail que les milliards de micro-tâcherons dissimulés que nous sommes sur les plateformes de médias sociaux) avons devant nous une longue carrière de dresseurs d’IA. Très longue. Interminable même, à en croire certains jeunes experts d’automation. Parmi eux, un nommé Ernest Mandel, lequel affirmait, dans un texte paru en… 1986 :

“Sous le capitalisme, l’automation complète, l’introduction de robots sur grande échelle sont impossibles car elles impliqueraient la disparition de l’économie de marché, de l’argent, du capital et des profits. (…) La variante la plus probable sous le capitalisme, c’est précisément la longue durée de la dépression actuelle, avec seulement le développement d’une automation partielle et d’une robotisation marginale, les deux étant accompagnées par une surcapacité de surproduction sur grande échelle (une surproduction de marchandises), un chômage sur grande échelle, une pression sur grande échelle pour extraire de plus en plus de plus-value d’un nombre de jours de travail et d’ouvriers productifs tendant à stagner et à décliner lentement. Cela équivaudrait à une augmentation de la pression à la surexploitation de la classe ouvrière (en faisant baisser les salaires réels et les prestations de Sécurité sociale), en affaiblissant ou détruisant le mouvement ouvrier organisé et en sapant les libertés démocratiques et les droits de l’homme.”

[Séminaire #ecnEHESS] L’idéologie du machine learning avec Bernie Hogan (Oxford), 4 déc. 2017, 17h

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Après une première séance riche et passionnante, notre séminaire EHESS Etudier les cultures du numérique revient avec un invité de marque. Le 4 décembre, nous aurons l’honneur d’accueillir Bernie Hogan, Senior Research Fellow du Oxford Internet Institute. Les travaux de Hogan portent sur comment les plateformes numériques gèrent l’identité et les données personnelles de leurs usagers, ainsi que sur les modalités de représentation des mondes sociaux à travers les réseaux. Par-delà ses articles publiés dans des revues savantes (Field Methods, Social Networks, New Media and Society) et ses interventions régulières dans les grands médias internationaux (BBC, Reuters, Times), il a participé au développement de plusieurs logiciels de visualisation de réseaux sociaux, dont le dernier en date est Network Canvas.

ATTENTION : Le séminaire aura lieu le lundi 4 décembre 2017, de 17 h à 20 h. Au vu du nombre important (et toujours croissant !) de participants, l’EHESS nous a accordé l’amphithéâtre François-Furet, au 105 bd Raspail 75006 Paris.


Title: Control, Privacy, Generativity: Big Data after the Ideology of Machine Learning

Speaker: Bernie Hogan (Oxford Internet Institute)

Abstract: This talk will unpack the three competing tensions for platforms in the age of big data. Users expect autonomy and privacy, platforms expect control and third parties expect privacy. It is not plausible to optimise for all three. Yet, in the absence of regulations for third parties and platforms, as well as public ignorance of important technical details, platforms will seek ever more control. The purpose of control is foster increasing strategies for predictability and monetization. What is lost when control is gained has been called “generativity” or the capacity to foster innovation and imagination through technology. Social network visualization will be presented as a case study in how both the user and third parties lose when we are left to view data solely through the eyes of the platform’s preferred interface.


La présentation et les débats se dérouleront en anglais.

[Séminaire #ecnEHESS] Antonio Casilli : Intelligences artificielles et travail des plateformes (13 nov. 2017)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Pour la première séance de l’édition 2017/18 de notre séminaire #ecnEHESS Étudier les cultures du numérique : approches théoriques et empiriques, je vais présenter mes travaux récents sur le lien entre digital labor, plateformisation et intelligence artificielle.

Le séminaire aura lieu le lundi 13 novembre, de 17 h à 20 h (salle M. & D. Lombard, 96 bd Raspail 75006 Paris).

Des intelligences pas si artificielles : plateformes, digital labor et la « tentation d’automatiser »

L’un des penseurs classiques de l’industrialisme, David Ricardo, consacrait à la question de la « destruction du travail » par les machines le chapitre 31 de ses Principes de l’économie politique. À ses yeux, l’utilisation de solutions technologiques n’était pas un destin inéluctable, aboutissant à la substitution complète des travailleurs, mais plutôt un choix humain, résultant d’une « tentation d’employer des machines » [temptation to employ machinery] qui habitait le capitaliste. Était-ce un véritable aménagement libidinal qui poussait ce dernier à préférer l’automation à d’autres méthodes pour recruter de la main-d’œuvre meilleur marché, telle la délocalisation ou la mise au travail des familles des ouvriers ?

Cette présentation interroge le parcours culturel et socio-économique qui, de cette vision, nous a conduit aux sombres présages actuels du « grand remplacement » des humains par les technologies intelligentes. Le débat contemporain est marqué par les prophéties dystopiques de la disparition de 47% des emplois à cause des solutions automatisées, ou par les fantasmes de la gouvernance algorithmique du travail. Ceux-ci représentent autant de discours d’accompagnement de l’essor des plateformes numériques dont les modèles d’affaires sont de plus en plus structurés autour de l’automation des processus métier.

Bien que dans le contexte politique présent retentissent les annonces du dépassement des catégories héritées de la culture du travail des siècles passés (emploi, protection, subordination, pénibilité), l’heure d’une civilisation « post-laboriste » n’a pas encore sonné. Le fait est que les activités productives ont tellement évolué que le travail est en manque de reconnaissance. Pour le voir à nouveau, nous devons faire appel à la catégorie du digital labor, qui nous permet d’analyser l’articulation complexe de consommateurs/producteurs, de tâcherons du clic, de faux-freelances organisés en chaînes mondiales de sous-traitance. La centralité de la notion de travail est alors réaffirmée, à condition de jeter un regard derrière les rideaux de l’automation, pour observer le recours généralisé de la part des plateformes à des modalités intensives de captation de la valeur à partir des micro-tâches réalisées par des êtres humains afin de – justement – entraîner les intelligences artificielles, enseigner aux algorithmes d’apprentissage automatique, faire circuler les véhicules autonomes.