artificial intelligence

[Video] Trabajo, conocimiento y vigilancia (La Paz, Bolivia, 11 julio 2018)

Presentación de mi libro Trabajo, conocimiento y vigilancia: 5 ensayos sobre tecnología, una antología de mis artículos, originalmente publicados en francés e inglés entre 2010 y 2018. La publicación de este libro fue dirigida por AGETIC y la Embajada de Francia en Bolivia. (Conferencia realizada en la Vicepresidencia del Estado, La Paz, Bolivia, traducida al español del inglés).

Referencia completa:

Casilli, Antonio A. (2018). Trabajo, conocimiento y vigilancia: 5 ensayos sobre tecnología. La Paz, Bolivia: Editorial del Estado.

Descarga documento PDF

M, le maudit chatbot (ou, de l’impossibilité de l’automation complète au lendemain de l’échec de l’assistant virtuel de Facebook)

L’année 2018 commence fort chez Zuckerberg. Facebook a décidé de mettre fin à l’expérience de son assistant virtuel, M. Par rapport aux autres chatbots sur le marché, M avait une particularité : il ne cachait pas la présence d’humains derrière les rideaux de l’automation, pour ainsi dire. Facebook allait jusqu’à intégrer cet attribut dans ses arguments de vente. M était présenté comme une intelligence artificielle « mue par des humains » (human powered).

Il s’agissait d’un logiciel qui envoyait des messages via l’application Messenger, initialement disponible pour un nombre limité d’usagers-testeurs (10 000 résidents de San Francisco) qui l’utilisaient surtout pour des opérations commerciales. La plupart des tâches réalisées par le chatbot nécessitaient de personnes pour assister, entraîner, vérifier ses réponses — et parfois se faire carrément passer pour M. D’où la suspicion que son nom ne soit pas un clin d’œil à l’assistant de James Bond, miss Moneypenny, mais une référence assez claire au “micro-travail”…

L’objectif de Facebook avec cet agent conversationnel était de développer une technologie d’intelligence artificielle capable d’automatiser presque n’importe quelle tâche (“Facebook put no bounds on what M could be asked to do“). C’est toujours la vieille promesse du machine learning : tu fais réaliser des tâches par des humains, puis “la machine” apprend et — bam ! tu te débarrasses des humains. Néanmoins, malgré les vastes ressources techniques de Facebook, le taux d’automation de M semble n’avoir jamais dépasse 30%. Presque trois quarts des tâches, donc, étaient effectuées par des petites mains payées à la pièce, entre San Francisco et Katmandou (si le bruit selon lequel elles étaient recrutées via le bureau népalais de la plateforme de micro-travail Cloudfactory était confirmé).

L’histoire de M contient une moralité pour toute entreprise qui développe ou achète des solutions de IA : quand on prend en compte le coût de the human in the loop, l’automation revient très chère. C’est à cause de l’importance de ces coûts (et de la médiocrité des résultats) que Facebook a définitivement décidé de discontinuer M en 2018.

L’autre leçon à retenir ici est que dans la mesure où l’objectif final de M était de préparer le développement de solutions IA qui auraient pu automatiser presque toutes les tâches que les usagers réalisent en ligne, l’automation complète s’avère être un fantasme de silconvallards. A chaque fois qu’on automatise une tâche, les êtres humains avec qui l’IA interagit en redemandent, et de plus en plus complexes. Comme Wired le souligne :

“Another challenge: When M could complete tasks, users asked for progressively harder tasks. A fully automated M would have to do things far beyond the capabilities of existing machine learning technology. Today’s best algorithms are a long way from being able to really understand all the nuances of natural language.”

Il faut alors recommencer et recommencer à concevoir-entraîner-tester-micro-travailler etc. Comme quoi, nous (autant les centaines de millions de tâcherons du clic sur les plateformes de micro-travail que les milliards de micro-tâcherons dissimulés que nous sommes sur les plateformes de médias sociaux) avons devant nous une longue carrière de dresseurs d’IA. Très longue. Interminable même, à en croire certains jeunes experts d’automation. Parmi eux, un nommé Ernest Mandel, lequel affirmait, dans un texte paru en… 1986 :

“Sous le capitalisme, l’automation complète, l’introduction de robots sur grande échelle sont impossibles car elles impliqueraient la disparition de l’économie de marché, de l’argent, du capital et des profits. (…) La variante la plus probable sous le capitalisme, c’est précisément la longue durée de la dépression actuelle, avec seulement le développement d’une automation partielle et d’une robotisation marginale, les deux étant accompagnées par une surcapacité de surproduction sur grande échelle (une surproduction de marchandises), un chômage sur grande échelle, une pression sur grande échelle pour extraire de plus en plus de plus-value d’un nombre de jours de travail et d’ouvriers productifs tendant à stagner et à décliner lentement. Cela équivaudrait à une augmentation de la pression à la surexploitation de la classe ouvrière (en faisant baisser les salaires réels et les prestations de Sécurité sociale), en affaiblissant ou détruisant le mouvement ouvrier organisé et en sapant les libertés démocratiques et les droits de l’homme.”

Le programme du séminaire #ecnEHESS “Étudier les cultures du numérique” 2017/18 est arrivé [avec séance exceptionnelle !]

Pour la dixième année consécutive, notre séminaire EHESS Etudier les cultures du numérique revient ! Et le programme est extrêmement riche, avec plein d’intelligence artificielle, d’études post-coloniales, de genre et sexualité, d’algorithmes et d’économie de la connaissance. Des chercheurs internationaux, des sujets de pointe, et un format long pour vous permettre d’avoir un véritable échange avec les intervenants.

Vous connaissez le principe : le séminaire est ouvert aux auditeurs libres. Il suffit de s’inscrire (pour toute l’année ou seulement pour une ou deux séances) en remplissant le formulaire de contact. Si vous êtes un étudiant et vous souhaitez valider cet enseignement, merci de me contacter par e-mail.

Le séminaire a lieu le deuxième lundi du mois de 17 h à 20 h, en salle M. & D. Lombard, EHESS, 96 bd Raspail 75006 Paris. La séance de décembre aura lieu le lundi 4, en salle 13, 105 bd Raspail, 75006 Paris. NB : une séance exceptionnelle avec Gabriella Coleman aura lieu le mercredi 28 mars 2018 en Amphithéâtre François Furet, 105 bd Raspail, 75006 Paris.

Voilà le calendrier complet :

 
lundi 13 novembre 2017 – Antonio Casilli (ParisTech/EHESS)

Des intelligences pas si artificielles : plateformes, digital labor et la ‘tentation d’automatiser’

lundi 04 décembre 2017 – Bernie Hogan (Oxford Internet Institute)
Control, Privacy, Generativity: Big Data after the Ideology of Machine Learning
lundi 08 janvier 2018 – Olivier Ertzscheid (Université de Nantes – IUT La Roche-sur-Yon)

L’appétit des géants : les plateformes sont-elles des gouvernements comme les autres ?

lundi 12 février 2018 – Jean-Gabriel Ganascia (Université Pierre et Marie Curie)

Singularité : les mythes transhumanistes à l’épreuve de la recherche sur l’intelligence artificielle

lundi 12 mars 2018 Yves Citton (Université Paris 8)

Penser les médias numériques : ouvrir les boîtes noires pour surprendre la médiarchie

⚠ Séance exceptionnelle ⚠

mercredi 28 mars 2018 Gabriella Coleman (McGill University)

HackAccess: How Anonymous reinvented the hack-leak combo

lundi 09 avril 2018 Payal Arora (Erasmus University Rotterdam), Edgar C. Mbanza (EHESS) Mobilizing the ludic underclass in the digital age
lundi 14 mai 2018 – Marie Bergström (INED)

Au bonheur des (plateformes de) rencontres : entre couples et hétérosexualité non conjugale

lundi 11 juin 2018 – Juan Carlos De Martin (Nexa – Politecnico di Torino)

The historical mission of the university in the wake of the digital revolution


 

 

Micro-lavoratori di tutto il mondo… (Rassegna Sindacale, Italia, 17 sett. 2017)

Riassunto della mia lectio magistralis alle Giornate del Lavoro della CGIL. Qui il video del mio intervento.

 

 

[Séminaire #ecnEHESS] Mary L. Gray “Amazon MTurk: les coulisses de l’intelligence artificielle” (10 avril 2017, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Pour la séance du 10 avril 2017 EHESS Etudier les cultures du numérique, nous avons l’honneur d’accueillir Mary L. Gray, chercheuse chez Microsoft Research et membre du Berkman Center for Internet and Society de l’Université Harvard. Mary Gray a été l’une des pionnières des études sur Amazon Mechanical Turk et sur les liens entre micro-travail et intelligence artificielle.

Pour suivre le séminaire sur Twitter : hashtag #ecnEHESS.

ATTENTION : Le siège habituel étant fermé pour les vacances universitaires, cette  séance se déroulera le lundi 10 avril 2017, de 17h à 20h, amphi Opale, Télécom ParisTech, 46 rue Barrault, 13e arr. Paris.

Title: What is Going On Behind the API? Artificial Intelligence, Digital Labor and the Paradox of Automation’s “Last Mile.”

Speaker: Mary L. Gray

Abstract: On-demand digital labor has become the core “operating system” for a range of on-demand services. It is also vital to the advancement of artificial intelligence (AI) systems built to supplement or replace humans in industries ranging from tax preparation, like LegalZoom, to digital personal assistants, like Alexa. This presentation shares research that starts from the position that on-demand “crowdwork”—intelligent systems that blend AI and humans-in-the-loop to deliver paid services through an application programming interface (API)—will dominate the future of work by both buttressing the operations of future enterprises and advancing automation. For 2 years Mary L Gray and computer scientist Siddharth Suri have combined ethnographic fieldwork and computational analysis to understand the demographics, motivations, resources, skills and strategies workers drawn on to optimize their participation in this nascent but growing form of employment.  Crowdwork systems are not, simply, technologies. They are sites of labor with complicated social dynamics that, ultimately, hold value and require recognition to be sustainable forms of work.

La présentation et les débats se dérouleront en anglais.


Séminaire organisé en collaboration avec ENDL (European Network on Digital Labour).

The business performativity of Mark Zuckerberg’s manifesto

Whenever I hear a businessman talk about building a “healthy society”, my sociologist sense tingles… And although I haven’t been discussing Zuckerberg’s recent tirade, I feel reassured by the fast and compelling reactions I’ve read. Countering Zuckerberg’s brand of simplistic technodeterminism is crucial. For instance, you might want to examine Aral Balkan’s piece, or appreciate the relentless logic of Annalee Newitz, exposing contradictions and dangers in the manifesto.

Of course, we’ve been here before. Facebook’s founder customarily posts messages, rants, and edicts. And unfortunately their criticism is not enough. Because there is a performativity to Zuckerberg’s essays. Although they are constantly spinned to the media as heart-felt cries from Mark-Zuckerberg-the-person, they actually serve as program frameworks for the company run by Mark-Zuckerberg-the-CEO. The fact of stemming from “trainwrecks” (term used by both Annalee Newitz and danah boyd in a seminal paper penned almost a decade ago) doesn’t diminish the power of these pronouncements.

Capitalism feeds on crises. And Facebook (being the ultimate capitalist scheme) feeds on “trainwrecks”— it uses them as devices to establish its dominance. So the 2008/9 “privacy trainwreck” jumpstarted its extensive market for personal data. The 2013 “connectivity crisis” spawned Free Basics. And what will the 2016 “fake news disaster” be exploited for? Smart money says: “turning Facebook’s colossal user-base in a training ground for AI”.

Admittedly, this doesn’t come as a surprise. The ambition to “solve AI” by extracting free/micropaid digital labor from users is evident. Facebook AI Research (FAIR) division is devoted to “advancing the field of machine intelligence and to give people better ways to communicate” by relying on quality datasets produced by… people communicating on Facebook.

What is new is how the “fake news trainwreck” has ended up supporting this ambition by turning Facebook human users into a “social infrastructure” for AI (cf. Zuckerberg). More importantly, it provides a rationale for the company’s strategy. And throws in “terror” for good measure, to render it unavoidable…:

“A healthy society needs these communities to support our personal, emotional and spiritual needs. In a world where this physical social infrastructure has been declining, we have a real opportunity to help strengthen these communities and the social fabric of our society. (…) The guiding principles are that the Community Standards should reflect the cultural norms of our community, that each person should see as little objectionable content as possible, and each person should be able to share what they want while being told they cannot share something as little as possible. The approach is to combine creating a large-scale democratic process to determine standards with AI to help enforce them. (…) Right now, we’re starting to explore ways to use AI to tell the difference between news stories about terrorism and actual terrorist propaganda so we can quickly remove anyone trying to use our services to recruit for a terrorist organization. This is technically difficult as it requires building AI that can read and understand news, but we need to work on this to help fight terrorism worldwide. (…) The path forward is to recognize that a global community needs social infrastructure to keep us safe from threats around the world, and that our community is uniquely positioned to prevent disasters, help during crises, and rebuild afterwards. Keeping the global community safe is an important part of our mission — and an important part of how we’ll measure our progress going forward.”