digital labor

[Vidéo] En dialogue avec Clément Viktorovitch (CliqueTV, 19 janv. 2020)

Vidéo de mon interview dans l’émission Viens Voir Les Docteurs, avec Clément Viktorovitch.

L’intelligence artificielle est l’objet de tous les fantasmes : elle serait partout autour de nous, ses capacités pourraient dépasser celles des humains, et nous réduire, à terme à l’esclavage… Mais l’IA, c’est quoi exactement ? Comment ça marche ?…

[Podcast] Travail invisible, travail gratuit (France Culture, 17 janv. 2020)

Bénévolat, volontariat, digital labor: dans les associations, les entreprises ou sur nos smartphones, certaines de nos activités non rémunérées ont en commun de servir de modèles économiques à d’autres. Services publics et entreprises fonctionnent grâce à la gratuitisation de certaines activités.

Si récemment vous avez posté une photo sur Instagram, recommandé un restaurant sur TripAdvisor ou posté une critique de film sur un blog, vous n’avez pas juste partagé. Vous avez travaillé pour ces grandes plateformes. Gratuitement.  “Ces entreprises ont réussi à imposer l’idée que ces personnes qui travaillent gratuitement le font pour la communauté. Or les ressources communes qu’ils contribuent à créer (les contenus, les données…) sont captées par les plateformes et transformées en valeur monétaire à la fin”, rappelle le sociologue Antonio Casilli, spécialiste du “travail du clic” ou le digital labor 

C’est aussi au nom de valeurs — souvent l’innovation, la curiosité, l’envie de partager ou d’apprendre — que de nombreux professionnels participent à des hackathons (contraction de “hack” et de “marathon”). Durant ces événements, organisés par des entreprises privées mais aussi souvent des institutions publiques, des équipes de développeurs, entre autres, imaginent des nouveaux services ou applications. François Lacombe est ingénieur, mais aussi bénévole pour OpenStreetMap. Une association dédiée à l’ouverture à tous des données géographiques. Et c’est sur ce thème qu’il a participé des hackathons. “Cela dure 48h, souvent le week-end car c’est ouvert au grand public, et presque non-stop car il faut arriver le dimanche devant le jury avec une solution dont on sait qu’elle va fonctionner.”

[Séminaire #ecnEHESS] “Communiquer avec modération” avec Sarah T. Roberts (Gaité Lyrique, 9 janv. 2020, 19h)

Le prochain rendez-vous de notre séminaire Étudier les cultures du numérique inaugure une collaboration avec la Gaîté Lyrique. De janvier à mai 2020, le lieu de culture parisien nous fait l’honneur d’accueillir en ses murs les séances du séminaire #ecnEHESS ouvertes aux auditeurs libres. Quatre rencontres où chercheur•ses et artistes se penchent sur “le côté obscur du futur du travail”.

Enseignement ouvert aux auditeurs libres (dans la limite des places disponibles). Pour s’inscrire, merci de renseigner le formulaire.

N’hésitez pas à faire circuler cette information au sein de vos propres contacts et sur les réseaux.


“Communiquer avec modération”
Sarah T. Roberts (UCLA)

avec Lauren Huret

jeudi 9 janvier 2020 à 19h00
Gaîté Lyrique
Auditorium
3bis, rue Papin
75003 – Paris

Nous avons tendance à penser que ce sont les algorithmes qui filtrent les contenus illicites, qui nous servent de bouclier contre le langage haineux et les vidéos violentes en ligne. Mais en réalité, ce sont des humains. Plus de 100 000 modérateurs de contenus commerciaux évaluent les publications sur les plateformes des médias sociaux, filtrent et suppriment les contenus choquants. Un travail largement invisible.

Avec son livre Behind The Screen, Content Moderation in the Shadows of Social Media (Yale University Press, 2019), Sarah T. Roberts, professeure en sciences de l’information à UCLA et lauréate 2018 du prix EFF Pioneer, offre la première étude ethnographique approfondie sur l’industrie de la modération du contenu commercial. S’appuyant sur des entretiens avec des travailleurs de la Silicon Valley jusqu’aux Philippines, elle contextualise cette industrie cachée et examine le poids émotionnel porté par ses travailleurs. Cette enquête sur les personnes qui officient “derrière l’écran” offre un aperçu d’un travail de plus en plus mondialisé et du pouvoir politique des plateformes qui s’érigent en juges de la communication planétaire à l’ère numérique.

Le travail de l’artiste franco-suisse Lauren Huret porte sur l’activité des modérateurs et modératrices de contenu, exposés à des milliers d’images traumatisantes chaque jour, et interroge les conséquences psychiques et physiques de ces tâches, ainsi que leurs effets à long terme pour nos sociétés.

The real dangers of facial recognition: mass obedience and online labor exploitation

Facial recognition is a scam, but that doesn’t mean we should underestimate the threat it poses to freedom and fundamental human rights.

Case in point: Russian media MBKh discovered that Moscow police officers illegally “monetize” footage of 175,000 surveillance cameras on forums and messenger groups. For the equivalent of 470$, anyone can have access to facial recognition lookup services that, when provided with the picture of an individual, match it with passerby from hundreds of cameras, along with a list of addresses and times they were caught on camera. 

Interestingly enough, face recognition tech *does not work*, and the journalist has to grudgingly admit its low accuracy:

“As for the accuracy of the results, none of the photos returned were of the investigator. However, the facial features were similar to the input and the system assessed a similarity of 67%.”

According to the journalist, the explanation for this suboptimal performance is “the limited number of cameras connected to the face recognition algorithm”. Apparently, the sample is too small, but the technology is not fundamentally called into question…

Another explanation (often ignored by journalists, ever ready to believe the AI hype and therefore disregard its actual dangers) is introduced by a 2018 New York Times coverage of China’s surveillance-industrial complex: mass surveillance systems are not automated per se and are largely based on the intervention of crowds of micro-workers who cherry-pick millions of videos, cut out silhouettes of individual and tag metadata, fill in databases and annotate information:

“The system remains more of a digital patchwork than an all-seeing technological network. Many files still aren’t digitized, and others are on mismatched spreadsheets that can’t be easily reconciled. Systems that police hope will someday be powered by A.I. [emphasis added] are currently run by teams of people sorting through photos and data the old-fashioned way.”

“The old-fashioned way” here means “by hand”… Data annotation, triage, enrichment, especially for the computer vision models underlying face recognition algorithms, is a blossoming market. Recent research by Bonnie Nardi, Hamid Ekbia, Mary Gray, Sid Suri, Janine Berg, Six Silberman, Florian Schmidt, Trevor Paglen, Kate Crawford, Paola Tubaro and myself witnesses its development in sectors as diverse as home automation, transportation, advertising, health, entertainment… and the military. It is based on a workforce of hundreds of million of online laborers, alternatively called microworkers or crowdworkers. They work long hours, with precarious contracts and exploitative working conditions, and are paid very low wages (in some cases less than a cent per micro-task). Although they are attested in the global North, they are predominantly based in developing and emerging economies—such as Russia and China. But the companies that recruit them to package their annotated data and resell it as surveillance technologies, are mainly located in so-called liberal democracies. Despite the Chinese market supremacy, US, French, Japanese, Israeli and Finnish corporations are spreading these technologies all over the world, according to the 2019 AI Global Surveillance Index.

Despite the importance of these “humans in the loop” that constitute the secret ingredients of AI-based technological innovation, the threats of facial recognition, smart cities and predictive policing must not be minimized. The glorification of AI turns it into a powerful psychological deterrent and a disciplinary device. “The whole point,” explains an expert interviewed by the New York Times, “is that people don’t know if they’re being monitored, and that uncertainty makes them more obedient.”

Any action aimed to fight against the alleged omnipotence of these technologies begins with the recognition of their fictitious nature. If automated surveillance is made up of men and women who train, control and impersonate “artificial artificial intelligence“, it is from the awareness of their role in a dystopian and inhuman system that a change is going to come.

[Podcast] Débat Antonio Casilli, Jean-Gabriel Ganascia et Marine Al Dahdah sur automation et globalisation (16 oct. 2019)

Dans le cadre du cycle de conférences Les Débats du CAK, organisées depuis 2014 au Centre Alexandre-Koyré, j’ai eu le plaisir de débattre mon dernier ouvrage En attendant les robots. Enquête sur le travail du clic (Paris, Le Seuil, 2019) en compagnie de Marine Al Dahdah (sociologue au CEMSS CNRS et co-fondatrice du groupe de recherche « Digital studies in the Global South ») et de Jean-Gabriel Ganascia (informaticien et philosophe à la Sorbonne Université, et président du Comité d’éthique du CNRS).

Modération : Wolf Feuerhahn (CNRS, CAK).

Interview dans Sciences et Avenir (HS 35, 25 sept. 2019)

« Dans les usines à clic, des millions de petites mains bien humaines »

PROPOS RECUEILLIS PAR LOÏC CHAUVEAU

L’enrichissement continu des logiciels et des bases de données nécessite la contribution de « tâcherons » sans rémunération fixe ni droits sociaux. Une inflexion inquiétante du monde du travail. ANTONIO CASILLI Sociologue à Télécom Paris

page hors_serie_35

Selon vous, l’intelligence artificielle ne serait rien d’autre que du bluff?

Je ne me reconnais pas dans cette idée que l’on m’attribue parfois. Je dirais plutôt que, pour justifier des formes nouvelles de discipline du travail, pouvoirs politiques et économiques utilisent l’intelligence artificielle de façon idéologique. Quand ils en débattent, ces acteurs se concentrent sur les pertes d’emplois qui menacent les moins qualifiés. Mais pour peu que l’on regarde « sous le capot », on s’aperçoit que les masses de données nécessaires pour entraîner les machines sont introduites dans le système par des petites mains bien humaines! En Afrique, en Asie, de véritables « usines à clic » voient des millions de personnes nourrir des algorithmes de reconnaissance faciale, d’identification des objets pour les voitures autonomes, d’enregistrement de voix pour les enceintes connectées. Un travail que je qualifie de digital labor. Si quelqu’un n’apprend pas à une voiture autonome à quoi ressemble un piéton, celle-ci restera aveugle.

A-t-on une idée du nombre de personnes accomplissant aujourd’hui ce digital labor ?

Difficile de répondre, car il n’est pas toujours visible. On estime que, dans le monde, plusieurs dizaines de millions de personnes fabriquent des données. En France, notre projet Digital Platform Labor, qui a cherché à quantifier ce micro-travail, est arrivé au total de 260000 personnes inscrites à 23 plateformes proposant du travail « au clic ». Ce sont en majorité des femmes au foyer qui arrondissent leurs fins de mois avec ce travail faiblement rémunéré (moins de 300 euros par mois). Mais on peut y ajouter les 55 millions de Français qui, gratuitement, renseignent les Gafa en « likant », en répondant à un « Captcha » demandant de prouver que l’on n’est pas un robot. À chaque fois, la requête de l’internaute, sa géolocalisation, la consultation d’un site, un paiement, alimentent les bases de données sans lesquelles des technologies « intelligentes » n’existent pas.

Mais un jour, cet amoncellement de données finira bien par rendre ce travail inutile?

C’est l’argument entendu dans nombre de start-up : il arrivera un moment où les algorithmes auront ingurgité suffisamment de données pour parer à toutes les éventualités. Mais est-ce bien certain? L’intelligence artificielle arrivera-t-elle un jour à rivaliser avec le cerveau d’un enfant qui reconnaît immédiatement un chat d’un chien quel que soit leur aspect? En outre, le consommateur attend que le service qui lui est proposé soit toujours amélioré. Pour répondre à ces attentes, il est nécessaire d’enrichir en permanence les logiciels utilisés. Enfin, la concurrence pour vendre des objets « intelligents » est féroce. La course au « petit plus » qui permet de faire la différence oblige à relancer continuellement l’apprentissage des machines.

Quel est l’encadrement juridique de ces travailleurs?

Dans cette nouvelle économie, c’est le point le plus inquiétant. La relation salariale est mise entre parenthèses. C’est un travail « à la tâche ». Les nouveaux « tâcherons » ne bénéficient pas d’une rémunération fixe, ni de droits sociaux, ni d’une représentation auprès des donneurs d’ordre. Ils ne peuvent revendiquer la juste part de leur travail face à des plateformes bien décidées à capter l’essentiel de la richesse créée. La révolte des chauffeurs Uber ou des livreurs Deliveroo montre que ce système a cependant des limites.

http://diplab.eu/ Antonio Casilli, En attendant les robots, Seuil, 2019

[Vidéo] Leçon inaugurale année universitaire, département sociologie, Université de Genève (25 sept. 2019)

La Faculté des sciences de la société et le Département de sociologie de l’Université de Genève m’ont fait l’honneur de m’accueillir comme conférencier pour la leçon inaugurale de l’année universitaire 2019/2020.

Les poinçonneurs de l’IA. Le digital labor qui rend l’intelligence artificielle (im)possible

En 2003, le pionnier des systèmes experts Edward Feigenbaum qualifiait l’intelligence artificielle (IA) de « destinée manifeste » de nos sociétés. Ce slogan, emprunté de la doctrine politique du providentialisme américain, constitue un remède idéologique aux défaillances d’une discipline qui, depuis des décennies, n’arrive pas à s’attaquer à « la vraie majesté de l’intelligence générale ». Les déclarations des scientifiques, le buzz des investisseurs et les prises de position des décideurs politiques ne relèvent pas de la pensée magique : elles sont des vœux constamment renouvelés, non pas pour réaliser un objectif scientifique, mais pour affirmer une certaine vision du travail…

À l’occasion de la conférence de la rentrée de la sociologie, Antonio Casilli reviendra sur son dernier ouvrage : « En Attendant les robots. Enquête sur le travail du clic » (Seuil, 2019).

Les plateformes numériques mobilisent les compétences, le temps et les gestes productifs de leurs usagers pour produire de la valeur–et pour rendre possible l’automatisation. Des services de livraison express basés sur des applications mobiles aux plateformes de micro-travail comme Amazon Mechanical Turk, aux médias sociaux qui incitent leurs usagers à produire d’énormes masses de données personnelles, les usagers sont désormais mis à contribution pour entraîner des IA. Transcription, annotation, reconnaissance visuelle ou étiquetage de contenus : autant d’activités déléguées à des usagers sous forme de micro-tâches peu ou pas rémunérées. La recherche récente sur ces nouvelles formes de “digital labor” dresse un tableau surprenant des évolutions du marché du travail. À l’heure de l’automatisation intelligente, le travail humain est soumis à une pression pour le remplacement qui aboutit au résultat inattendu de pousser les usagers-travailleurs à réaliser des activités nécessaires de supervision de l’apprentissage des machines mêmes.

Mon ouvrage «En attendant les robots», Grand Prix de la Protection Sociale 2019

Mon livre En attendant les robots – Enquête sur le travail du clic, paru en janvier 2019 aux Éditions du Seuil, vient de recevoir le Grand Prix de la Protection Sociale 2019 décerné par l’École nationale supérieure de Sécurité sociale et la Caisse des dépôts.

La cérémonie de remise des prix a lieu le mercredi 9 octobre 2019, à 19h, à l’Hôtel de Pomereu, 67 Rue de Lille, 75007 Paris.

Inscription libre en renseignant ce formulaire.

L’autre lauréat du Grand prix pour cette années est Christophe Capuano, historien à l’Université Lumière Lyon 2, auteur de « Que faire de nos vieux ? Une histoire de la protection sociale de 1880 à nos jours ».

Interviewé dans l’enquête Mediapart sur assistants vocaux, digital labor et privacy (31 août 2019)

Le site d’information et d’enquête Mediapart publie les révélations depuis l’usine à “intelligence artificielle artificielle” de Siri, signées Jerome Hourdeaux. Le journaliste donne la parole aux micro-travailleurs français travaillant depuis le siège de Cork en Irlande d’un sous-traitant du géant de Cupertino, et met la main sur les documents qui attestent l’étendue des abus d’Apple. J’ai été interviewé dans le cadre de cette enquête et j’ai pu apporter mon éclairage à la publication de ces sources inédites.

Par-delà les risques psychosociaux qu’encourent les micro-travailleurs (isolement, TSPT, perte de sens), il y a un problème évident en termes de violation systématique de la vie privée des usagers des produits Apple. L’entreprise a depuis promis de mettre fin à ces pratiques. Crédible ? Pas vraiment, à mon avis.

La partie vraiment passionnante de l’enquête de Mediapart est la plongée dans le fonctionnement concret du micro-travail. Ça rassemble à quoi une micro-tâche de retranscription et d’annotation de conversations captées par une IA ? Comment se structure le workflow de Siri ?

Capture d’écran de l’interface pour la réalisation de micro-tâche de transcription de l’assistant vocal Siri. Source : Mediapart.

A cette révélation s’en ajoute une autre, celle-ci des plus inquiétantes. Les micro-travailleurs recrutés par Apple ne se limitent pas à retranscrire des phrases anodines que n’importe qui pourrait prononcer. Ils gèrent des données à caractère personnel qui identifient les usagers, lesquels font référence dans leurs conversations à noms, adresses, situations souvent sensibles. De surcroît, pour vérifier que Siri aie bien répondu aux requêtes formulées par les usagers, Apple donne à ses micro-travailleurs accès à tous leurs fichiers personnels via une fonctionnalité qui, selon Mediapart, s’appelle user data browser.

L’usage de ces données n’est pas restreint ni discret, puisque les assistants virtuels comme Siri ont besoin de millions d’exemples pour apprendre à interpréter une simple requête. Leur apprentissage machine nécessite la mise sur écoute systématique et massive des usagers. Ce n’est pas un accident ni le problème de la seule Apple.

J’ai eu l’occasion de l’affirmer ailleurs, et je le répète dans l’article de Mediapart : tous les GAFAM ont désormais été démasqués. Ils ont menti à propos du respect de la vie privée de leurs usagers, mais ils ont surtout menti sur l’artificialité de leurs intelligences artificielles.


Assistant vocal d’Apple: le calvaire des salariés

PAR JÉRÔME HOURDEAUX
ARTICLE PUBLIÉ LE SAMEDI 31 AOÛT 2019

Assistant vocal d’Apple: le calvaire des salariés

À la fin du mois de juillet, TheGuardian et El País révélaient que des centaines de personnes étaient chargées d’écouter les conversations d’utilisateurs de Siri, l’assistant vocal d’Apple, afin de corriger ses résultats. Après avoir suspendu le programme qui reprendra à l’automne, la société vient d’annoncer le licenciement de 300 salariés.

Alors que, acculé par les révélations sur l’écoute des utilisateurs de Siri, Apple vient de mettre à la porte plusieurs centaines de salariés, Mediapart a pu recueillir les témoignages de plusieurs d’entre eux et consulter des documents détaillant le travail de ces employés, chargés d’écouter les utilisateurs.

Au total, au moins 300 personnes travaillant pour des sous-traitants d’Apple à Cork, en Irlande, se sont vu notifier la fin de leur contrat vendredi dernier, rapporte mercredi 28 août The Guardian.

Cette annonce n’a pas vraiment été une surprise pour les salariés concernés. Depuis le 2 août, nombre d’entre eux avaient été placés en chômage technique après la révélation, par The Guardian et El País, de la nature réelle de leur travail : écouter les utilisateurs d’Apple parler à Siri. Cette intelligence artificielle, embarquée sur l’ensemble des appareils vendus par la marque à la pomme, permet d’activer une application, d’écouter de la musique, de faire une recherche sur Internet ou encore d’appeler un contact, simplement en donnant un ordre oral.

Les articles du Guardian et d’El País n’étaient pourtant pas en eux-mêmes des scoops. Plusieurs chercheurs avaient déjà expliqué que les intelligences artificielles le sont beaucoup moins que ce que leurs concepteurs prétendent. Incapables de réellement « apprendre » par eux-mêmes, les algorithmes ont besoin de centaines de milliers d’exemples, fournis par des êtres humains.

Les deux quotidiens rapportaient en revanche les témoignages inédits d’anciens salariés de sous- traitants d’Apple ayant passé leurs journées à écouter des conversations de clients et à noter la réponse apportée par Siri. De plus, révélaient-ils, les différents appareils sur lesquels est embarqué l’assistant vocal ont une fâcheuse tendance à activer celui-ci à tout bout de champ.

Les salariés chargés d’écouter les extraits sonores enregistrés par Siri tombaient ainsi régulièrement sur des échanges particulièrement privés, comme lors de relations sexuelles ou encore lors de ce qui semblait être un trafic de drogue. En réaction, Apple avait annoncé la suspension de programmes d’amélioration de Siri, le temps de revoir ceux-ci et de les reprendre, sous une forme modifiée, à l’automne prochain.

Depuis, Mediapart a également recueilli les témoignages de plusieurs ex-salariés ayant travaillé dans les locaux de GlobeTech, l’une des deux principales sociétés travaillant pour Apple à Cork (l’autre étant Lionbridge). Ceux-ci confirment les informations du Guardian et d’El País et donnent des détails supplémentaires.

Les centaines de personnes travaillant pour Globetech et Lionbridge étaient affectées à de multiples « projets » correspondant aux différentes phases de vérification et de notation de Siri. Ces différentes tâches nécessitaient des compétences et des niveaux d’accréditation différenciés permettant, pour certaines d’entre elles, d’accéder aux données personnelles contenues dans l’appareil de l’usager.

Chaque salarié étant soumis à une clause de confidentialité, il est très difficile de savoir à quoi correspond exactement chacun de ses projets. Mais plusieurs documents internes et témoignages d’ex- salariés recueillis par Mediapart permettent d’avoir une idée assez précise du rôle des humains au cœur du fonctionnement de l’intelligence artificielle et de leurs conditions de travail.

Les salariés travaillant directement sur Siri sont classés en deux principales catégories. Il y a tout d’abord les « language analysts », qui travaillent sur les « bulk data », les données brutes, c’est-à-dire les extraits audio livrés sans autre information.

La tâche de base correspond aux programmes « 1.000 hours » (1 000 heures) et se décline au sein de projets spécifiques en fonction de l’appareil : « 1.000 hours iPhone », « 1.000 hours iPad », « 1.000 hours CarPlay », etc. Le salarié, connecté à une interface sur un réseau interne d’Apple, a accès à l’enregistrement audio et, dessous, la transcription automatique qui a été faite par l’algorithme. Il doit se contenter d’écouter la séquence, appelée « itération », et de corriger les éventuelles fautes de retranscription.

Le nombre d’itérations nécessaires au bon fonctionnement de Siri est impressionnant. Dans les documents consultés par Mediapart, un tableau d’objectifs trimestriel donne le chiffre de 609 309 extraits audio pour les clients francophones, 874 778 pour les Chinois, ou encore 716 388 pour les Japonais. Et ce, uniquement sur le troisième trimestre 2019 et pour l’iPad. S’ensuit, pour les employés, un rythme effréné afin d’atteindre un quota quotidien fixé à 1 300 itérations par jour.

L’autre catégorie d’employés correspond aux « data analysts » qui, eux, ont accès à certaines données personnelles des utilisateurs. Apple avait pourtant affirmé que ses salariés n’avaient pas les moyens d’identifier les personnes écoutées, notamment parce qu’ils ne disposaient pas de l’« user ID », l’identifiant.

C’est en partie vrai. Le nom de l’utilisateur ou son numéro n’apparaissent effectivement pas. Mais un petit menu intégré à l’interface d’Apple, le user data browser, permet d’effectuer des recherches parmi les données stockées dans l’appareil. Cette fonctionnalité est principalement intégrée à l’outil de notation de Siri, le Siri results widget (SRW).

Assistant vocal d’Apple: le calvaire des salariés

Celui-ci présente, en haut, l’extrait sonore et, en dessous à gauche, la réponse apportée par Siri à la requête. À droite, une série de questions permet de noter celle-ci. Et en dessous, le user data browser permet de fouiller dans les données de l’appareil pour vérifier que Siri a utilisé les bonnes informations.

Comme l’explique l’un des documents, « les données d’utilisateur peuvent être utiles pour comprendre l’intention de l’utilisateur. Par exemple, si l’utilisateur dit : “Montre coucher de soleil horizontal”, cela peut être dur à comprendre. Toutefois, si l’utilisateur a un album photo appelé “Couchers de soleil horizontaux”, ce que l’utilisateur voulait devient clair ».

Concernant les conditions de travail, les salariés des sous-traitants d’Apple sont un peu mieux lotis que beaucoup d’autres micro-travailleurs, tels que ceux décrits notamment par le sociologue Antonio Casilli, auteur du livre En attendant les robots (Seuil, janvier 2019) et membre du projet DipLab (Digital Platform Labor), à l’origine du rapport « Le micro-travail en France », sorti en avril 2019.

Ce nouveau sous-prolétariat numérique, ces « tâcherons du Web », travaillent bien souvent de chez eux, via des plateformes intermédiaires, et ne connaissent souvent même pas l’identité du commanditaire. Ils sont rémunérés à la tâche, le plus souvent quelques centimes d’euros.

À GlobeTech, les salariés disposent d’un contrat de travail de droit irlandais, avec un salaire mensuel d’environ 2 000 euros brut par mois, pour des journées de 7 h 30, pause déjeuner déduite, avec deux pauses de 15 minutes. Ils travaillent dans des locaux spécifiques d’où ils se connectent à l’interface d’Apple via un réseau sécurisé.

Les conditions de travail y sont strictes, et souvent mal vécues par les salariés. « Le pire, c’est le côté répétitif, les itérations qui reviennent constamment, du style “mets l’alarme à telle heure”, explique Antoine*, un des anciens salariés que Mediapart a rencontrés. Les gens étaient tous surdiplômés, des bac + 3 à bac + 5. Tout le monde s’ennuyait. La plupart des gens s’en allaient le plus tôt possible, dès qu’ils avaient fini leur quota journalier d’itérations. Je crois que personne ne reste plus de six mois. Même nos supérieurs avaient l’air de détester leur travail. »

« De plus, poursuit le jeune homme, on était hyper fliqués. Quand on ne faisait pas d’itération pendant plus de six minutes, on était considéré en pause. Il fallait envoyer chaque soir par mail le nombre d’itérations que l’on avait faites durant la journée. »« On pouvait être viré du jour au lendemain, confirme Gaël*, un autre ex-salarié. Le soir, votre superviseur pouvait venir vous voir pour vous dire : t’as pas fait tes stats aujourd’hui, tu pars. »

Beaucoup de salariés ont mal vécu le fait d’être les témoins de la vie privée des utilisateurs. Une bonne partie des requêtes concernent des ordres assez classiques, comme appeler un contact. « Le plus drôle que j’ai eu, c’est un “appel Frank Riester” », se souvient Antoine.

Mais certains se révèlent particulièrement intrusifs.

« Beaucoup de gens dictent leurs textos. Et on a donc beaucoup de “sextos” », raconte Antoine. Il y a également les cas de demande de recherche relative à des maladies par exemple. « On entend aussi beaucoup de voix d’enfant. On ne leur a pas demandé leur avis,

à eux ! », s’indigne Gaël, qui se souvient d’une voix enfantine demandant : « Dis Siri, tu peux me montrer une photo de vrai zizi ? »

Il y a également les nombreuses personnes qui utilisent Siri comme dictaphone, afin d’enregistrer des mémos vocaux. Antoine et Gaël sont ainsi tous deux tombés à de nombreuses reprises sur des extraits de professeurs, enregistrant leurs avis de conseils de classe.

Enfin, il y a les enregistrements accidentels, provoqués par un déclenchement involontaire de Siri. Car l’assistante vocale semble particulièrement sensible. « Ça s’active à tout bout de champ, confirme Antoine. J’ai remarqué que ça marchait notamment avec les phrases des autres assistants vocaux, par exemple si vous dites “OK Google”. »

Lorsqu’un salarié tombait sur un de ces enregistrements, il devait l’écouter et le signaler en cliquant sur un bouton « accidental trigger ». « C’était tout simplement le bouton sur lequel on appuyait le plus, se souvient Antoine. On pouvait entendre de tout. Ça pouvait être la musique d’une voiture pendant plusieurs minutes ou deux ados se racontant leurs drames. » Gaël, lui aussi, est tombé à plusieurs reprises sur des disputes amoureuses, des confessions intimes…

Parfois, le malaise ressenti par le salarié se transforme en traumatisme. Certains salariés peuvent être confrontés à des enregistrements dévoilant des pratiques illégales ou des situations de violence. « Je me souviens un jour d’une fille qui disait à sa copine, a priori à propos de son petit copain, un truc du style : “il est dangereux, il faut le faire enfermer”. Dans ces cas-là, on se sait pas quoi faire, on ne sait pas s’il y a réellement danger. » Gaël, de son côté, se souvient d’un enregistrement dans lequel un homme tient des propos explicitement pédophiles. « Ça m’a mis hors de moi, se souvient-il. Avons-nous un devoir moral à partir du moment où on surveille ? Est-ce qu’il n’y a pas un délit de complicité ? »

En page d’accueil du portail d’aide mis à la disposition des salariés par Apple, un message les prévient qu’ils peuvent être confrontés à « des propos vulgaires, des thèmes violents, pornographiques ou des sujets criminels » et les incite à contacter leur supérieur si besoin. Pourtant, dans la pratique, les salariés n’ont aucune information sur ce qui arrive par la suite.

« Ce genre de traumatisme est assez courant, explique Antonio Casilli. Il arrive même que certains travailleurs souffrent du syndrome de stress posttraumatique, notamment chez ceux chargés de la modération des commentaires. Des modérateurs de Microsoft et de Facebook ont déjà poursuivi leur employeur après avoir été frappés par ce syndrome. Dans le contexte des correcteurs de Siri, poursuit le sociologue, il y a un facteur supplémentaire qui joue : la difficulté de contextualisation. Ils sont confrontés à des extraits de discussions, des propos isolés, totalement déracinés du contexte général. Ils ne peuvent pas savoir s’il s’agit d’une provocation ou d’une exagération. Cela peut être plus perturbant que s’ils étaient présents physiquement. »

Dans ses travaux, Antonio Casilli a démontré à quel point les micro-travailleurs étaient indispensables au bon fonctionnement des intelligences artificielles. Dans ce cas, quelles mesures prendra Apple ? La marque à la pomme a annoncé au Guardian que le programme de notations de Siri reprendrait à l’automne, avec quelques modifications. Les utilisateurs auront notamment la possibilité de préciser qu’ils refusent d’être écoutés et les personnes chargées d’écouter les extraits sonores seront directement employées par Apple.

Antonio Casilli prend ces annonces « avec beaucoup de méfiance ». « Le travail de ces personnes est fondamental pour le fonctionnement d’un assistant vocal, rappelle-t-il. L’intelligence artificielle a besoin d’être entraînée et vérifiée. Sinon, elle ne marche pas. Ils vont donc devoir inventer une nouvelle manière de faire cet entraînement et cette vérification.

La solution consistant à internaliser ces tâches permettrait notamment d’imposer des contraintes de confidentialité accrue. Mais ça irait tout simplement à l’encontre des principes de gestion d’Apple. Une autre solution serait de morceler encore plus les tâches d’entraînement et de vérification et de les confier à des centres de gestion dans des pays tiers, poursuit le sociologue. Il y a tout de même eu une vague de révélations ces derniers mois, avec plusieurs travailleurs qui se sont transformés en lanceurs d’alerte. Et il semblerait que la plupart d’entre eux soient originaires de pays de l’Union européenne, où les législations sont plus protectrices qu’ailleurs. On peut imaginer qu’Apple cherche à installer ses centres de gestion dans des pays ayant une législation moins clémente. »

Gaël, lui aussi, est convaincu que le programme reprendra sous peu, peut-être en interne. « Ils vont se contenter de modifier les conditions générales d’utilisation pour y inclure le fait que ce que vous dites à Siri peut être écouté. Les gens vont signer et ça reprendra », prédit le jeune homme. « C’est, hélas, très possible, acquiesce Antonio Casilli. Nous sommes tous les esclaves de ce consentement forcé que sont les CGU. Ils sont totalement capables d’y mettre ce qui était encore inimaginable hier. »

Les révélations de ces derniers mois marquent cependant un tournant incontestable. Le 13 août, c’est Facebook qui admettait, lui aussi, écouter les conversations des utilisateurs des fonctions audio de son service Messenger et annonçait leur suspension. Apple, de son côté, a présenté jeudi 29 août ses excuses à ses clients écoutés.

« Tous les Gafam ont désormais été démasqués, constate Antonio Casilli. Il y a encore un an, si je disais dans une conférence que des travailleurs écoutent ce que l’on dit à un assistant vocal, c’était une “educated guess”, une supposition éclairée, une conséquence logique de ce que j’avais pu comprendre de leur fonctionnement lors de mes recherches. »

« Depuis, il y a eu une avalanche de témoignages qui montrent que non seulement il y a des enregistrements sauvages, mais également que ces assistants vocaux sont extrêmement défectueux, poursuit le sociologue. Quand on voit des taux de précision de 90 %, on peut se dire que c’est déjà pas mal, mais ça veut dire tout de même que quand vous demandez votre chemin, une fois sur dix, l’algorithme vous donnera le mauvais. C’est tout de même problématique. Apple a donc doublement menti : en disant qu’ils n’enregistraient pas les gens, et en leur affirmant que Siri fonctionne. »