Monthly Archives: January 2018

100 milioni di microlavoratori e… 4 miliardi di operai del click (Il Manifesto, Italia, 27 genn. 2018)

Nell’edizione del 27 gennaio 2018 de Il Manifesto, l’inserto settimanale Alias ospita una dossier assai completo su lavoro, piattaforme e nuove prospettive dell’azione politica in cui compare un mio lungo articolo intitolato Sulle piattaforme digitali siamo tutti operai del click. Fra le altre firme presenti in occasione dell’uscita di “Forza Lavoro”, il nuovo libro di Roberto Ciccarelli, ritroviamo Ippolita, Toni Negri, Valerio De Stefano, Tiziana Terranova.

La vie privée et les travailleurs de la donnée (Le Monde, 22 janv. 2018)

Dans Le Monde du 22 janvier 2018, je publie avec Paola Tubaro une tribune à l’occasion des 40 ans de la CNIL.

Attention : La tribune a été traduite en portugais et publié sur le site brésilien Outras Palavras.

 

Notre vie privée, un concept négociable

Antonio Casilli (Télécom ParisTech/EHESS) et Paola Tubaro (CNRS)

La défense de nos informations personnelles ne doit pas exclure celle des droits des travailleurs de la donnée

L’idée que nous nous faisons de la vie privée a profondément changé ces dernières années. Lorsque, en 1890, les juristes américains Samuel Warren et Louis Brandeis définissaient the right to privacy comme ” le droit d’être laissé en paix “, ils ignoraient qu’un siècle plus tard, cette définition n’aurait pas de sens pour 4 milliards d’êtres humains connectés. Nous n’assistons pas à sa fin, mais à la transformation de la -notion héritée de la tradition étasunienne. Pour ceux d’entre nous qui sont activement en quête de correspondants, d’amis, de partenaires sur un réseau numérique, le souci de défendre nos informations personnelles d’ingérences extérieures se révèle accessoire par rapport au droit de savoir combien de personnes exactement les possèdent et quel usage en est fait.

Nos informations ne sont plus ” chez nous “. Elles sont disséminées sur les profils Facebook de nos amis, dans les bases de données des commerçants qui tracent nos transactions, dans les boîtes noires algorithmiques qui captent le trafic Internet pour les services de renseignement. Il n’y a rien de plus collectif qu’une donnée personnelle. La question est donc moins de la protéger de l’action d’intrus qui cherchent à en pénétrer la profondeur que d’harmoniser une pluralité d’acteurs sociaux qui veulent y avoir accès.

Exit la notion de privacy comme pénétration qui était à la base de la loi Informatique et libertés de 1978, place à celle de privacy comme négociation. Communiquer des informations personnelles ou même sensibles à des tiers divers et variés fait désormais partie de l’expérience quotidienne de tout individu, que ce soit pour accéder à des biens commerciaux ou à des services publics. Il s’agit par exemple de consulter son compte Ameli, de vérifier un itinéraire sur son GPS, parfois d’organiser une rencontre sur Tinder ou de mesurer sa performance sportive par un bracelet connecté. Auparavant, le consentement à la captation, au traitement et à la conservation des données était nécessaire pour qu’une -pénétration de l’intimité ne soit pas une violation. Maintenant, sa fonction a changé. On donne son consentement contre un service.

C’est là le premier sens de l’idée de négociation de la vie privée : un échange, marchand ou pas, où les données personnelles font fonction de monnaie. S’arrêter à cette seule interprétation serait pourtant fourvoyant et politiquement myope. La vie privée est aujourd’hui surtout une négociation collective, une -concertation entre plusieurs parties afin de définir des obligations réciproques et d’organiser une relation. Cette relation peut être conflictuelle. De la campagne indienne contre l’usage des données par l’application Free -Basics à la plainte de l’ONG Europe-v-Facebook invalidant l’accord Safe Harbor, qui autorisait la plate-forme à transférer les informations des citoyens européens vers les Etats-Unis, les usagers de médias sociaux s’insurgent régulièrement contre des conditions perçues comme abusives.

Notre privacy cesse aujourd’hui d’être un droit individuel et se rapproche de l’idée d’un faisceau de droits et de prérogatives à allouer entre les citoyens, l’Etat et les entreprises du numérique. La négociation n’est pas simple et se complique d’autant plus que, par leurs -algorithmes, de puissantes plates-formes -tentent d’infléchir nos comportements. Un contact créé par deux usagers de leur propre initiative et un contact créé sous le conseil d’un système de recommandation automatisé sont-ils équivalents? Qui détient un droit sur les informations que cette relation engendre?

Il faut alors s’interroger non seulement sur les conditions d’usage, mais aussi sur les -modes de production des données, lesquels sont profondément influencés par les modèles d’affaires et les architectures logicielles -imposées par les plates-formes.

En effet, au-delà de la production de données brutes, des problèmes d’ordre nouveau apparaissent lorsqu’on étend son regard à leurs enrichissement, codage, étiquetage, mise en forme – opérations nécessaires pour rendre les données exploitables par des techniques de machine learning, soit l’apprentissage automatique. Les photos des vacances mises en ligne par les usagers d’une plate-forme sociale peuvent, par exemple, être labélisées par des tags qui identifient les lieux. Ces informations ont une valeur économique : -elles peuvent être vendues à des régies publicitaires ou, mieux, être utilisées pour calibrer des intelligences artificielles qui proposent automatiquement de prochains séjours aux vacanciers. Parfois, ce sont les usagers eux-mêmes qui ajoutent ces informations; parfois, les entreprises ont recours à du ” microtravail ” payé à la pièce. Moyennant quelques centimes, des services comme Amazon -Mechanical Turk leur permettent de demander à des myriades d’ouvriers du clic, souvent situées dans des pays en voie de développement, de trier ou d’améliorer photos, textes ou vidéos. Ces services recrutent des prestataires majoritairement précaires et peu rémunérés, remettant en question d’anciens acquis en termes de conditions de travail et d’appropriation de son produit. Ces nouvelles formes de digital labor s’imposent comme une -urgence pour le régulateur.

Pour corriger les distorsions et les abus provoqués par cette situation, la solution -consiste à élargir le domaine d’action des autorités de régulation des données comme la CNIL. Il s’agit non seulement de s’intéresser aux architectures techniques des plates-formes qui permettent l’extraction et la circulation des données personnelles, mais aussi de créer les conditions pour que le travail de production et d’enrichissement des données (autant de la part des services de microtravail que des usagers de plates-formes généralistes comme Instagram ou Google) reste respectueux des droits des personnes et du droit du travail. Le défi qui attend la CNIL est de devenir non pas un gardien de la propriété sur les données, mais un défenseur des droits des travailleurs de la donnée.

Antonio Casilli et Paola Tubaro

[Séminaire #ecnEHESS] Quels fondements épistémologiques pour le machine learning ? (Jean-Gabriel Ganascia, 12 févr. 2018, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Notre séminaire EHESS Etudier les cultures du numérique se poursuit par une intervention qui s’annonce tout à fait passionnante de Jean-Gabriel Ganascia (Université Pierre et Marie Curie). Son exposé portera sur les fondements épistémologiques—et les limitations—du machine learning. Spécialiste en intelligence artificielle et en modélisation cognitive, il est l’auteur de plusieurs ouvrages, parmi lesquels : Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? (Seuil, 2017), Voir et pouvoir : qui nous surveille ? (Le Pommier, 2009), Idées reçues sur l’intelligence artificielle (Editions Cavalier bleu, 2007).

Le séminaire aura lieu le lundi 12 février 2018, de 17 h à 20 h (EHESS, salle M. & D. Lombard, 96 bd Raspail 75006 Paris).

Titre : Epistémologie de l’apprentissage machine

Résumé : L’écho grandissant que reçoivent les big data et l’apprentissage profond (Deep Learning) depuis quelques années masque mal leurs limitations. Si ces techniques apportent et apporteront beaucoup dans un grand nombre de secteur, par exemple dans le domaine médical, pour aider à diagnostiquer des maladies, ou dans le champs social, pour faire de la prédiction et rationaliser certains choix, elles reposent sur l’induction, c’est-à-dire sur le raisonnement qui va du particulier au général. En conséquence, elles sont soumises aux limitations logiques de toute induction, que nous tâcherons de rappeler ici. De plus, comme nous le montrerons, ces techniques permettent de détecter des corrélations qui ne correspondent pas toutes à des relations de causalités, et qui s’avèrent parfois trompeuses. Enfin, nous verrons que l’emploi abusif de procédures de décision fondées sur l’apprentissage machine peut avoir des effets prédateurs sur la société, car loin d’être objectifs, les choix reposent sur des implicites qui peuvent éventuellement avoir des effets discriminatoires.

Pourquoi la vente de nos données personnelles (contre un plat de lentilles) est une très mauvaise idée

Jacob dit : ‘Vends-moi aujourd’hui tes données”.
“Voici”, s’exclama Esaü, “je m’en vais mourir de faim !
A quoi me servent ces données ?” (…) Alors Jacob donna
à Esaü du pain et du potage de lentilles. Il mangea et but,
puis se leva et s’en alla. C’est ainsi qu’Esaü méprisa le droit
de disposer des fruits de son travail numérique. (Génèse 25:31-34 ?)

The Economist (ou du moins le journaliste Ryan Avent qui a écrit l’article paru sous le titre “The digital proletariat” dans la première livraison de 2018 du magazine britannique) découvre avec une décennie de retard l’existence du digital labor, au hasard de la lecture d’un “fascinating new economics paper”.  Pour la petite histoire, le papier en question vient tout juste d’être publié sur ArXiv et s’intitule “Should we treat data as labor?”. Il s’agit d’un résumé en clé économiciste des études existantes dans le domaine, mais avec un twist très Jaron Lanier (qui est par ailleurs l’un des co-auteurs) : “les données sont le fruit du travail des usagers, sauf si ces derniers les revendent DE MANIERE TOUT A FAIT TRANSPARENTE ET EQUITABLE HEIN à des multinationales qui ne veulent que leur bonheur.”.

Et si cela résonne avec les propositions ultra-libérales de certains think tanks bien de chez nous, qui vous proposent de vendre vos données en échange du proverbial “plat de lentilles” (v. le récent rapport de Génération Libre), et bien… c’est parce que c’est la même chose. Sachez quand même que celle-ci est une position très minoritaire au sein des études sur le digital labor, qui revendiquent en général une approche plutôt “commoniste” des données. Comme je le disais ailleurs (2016), “il n’y a rien de plus collectif qu’une donnée personnelle”. Et, comme je le répète depuis 2015 :

“[La proposition de revendre les données issues du digital labor] pose d’abord un problème éthique: de fait, la commercialisation des données personnelles créerait un énième « marché répugnant », formule parfois utilisée pour définir les marchés (comme l’achat d’organes, ou les paris en bourse sur les attentats terroristes) qui sont problématiques et intrinsèquement imprudents. A-t-on le droit de vendre un bras ou un œil? Le fait de vendre les données pose le même type de difficultés car ce marché présupposerait un droit de propriété privée sur les données personnelles. C’est une dérive très dangereuse vers la « privatisation de la privacy », que j’ai dénoncée ailleurs. Ces considérations s’appliquent à plus forte raison au digital labor, qui produit de la valeur en s’appuyant sur un contexte collectif – les sociabilités ordinaires, le partage au sein de communautés d’utilisateurs. Quoique personnelles, ces données, ces productions digitales, ne sont pas du ressort de la propriété privée, mais le produit d’un commun, d’une collectivité. Par conséquent, la rémunération devrait chercher à redonner aux commons ce qui a été extrait des commons.”

La solution n’est pas, AMHA, une rémunération individuelle des données, sous forme de royalties ou de micro-paie. La rémunération à la pièce est déjà en vigueur sur les plateformes de micro-travail–et cela se solde par un nivellement par le bas des rémunérations de ceux qui y travaillent, surtout dans le cas des fermes à clic installées aux Philippines, au Madagascar, au Kenya, etc. Au vu des asymétries d’information et de pouvoir entre les grands oligopoles numériques et les usagers, cette situation est destinée à se reproduire dans les négociations avec les publics généralistes. Une contractualisation sur base individuelle de la valeur de la donnée n’entraînerait qu’une généralisation de la condition de sous-prolétaire numérique. Pour en sortir, j’ai à plusieurs reprises prôné un revenu universel numérique financé par des impôts sur les profits des plateformes. Dans une interview récente, je résumais ma position de la manière suivante :

“[A universal basic income would protect the digital labor workforce] by recognizing the data labor that flows through the platforms. This has already been argued by a report by the French Ministry of Finance in 2013, and in a report by the Rockefeller Foundation last year. The digital giants should not be taxed on the basis of how many data centers or offices they have in a country, but on the basis of the data produced by the users of the platforms. If there are 30 million Google users in Italy, it is fair to tax Google based on the profits they made from these users’ activities. In this way, one could fund a basic income, arising from the digital labor that each of us carries out on the internet or on the mobile apps we use.”

PS. Pour aller plus loin, n’hésitez pas à consulter ces quelques articles, ouvrages ou chapitres que j’ai publié entre 2013 et 2017 :

Reforme du News Feed : pourquoi pour Facebook le seul réel qui compte est celui façonné par ta grande-mère

                   “Je haïssais les foyers, les familles, tous lieux
                   où l’homme pense trouver un repos — et les
                   affections continues” ~ ~ ~ André Gide, 1897

Olivier Ertzscheid l’avait mentionné lors de son intervention dans le cadre de mon séminaire #ecnEHESS : Facebook abandonne progressivement son modèle WYSIWYG (What You See Is What You Get) au profit d’un modèle WYSIWYWTS (What You See Is What You Want To See). Faut ré-injecter du réel pardi ! Et le réel se manifeste sous forme de plus de poste de votre grande-mère. La nouvelle vient de tomber : Mark Zuckerberg veut nous donner davantage de “friends and family” et moins d’actualités et de contenu public. Bien sûr, il y a plein de conséquences pour les annonceurs (impact sur les budgets publicitaires et sur les mécanismes de viralité). Mais Facebook ne fait pas ça pour les marques, hein. Facebook fait ça pour vous, chers usagers lambda, parce que “research shows that strengthening our relationships improves our well-being and happiness”.

Now, le truc qui me laisse dubitatif est que tout cela semble être le résultat d’un petit putsch scientifique interne de Moira Burke, data scientist chez FB. Vous la connaissez probablement parce que elle a fait récemment le buzz grâce à ce petit communiqué (largement circulé par la presse conciliante). “Is Spending Time on Social Media Bad for Us?”, bien sûr que non (la question est si manichéenne qu’elle n’admet qu’une réponse négative, par ailleurs). Mais pour quelle raison l’usage de médias sociaux n’a pas d’effets négatifs ? Ou plutôt : sous quelles conditions ?

Réponse : il n’y a pas d’effets négatifs sur le bien-être si vous faites un usage actif de FB (“engagement”) pour échanger avec des “strong ties”. C’est bizarre comme cela ressemble aux théories du socio-psychologue Robert Kraut. Tiens, d’ailleurs il est interviewé par Moira Burke dans le même billet… Et — surprise — il y a deux ans, les deux ont aussi co-publié une étude qui dit exactement cela : “Talking online with friends is associated with improvements in well-being, while talking with strangers or simply reading about other people is not.”.
Ce n’est pas pour faire du gossip que je vous raconte tout cela, mais pour signaler que ces résultats ne sont que la version moderne du vieux “internet paradox” de Kraut : si tu passes trop de temps avec tes liens faibles tu délaisses tes liens forts. Et ça, c’est mal. C’était une vielle étude que Kraut avait publiée en 1998 et qui présentait ce que j’avais défini une “version hydraulique” des usages numériques : si tu consacres trop de temps aux interactions en ligne, tu perds le contact avec ta famille et tes proches. Une vision un tantinet simpliste de l’isolement social provoqué par la socialisation en ligne, basé sur des données limitées et une analyse faible. Kraut l’avait par ailleurs rétractée en 2002 dans le texte “Internet paradox revisited”).
 
(Tout cela, je l’avais déjà raconté dans mon ouvrage “Les liaisons numériques” (2010) et dans un petit texte “Bums, Bridges, and Primates” de l’année suivante, où je m’efforçais de résumer les résultats de Kraut et de passer en revue ceux qui me paraissent ses points faibles.)
 
Vingt ans après sa première étude, Kraut revient à l’attaque avec, grosso modo, le même argumentaire. Sauf qu’aujourd’hui il ne se concentre plus sur le clivage offline/online (devenu caduque), mais sur le celui “active engagement with strong ties/passive engagement with weak ties”.
 
Or, non seulement cette posture est tout aussi normative et “hydraulique” que celle de 1998, mais en plus elle-même repose sur des prémisses qui sont tout sauf neutres : que les liens forts soient meilleurs que les liens faibles et que l’engagement avec ces derniers soit toujours passif. Ceci fait l’impasse sur les éléments d'”exploration curieuse” (comme l’aurait dit Nicolas Auray) et marque un retour vers une “société de petites boîtes” (petites communautés étanches d’individus liés par des liens forts) que l’on croyait mise en crise par l’arrivée du “networked individualism” décrit par Barry Wellman.
 
Moralité : jusqu’à hier, nous pouvions *en ligne de principe* être présent sur FB et moduler nos sociabilités selon nos envies d’exploration curieuse. Après la récente intervention de la Sainte-Trinité Kraut/Burke/Zuckerberg, nos usages seront plus prescriptifs et surdéterminées.

 

M, le maudit chatbot (ou, de l’impossibilité de l’automation complète au lendemain de l’échec de l’assistant virtuel de Facebook)

L’année 2018 commence fort chez Zuckerberg. Facebook a décidé de mettre fin à l’expérience de son assistant virtuel, M. Par rapport aux autres chatbots sur le marché, M avait une particularité : il ne cachait pas la présence d’humains derrière les rideaux de l’automation, pour ainsi dire. Facebook allait jusqu’à intégrer cet attribut dans ses arguments de vente. M était présenté comme une intelligence artificielle « mue par des humains » (human powered).

Il s’agissait d’un logiciel qui envoyait des messages via l’application Messenger, initialement disponible pour un nombre limité d’usagers-testeurs (10 000 résidents de San Francisco) qui l’utilisaient surtout pour des opérations commerciales. La plupart des tâches réalisées par le chatbot nécessitaient de personnes pour assister, entraîner, vérifier ses réponses — et parfois se faire carrément passer pour M. D’où la suspicion que son nom ne soit pas un clin d’œil à l’assistant de James Bond, miss Moneypenny, mais une référence assez claire au “micro-travail”…

L’objectif de Facebook avec cet agent conversationnel était de développer une technologie d’intelligence artificielle capable d’automatiser presque n’importe quelle tâche (“Facebook put no bounds on what M could be asked to do“). C’est toujours la vieille promesse du machine learning : tu fais réaliser des tâches par des humains, puis “la machine” apprend et — bam ! tu te débarrasses des humains. Néanmoins, malgré les vastes ressources techniques de Facebook, le taux d’automation de M semble n’avoir jamais dépasse 30%. Presque trois quarts des tâches, donc, étaient effectuées par des petites mains payées à la pièce, entre San Francisco et Katmandou (si le bruit selon lequel elles étaient recrutées via le bureau népalais de la plateforme de micro-travail Cloudfactory était confirmé).

L’histoire de M contient une moralité pour toute entreprise qui développe ou achète des solutions de IA : quand on prend en compte le coût de the human in the loop, l’automation revient très chère. C’est à cause de l’importance de ces coûts (et de la médiocrité des résultats) que Facebook a définitivement décidé de discontinuer M en 2018.

L’autre leçon à retenir ici est que dans la mesure où l’objectif final de M était de préparer le développement de solutions IA qui auraient pu automatiser presque toutes les tâches que les usagers réalisent en ligne, l’automation complète s’avère être un fantasme de silconvallards. A chaque fois qu’on automatise une tâche, les êtres humains avec qui l’IA interagit en redemandent, et de plus en plus complexes. Comme Wired le souligne :

“Another challenge: When M could complete tasks, users asked for progressively harder tasks. A fully automated M would have to do things far beyond the capabilities of existing machine learning technology. Today’s best algorithms are a long way from being able to really understand all the nuances of natural language.”

Il faut alors recommencer et recommencer à concevoir-entraîner-tester-micro-travailler etc. Comme quoi, nous (autant les centaines de millions de tâcherons du clic sur les plateformes de micro-travail que les milliards de micro-tâcherons dissimulés que nous sommes sur les plateformes de médias sociaux) avons devant nous une longue carrière de dresseurs d’IA. Très longue. Interminable même, à en croire certains jeunes experts d’automation. Parmi eux, un nommé Ernest Mandel, lequel affirmait, dans un texte paru en… 1986 :

“Sous le capitalisme, l’automation complète, l’introduction de robots sur grande échelle sont impossibles car elles impliqueraient la disparition de l’économie de marché, de l’argent, du capital et des profits. (…) La variante la plus probable sous le capitalisme, c’est précisément la longue durée de la dépression actuelle, avec seulement le développement d’une automation partielle et d’une robotisation marginale, les deux étant accompagnées par une surcapacité de surproduction sur grande échelle (une surproduction de marchandises), un chômage sur grande échelle, une pression sur grande échelle pour extraire de plus en plus de plus-value d’un nombre de jours de travail et d’ouvriers productifs tendant à stagner et à décliner lentement. Cela équivaudrait à une augmentation de la pression à la surexploitation de la classe ouvrière (en faisant baisser les salaires réels et les prestations de Sécurité sociale), en affaiblissant ou détruisant le mouvement ouvrier organisé et en sapant les libertés démocratiques et les droits de l’homme.”

[Slides séminaire #ecnEHESS] Plateformes numériques : gouvernementalité algorithmique et libertés (Olivier Ertzscheid)

Dans le cadre du séminaire EHESS Étudier les cultures du numérique j’ai eu le plaisir d’accueillir Olivier Ertzscheid, maître de conférence à l’Université de Nantes, agitateur culturel inlassable sur son blog Affordance.info, auteur de plusieurs ouvrages sur l’identité numérique, l’e-réputation, la littérature connectée.

Celle du 8 janvier 2018 a été une séance très riche (et très peuplée), ayant comme point de départ le dernier livre d’Olivier Ertzscheid, L’appétit des géants, paru en 2017 chez C & F Éditions (full disclosure : j’ai eu l’honneur d’écrire la préface).

Voilà les slides de sa présentation :

Titre : L’appétit des géants: Pouvoir des algorithmes, ambitions des plateformes

Intervenant : Olivier Ertzscheid

Résumé : Les Etats-Unis viennent d’acter la fin du principe de neutralité du net ; certains des créateurs de Facebook traversent un syndrome de Frankenstein et parlent de leur créature comme d’un « monstre » ou « d’une merde » (sic) ; de plus en plus d’ingénieurs de la Silicon Valley traversent une crise éthique qui les amène à critiquer le rôle des technologies qu’ils ont eux-mêmes construits. C’est aujourd’hui que la question posée depuis plus de 10 ans par Tim Berners Lee apparaît comme absolument cruciale d’un point de vue sociétal, économique mais aussi politique : quel est le rôle joué par les « jardins fermés » et les plateformes dans la normalisation d’usages de plus en plus contraints, aliénants et à rebours de la philosophie initiale du projet web ? Autour de l’ouvrage « L’appétit des géants », et au travers de quelques exemples touchant notamment aux questions de gouvernementalité algorithmique et de libertés numériques, nous nous interrogerons sur ce que les nouvelles formes de calcul et de computation à l’œuvre dans ces plateformes sont en capacité de produire ou d’induire comme nouvelles formes de compréhension du monde. Et peut-être (et cela semble inédit à l’échelle de l’épistémologie des sciences) de quelles formes de compréhension du monde ces nouvelles formes de calcul peuvent également nous priver.