admin

Ailleurs dans les médias (août-oct. 2017)

» (11 oct. 2017) Lavori (futuri) 
in corso, ManagerItalia

» (8 oct. 2017) Les adolescents face au diktat de la maigreur, Le Monde

» (8 oct. 2017) Oltre la crisi tra neotaylorismo e prosperità condivisa, Il Sole 24 Ore

» (5 oct. 2017) L’IA à la recherche de règles éthiques, InternetActu

» (5 oct. 2017) S’il te plaît, dessine-moi une plateforme numérique, 15 marches

» (4 oct. 2017) Schiavi per bisogno e schiavi per mania: tutti al servizio del web, Radici Future

» (2 oct. 2017) FB, WhatsApp, Tinder… Comment la technologie a bouleversé nos relations amoureuses, Neon Mag

» (26 sept. 2017) Olivier Ertzscheid : « l’homme est un document comme les autres », Mais Où Va Le Web

» (19 sept. 2017) La macchina incorpora conoscenza collettiva, QuinternaLab

» (18 sept. 2017) Décryptage : quand la publicité ne parvient pas à changer Uber, Medium

» (13 sept. 2017) Σάλος στις ΗΠΑ: Ερευνητές του Στάνφορντ «διαβάζουν» την ομοφυλοφιλία στο πρόσωπο, I Efemerida

» (13 sept. 2017) Prestidigitalisation : de la technologie à la technomagie, Affordance Info

» (13 sept. 2017) Redes sociales, tantos «amigos» como sea posible, La Croix en español

» (12 sept. 2017)  Plaidoyer pour une société des communs, Salle n°6

» (12 sept. 2017) Quand la technologie traque l’homosexualité, Le Devoir

» (12 sept. 2017) Polémique sur une étude affirmant qu’un programme peut repérer l’homosexualité sur le visage, Le Monde

» (11 sept. 2017) Quand une intelligence artificielle est instrumentalisée pour cibler et essentialiser les gays, Libération

» (11 sept. 2017) Le «gaydar» ou quand la technologie traque l’homosexualité, Le Temps

» (11 sept. 2017) Une intelligence artificielle révèle les préjugés anti-LGBT des chercheurs de Stanford, Usbek&Rica

» (7 sept. 2017) Ma esattamente, cosa intendi per “lavoro”?, podcast Civiltà Digitali.

» (6 sept. 2017) Le salariat n’est pas mort, il bouge encore (3/4) Du sens au travail, France Culture.

» (11 août 2017) Sexe High-Tech : de la VR et des sextoys connectés pour supplanter les relations charnelles ?, CNet.

» (6 août 2017) L’anorexie mentale, plus discrète, mais toujours là, Le Temps.

» (1 août 2017) Les Ateliers de Couthures : industrialisation des fake news et post-vérité, RTBF.be.

‪Pourquoi rémunérer les usagers des plateformes numériques est une mauvaise idée (blockchain edition)‬

Après cet article de Wired au sujet de Steemit, certains avaient salué une avancée dans la direction de la rémunération du digital labor.
Vous connaissez peut-être ma position : les micro-paiements des usagers ne sont pas une solution aux tensions socio-économiques que le travail des plateformes attise. Au contraire, ils sont part du problème, dans le mesure où ils contribuent à la prolétarisation des usagers – et atomisent davantage un acte de production de valeur qui, sur les plateformes plus qu’ailleurs, est un acte éminemment social.

Ceci dit, Steemit représente une excellente démonstration de pourquoi micro-rémunérér les usagers est une mauvaise idée.

Steemit est une plateforme sociale (un Reddit-like) qui paie ses usagers en monnaie cryptée (appelée “Steem”) pour chaque post ou partage. Rien d’original jusque là. TSU avait déjà tenté cette expérience et plusieurs applications (comme par ex. Bitwalking) proposent des rémunérations en bitcoin pour le simple fait d’utiliser leur service. Sur Steem, les posts les plus partagés remontent dans le classement. Surtout, ils affichent le montant gagné par leur auteur. L'”engagement”, aussi, est recompensé : les usagers peuvent gagner des Steems en likant ou en partageant des contenus.

Sympa, non ? A un détail près : des Steems sont créés chaque jour. Dont il s’avère que le Steem est une *monnaie fondante* (c-à-d, qui se déprécie chaque jour). Ce qui crée des incitations économiques pour les usagers à l’investir en obligations (appelées “Steem Power”, qui l’immobilisent pendant 2 ans) ou à la garder sur la plateforme (sous forme de “Steem Dollars” qui peuvent être donnés à d’autres membres par ex).

Si elle reste sur la plateforme, la monnaie donne des dividendes (ou “salaires”?) plus importants quand vous postez ou likez un contenu :

“by holding Steem Power you are given some of the Steem that are created each second as more Steem Power.

90% of the new Steem goes to anyone holding Steem Power.
10% of the new Steem goes to anyone voting on a post or contributing.

When you vote for a post, the more Steem Power you have, the more you are rewarded by the creation of new steem.

For example, if you see a post with an estimate of $1000:

$500 is being paid to the curators
$250 is being paid to the author
$250 is being paid to the parent/grandparent post if there is one, otherwise it goes to the author” (Source)

Aujourd’hui, Steemit fait état de 350k usagers, dont 50k actifs. Ces derniers auraient “gagné” l’équivalent de $30 millions de Steem sur 18 mois. Ce qui peut paraître impressionnant, mais en fait c’est $33/mois en moyenne. Btw, $33 que vous ne pouvez pas échanger (ils sont thésaurisés sur la plateforme sous forme de “Steem Dollars” ou de “Steem Power”).

Bref on peut être d’accord avec les concepteurs de Steemit, quand, dans leurs FAQ, ils admettent candidement: “At its root, Steem is simply a points system”. Oui, des points. Qui ne sont pas conçus pour rémunérer le digital labor des usagers, mais bien pour attirer des investisseurs/annonceurs, qui, pour se faire de la pub ou développer des services sur la plateforme, doivent acquérir des Steems (avec les effets d’inflation et
de “bad money drives out good” que l’on connait).

Je souligne un élément important : les investisseurs/annonceurs pourront payer en Steem pour avoir leur contenu mis en avant. Cela sent la Facebook Fraud et la ferme à clic non ? C’est le CEO Ned Scott qui l’explique dans cette vidéo (vers 6’30″) : “Steemit fait ouvertement ce que FB fait en coulisses” :

Moralité : quand vous voyez la valeur en $ affichée sous chaque post de Steemit, ce montant ne vaut pas plus que le nombre de likes sur FB. Puis-je payer mon loyer avec mes likes sur FB? Non. Voilà. Sur Steemit, non plus. De surcroit, la plateforme a un intérêt déclaré à créer de la “fausse viralité” des contenus, en créant une économie parallèle faite de transactions pour fausser les score de réputation et d’engagement. Les likes sur FB sont-ils tous “organiques”? Non. Voilà. Sur Steemit, non plus.

De quoi une plateforme (numérique) est-elle le nom ?

Est-ce que le mot “plateforme” est adapté pour décrire ce qui se passe dans l’économie numérique des dernières années ?

Point de départ : les travaux de Tarleton Gillespie, qui s’est penché (avant et mieux que d’autres) sur l’utilisation de la notion de plateforme pour qualifier les services contemporains d’appariement algorithmique d’informations, relations, biens et services.

Sa théorie peut être ainsi résumée : le mot plateforme est avant tout une métaphore qui désigne une structure technique, voire une “architecture” (c’est par ailleurs de ce dernier domaine que l’emprunt linguistique s’est fait). Le choix de ce terme pour désigner une entité technologique relève d’une volonté de concepteurs, innovateurs et investisseurs de se présenter comme des simples intermédiaires, et non pas comme des moteurs d’interaction sociale et de décision stratégique dans le domaine économique. La plateforme n’est qu’une charpente, sur laquelle d’autres (usagers, entreprises, institutions) construisent. (← c’est toujours Gillespie qui résume les arguments des proprios des plateformes, hein…).

Dans un texte de 2017, il met en avant trois raisons pour lesquelles cette notion se prête à des instrumentalisations particulièrement lourdes de conséquences d’un point de vue politique.

1) La prétendue horizontalité des plateformes numériques dissimule des structures hiérarchiques et les liens de subordination qui persistent malgré la rhétorique des “flat organizations” ;
2) L’insistance sur une structure abstraite cache la pluralité d’acteurs et la diversité/conflictualité des intérêts des différentes communautés d’utilisateurs. La responsabilité sociale des plateformes, leur “empreinte” sur les sociétés semble ainsi être effacée ;
3) (point #digitallabor) en se présentant comme des mécanismes *précis* et *autonomes*, les plateformes servent à occulter la quantité de travail nécessaire à leur fonctionnement et à leur entretien.

De manière presque paradoxale, la réquisitoire de Gillespie contre le mot plateforme représente un plaidoyer pour le maintien du terme—pourvu qu’on s’entende sur sa signification et sa généalogie. Publié en 2010, un autre de ses textes esquissait une étymologie du terme.

Plateforme comme :
1) fondations d’un bâtiment
2) structure sur-élevée d’une fortification militaire
3) podium où un orateur prononce un discours
4) par métonymie, le discours même–ou son agenda politique
5) Gillespie mentionne aussi une autre valence, de nature religieuse et politique, du terme plateforme. Aux Etat-Unis, cette dernière s’est déployée entre 1648, année de rédaction de la “Cambridge Platform” des premiers groupes de colons britanniques, et la moitié du XIXe siècle, époque à laquelle sont attestées les premières utilisations du mot au sens de programme politique d’un parti étasunien.

A mon avis, cette deuxième généalogie a davantage de poids : une plateforme est une entité politique, et non pas une simple métaphore–elle illustre les dimensions collectives et la nature consensuelle des négociations qui ont lieu dans son périmètre. Pour saisir cet aspect il faut regarder l’histoire européenne, où s’est opéré ce transfert du mot plateforme du contexte des arts appliqués à celui de l’idéologie religieuse et politique.

Le terme anglais “platform” (si nous laissons pour l’instant de côté ses origines latines) est une importation directe du français du moyen âge (“platte fourme”). Certes, le Online Etymology Dictionary atteste de cette utilisation à partir du XVIe siècle (“1540s, ‘plan of action, scheme, design'” [sources non précisées]). D’autres usages sont attestés. Par ex., dans la traduction anglaise de 1582 du De Proprietatibus Rerum de Bartholomaeus Anglicus (1240), “platform” est un terme géologique qui indique la Terre en tant que “soutien” des créatures – ou le monde comme modèle idéal de la création (“archetypus” dans l’original latin).

Quelques décennies plus tard, Sir Francis Bacon écrit son An Advertisement Touching a Holy War (1622), où il emploie le terme pour indiquer un repère pour développer son “mélange des considérations civiles et religieuses” (“mix’d of Religious and Civil considerations”). Le glissement sémantique vient de commencer. C’est à l’occasion de la Grande Rébellion anglaise de 1642-1660 que “platform” s’impose comme une conception politique et religieuse très particulière et comme un outil concret, dont l’usage n’est pas exclusivement métaphorique.

C’est là que la transition de simple métaphore à notion de théologie religieuse à part entière s’achève. Bien évidemment, il y a la Cambridge Platform de 1648 (document des églises congrégationalistes puritaines du New England cité supra 👆 ). Un autre document de ce type est la Savoy Declaration (1658) qui propose “a platform of Discipline” : articles de foi et règles de gouvernance des congrégations. Ces règles régissent les questions religieuses et imposent des pratiques (“Models & Platforms of [a given] subject”).

Mais le premier usage éminemment politique du terme pour signifier une vision de la société et le rôle des êtres humains vis-à-vis des autorités et d’eux-mêmes, est principalement développé par Gerrard Winstanley, le fondateur du mouvement des Bêcheux (les “Diggers”). Nous sommes en 1652, sous le protectorat d’Oliver Cromwell. Gerrard Winstanley écrit un texte fondateur de son mouvement proto-communiste : l’essai The Law of Freedom in a Platform [Bien évidemment “proto-communiste” comme on pouvait l’être en ce siècle : des appels à l’autorité divine et de la spiritualité à fond la caisse… En même temps, c’est là que le terme “platform” s’affranchit de son origine religieuse.]

Le texte de Winstanley pose quelques principes de base d’un programme politique (la plateforme proprement dite) adapté à une société d’individus libres :
– mise en commun des ressources productives,
– abolition de la propriété privée,
– abolition du travail salarié.

Le terme désigne désormais un pacte (“covenant”) entre une pluralité d’acteurs politiques qui négocient de manière collective l’accès à un ensemble de ressources et de prérogatives communes.

Cette nouvelle signification n’échappe pas à un commentateur contemporain, sir Winston Churchill (pas celui du “sang et des larmes” de 1940, mais celui qui publia en 1660 le Divi Britannici: Being a Remark Upon the Lives of all the Kings of this Isle). Il écrit, à propos de Charles II, que les révolutionnaires qui les mirent à mort étaient comme animés par l’intention de “erect a new Model of Polity by Commons only”). Pour ce faire, ils “set up a new Platform, that they call’d The Agreement of The People” (p. 356). La convention entre entités religieuses était désormais devenue un accord entre entités politiques.

Via les écrits Winstanley ou de Churchill, il est possible d’identifier une généalogie alternative à celle proposée par Gillespie—une généalogie plus précisément politique, ainsi qu’un autre usage du terme, qui cesse d’être une simple métaphore pour devenir un levier d’action. Au vu de ceci, la reprise capitaliste (par les plateformes numériques privées) et régalienne (par l’Etat-plateforme) de cette notion au début du XXIe siècle, est moins une imitation métaphorique qu’une récupération et un détournement de ces principes.

Les principes détournés :
1) la mise en commun (la “polity by Commons” de Churchill) se transforme en “partage” sur les plateformes de la soi-disant sharing economy ;
Les principes détournés :
2) l’abolition du travail salarié (la critique de Winstanley de la servitude par le “work in hard drudgery for day wages”) se transforme en précarisation de l’emploi et en glorification du “freelance” dans les plateformes d’intermédiation du travail ;
3) l’abolition de la propriété privée (le communisme agraire des diggers) se transforme en “ouverture” de certaines ressources productives (telles les données) dans les programmes de l’Etat-plateforme.

Bref, l’expression plateforme n’est pas une simple métaphore, mais une dégradation/évolution d’un concept du XVIIe siècle. En tant que telle, elle reste porteuse d’implications et prescriptions politiques implicites qu’il serait nuisible d’égarer—si on abandonnait la notion.

Micro-lavoratori di tutto il mondo… (Rassegna Sindacale, Italia, 17 sett. 2017)

Riassunto della mia lectio magistralis alle Giornate del Lavoro della CGIL. Qui il video del mio intervento.

 

 

[Video] Micro-lavoratori, sindacati e intelligenze artificiali (17 sett. 2017)

Il 17 settembre 2017, ho presentato una lectio magistralis nel contesto delle Giornate del Lavoro della CGIL (Lecce, Italia).  Il ruolo dei lavoratori nella creazione delle intelligenze artificiali, le trasformazioni del sindacato e gli equilibri economici globali sono stati discussi in presenza di un nutrito pubblico di delegati sindacali e di cittadini del capoluogo salentino. Il tutto è stato seguito e commentato in diretta dalla radio Articolo 1, che ha prodotto un podcast.

(La lectio comincia a 12’55”)

Une intelligence artificielle révèle les préjugés anti-LGBT (et anti-plein d’autres gens) des chercheurs de Stanford

 

Et bien, lisez le papier original sur PsyArXiv.

L’ETUDE
Dès les premières lignes de l’étude (avec un lignage revendiqué de la physiognomonie et de Cesare Lombroso) jusqu’aux derniers paragraphes (“la fin de la vie privée est inévitable est c’est la faute aux usagers qui s’affichent tout le temps sur les réseaux”), en passant par l’explication du fonctionnement de l’IA par un lien ténu avec l’hypothèse—qualifiée ici de théorie—des “prenatal hormones”, on a vite épuisé son stock de médicaments antireflux.
 
Sans parler des biais méthodologiques : les auteurs testent un réseau de neurones contre des humains. Leur mission ? Regarder des photos de visages et dire si la personne représentée est gay ou hétéro. Mais les photos sont tirées d’un site de rencontre en ligne et la base de profils de personnes gays sur laquelle le réseau de neurones s’entraîne est collectée à partir d’usagers de Facebook qui ont liké des pages “gay”. Parce qu’évidemment la manière de se présenter sur les plateformes sociales est une réalité objective…  Et la complexité des motivations qui poussent une personne à aimer un contenu se réduisent à une adhésion univoque à la prétendue orientation dudit contenu…
 
Autre biais méthodologique : d’où viennent les évaluateurs humains vis-à-vis desquels cette IA s’avère plus performante ? Ils sont des micro-travailleurs d’Amazon Mechanical Turk payés quelques centimes de dollar par clic 1. Mais pas des micro-travailleurs au hasard. Que des citoyens étasuniens. Les américains, c’est connu, sont exactement comme tous les autres citoyens de n’importe quelle autre nation de notre grande et belle planète, quand il s’agit d’interpréter des indices sociaux et des repères de comportements. Et les particularités culturelles à l’œuvre dans la stigmatisation sexuelle ou dans l’étiquetage social de l’orientation sexuelle, on s’en fout.
 
 
De toute façon, il y a plus grave que ça. L’article est basé sur une vision absolument binaire, essentialiste et exclusive des orientations sexuelles humaines : t’es gay/lesbienne ou tu ne l’es pas. Le type de vision on ne peut plus hétéronormative, qui n’admet pas de situations intermédiaires  ou de négociations légèrement plus sophistiquées de l’identité sexuelle, des comportements et des formes d’appartenance aux communautés LGBTQ.
Qui plus est, de manière assumée les résultats de l’étude ne concernent que des images de personnes blanches. Mais c’est pas grave, hein. Ce n’est pas comme si les systèmes de reconnaissance faciale étaient au centre d’une polémique internationale à cause de leurs biais racistes et de leur difficulté avérée à tenir les mêmes niveaux de performance quand le visage analysé n’est pas 100% “caucasien”…
 
L’AUTEUR MICHAL KOSINSKI
 
Derrière tout ça, une question cruciale se pose : pourquoi construire une IA pour détecter l’orientation sexuelle d’inconnus ? “Parce que”, comme le suggère l’experte en open data Ellen Broad, “cela vous dérange que les personnes gay puissent vous ressembler” ?

Mais non, ce n’est pas ça, se justifient les auteurs. Leur argument de base est “qu’ils ont construit une intelligence artificielle qui détecte les personnes homosexuelles parce que certains gouvernements persécutent les homosexuels et alors ils ont voulu alerter l’opinion publique qui ignore que c’est facile de persécuter les homosexuels, et pour ce faire ils ont concocté un outil pour les persécuter, mais ils l’ont fait justement pour qu’ils ne soient pas persécutés”.
 
C’est clair, non ?
 
Les doutes s’installent quand on réalise que l’un des deux auteurs, Michal Kosinski, ça fait un moment qu’il pratique ce petit numéro de l’apprenti sorcier qui fait un truc “juste pour voir”, et après ce n’est pas sa faute si ça part en sucette. Considérez par exemple le rôle qu’il a joué dans l’élection de Trump et dans le Brexit (quand son outil de profilage des usagers de Facebook a été repris par Cambridge Analytica—et le reste est de l’histoire).
 
LA NOTE (INCRIMINANTE) DES AUTEURS
 
De toute manière, ni l’article ni la réputation de l’un des auteurs ne suffisent pour conclure que l’étude est motivée par des convictions anti-LGBTQ ou par des formes plus ou moins latentes d’intolérance ethnique, sexuelle, etc.
 
Pour arriver à cette conclusion, il faut lire un autre document que les auteurs ont publié au vu du tollé que leur article a provoqué. Dans cette note, ils répondent à leurs critiques, et par la même occasion nous donnent un éclairage sur les a priori racistes et sexistes sous-jacents à leur démarche.

On commence par ce joli stéréotype masculiniste de base : “plus une femme est extravertie, plus elle est attrayante”.

> […] Character can influence one’s facial appearance.
> For example, women that scored high on extroversion
> early in life tend to become more attractive with age.
> Second, facial appearance can alter one’s character.

On poursuit avec une apologie de la physiognomonie, parce que, vous savez, la science ne progresse que quand cela convient aux visions obscurantistes des scientifiques.

> However, the fact that physiognomists were wrong
> about many things does not automatically invalidate
> all of their claims. The same studies that prove that
> people cannot accurately do what physiognomists
> claimed was possible consistently show that they were,
> nevertheless, better than chance.
>
> Thus, physiognomists’ main claim—that the character
> is to some extent displayed on one’s face—seems to be
> correct (while being rather upsetting).

A ne pas rater, l’argument classique de l’homophobe : “mais moi j’ai des amis gay!” — lesquels, évidemment, sont toujours bien coiffés et avec des talents de photographes.

> We could be easily convinced that gay men (our gay
> male friends for sure!) have better hairstyles and facial
> hairstyles, and take better pictures.

Mais les auteurs sont vénères pour le shitstorm au centre duquel ils se trouvent. C’est pourquoi il dédient à leurs critiques ce joli mix d’argumentum ad verecundiam et d’interdiction de prise de parole s’ils/elles n’ont pas une formation en machine learning et en psychologie…

> If you are an expert in human sexuality and AI and,
> after carefully reading the paper, have decided that
> this research is rubbish, then please tell us – we would
> be delighted to know. In such case, however, it’s results
> are invalid and do not put anyone at risk.

…avec bonus de paternalisme passif-agressif (“après, si tu veux te ridiculiser en nous critiquant, vas-y, on ne va pas t’en empêcher”).

> If you are not an expert in human sexuality and AI,
> and thus cannot judge the quality of the research
> without making a fool of yourself, but believe that
> this research puts gay people at risk then please

Êtes-vous prêt pour le grand finale ? Pourquoi s’emmerder à réfuter les accusations de biais ethnique, quand on peut tout simplement rejeter tout ça sur les participants non-blancs : “l’étude est limitée à des participants blancs parce que les non-blancs sont proportionnellement plus homophobes et ne se laissent pas recruter à cause de leur préjugés”.

> Despite our attempts to obtain a more diverse sample,
> we were limited to studying white participants from the
> U.S. As the prejudice against gay people and the adoption
> of online dating websites is unevenly distributed across
> groups characterized by different ethnicities, we could not
> find sufficient numbers of non-white gay participants.

Et le pompon de la pomponnette : The Universalization of Whiteness ! “Même si l’IA ne marche que pour les blancs, les résultats sont tout de même généralisables à tout le monde parce que ce qui est valable pour les blancs américains vaut automatiquement pour les groupes de population de cultures ou d’origines ethniques différentes.”

> Unfortunately, however, our results are likely to generalize
> beyond the population studied here. The same of similar
> biological, developmental and cultural factors that are
> responsible for differences between gay and straight
> individuals, are likely to affect people of other races as well.

[ADDENDUM 11 sept. 2017] Un twitto apporte cette intéressante information  :
Faception est une startup qui commercialise des solutions de reconnaissance faciale. Parmi ses clients, les agences de sécurité de plusieurs pays (des Etats-Unis et d’autres, mais la liste n’est pas divulguée) et les agences spécialisées dans le recrutement (par ex. Manpower). A vous de voir dans quelle mesure le fait d’être identifié.e en tant que gay ou lesbienne pourrait jouer contre vous, dans ces contextes spécifiques. Un article de 2016 semble suggérer que la recherche sur reconnaissance faciale et orientation sexuelle récemment publiée par le chercheur de Stanford a un lien direct avec l’activité de cette entreprise.
  1. Oui, bien sûr, Amazon Mechanical Turk. Parce que si vous suivez mes travaux, vous devez désormais être au courant du fait qu’il n’y a pas d’intelligence artificielle : ce n’est que du digital labor invisibilisé…

Dans Le Monde (02 sept. 2017)

Non, Google ne dit pas tout de nous

Nos requêtes sur le moteur de recherche révèleraient nos secrets les mieux cachés, écrit un économiste américain. Pas si sûr, répondent des sociologues, qui mettent en garde contre un « fantasme de vérité ».

LE MONDE | | Par Luc Vinogradoff

Sur Internet, tout le monde ment, ne serait-ce que par omission. Mécanisme bien connu des sociologues et des sondeurs, le « biais de désirabilité sociale » pousse chacun à se montrer sous son meilleur jour, et donc à mentir.

« Sérum de vérité numérique »

Pourtant, selon l’économiste américain Seth Stephens-Davidowitz, il existe un espace où chacun de nous se montre honnête : la fenêtre des recherches Google dans laquelle l’humanité envoie 40 000 requêtes par seconde. « Les gens ont tendance à révéler à Google des choses qu’ils ne diraient jamais sur les réseaux, ni à quiconque dans la vraie vie » , assure l’auteur de Everybody Lies. Big Data, New Data, and What the Internet Can Tell Us About Who We Really Are (Dey Street Books, 358 p., non traduit).

Selon l’ouvrage, Google agit comme un « sérum de vérité numérique » , une page blanche à laquelle nous pouvons « révéler nos craintes les plus profondes, nos secrets, nos questions embarrassantes ». Sous couvert d’anonymat, l’utilisateur confie au moteur de recherche, au travers de ses requêtes, ce qu’il ne dirait jamais en public : discriminations enfouies, préjugés cachés, préférences sexuelles inavouées. Pour M. Stephens-Davidowitz, il s’agit là de « la plus importante base de données jamais collectée sur la psyché humaine ».

Voir en Google un « sérum de vérité », et prendre pour argent comptant toutes ces données, s’avère pourtant une approche sinon simpliste, du moins faillible. Antonio Casilli, sociologue spécialisé dans les cultures numériques, met en garde contre ce qu’il appelle un « fantasme de vérité » . Ces informations ne révèlent pas une vérité cachée sur les utilisateurs, explique-t-il, parce que « la vérité ne réside pas forcément dans ce que les gens disent, ou dans ce que l’on en extrait » . Ce qui déclenche une recherche Google est bien plus composite.

Ce que l’on cherche et ce que l’on fait

« C’est le discours actuel des promoteurs du big data, abonde Dominique Cardon, professeur au Médialab de Sciences Po. Mais il ne faut pas faire confiance à ce que les gens recherchent, il faut regarder ce qu’ils font. » Ainsi, ce n’est pas parce que quelqu’un cherche le nom d’un candidat sur Google qu’il votera pour lui, ou parce qu’il lance une requête sur une pratique sexuelle qu’il l’exerce. Dominique Cardon considère que les données des requêtes Google font certes émerger un « signal » , mais il est impossible d’en mesurer « la fréquence et la force ». Un chercheur qui se pencherait sur ce matériau peinerait à en tirer une interprétation fiable. « Ce serait compliqué », souligne Dominique Cardon, car il faudrait « comparer les requêtes à la réalité du comportement » .

C’est le danger de s’appuyer uniquement sur le déclaratif . Ce que disent les individus, même quand ils pensent exprimer la vérité, ajoute Antonio Casilli, « doit être traité avec beaucoup de finesse » pour en tirer un enseignement. « Seules des méthodes complexes et croisées permettraient d’extraire de ces données des analyses valables. » Or, pour comprendre et exploiter ces masses d’informations, il faut aussi savoir qui les récolte et pourquoi. La multinationale qui les possède et les utilise pour vendre de la publicité ne consacrera ni temps ni budget à des recherches qui ne lui rapporteraient rien.

L’idée que les serveurs de Google recèlent un trésor d’information pure et inexploitée doit être « abordée avec précaution et méfiance » , conclut le chercheur. Cette confiance en un « sérum de vérité » lui rappelle un autre « grand fantasme des scientifiques sociaux américains du XXe siècle » : le « polygraphe », ou détecteur de mensonge, ce système de mesure des réactions physiologiques censé révéler si une personne dit ou non la vérité, dont la communauté scientifique est revenue.

Il lavoro spezzato (Fondazione Giangiacomo Feltrinelli, 26 juin 2017)

A l’occasion de mon intervention lors du Jobless Society Forum de Milan (30 mai 2017), la chercheuse Valentina Colombi a produit ce texte qui développe les sujets traités dans ma présentation. Le texte (en italien) est accompagné par deux courts extraits d’une vidéo interview que j’ai accordée en marge de la conférence.

Il lavoro spezzato.
Micro-lavoro e pluriattività dall’età industriale all’era digitale
 L’automazione del lavoro nell’era del click

L’integrazione tra lavoro umano e lavoro meccanico ha avviato, dalla prima rivoluzione industriale in poi, una serie di trasformazioni ben più complesse della semplice profezia della “grande sostituzione” degli esseri umani per mano dei processi automatici.

Con buona pace di tutte le teorie millenaristiche e fantascientifiche sulla fine del lavoro umano nell’era delle macchine, l’automazione non coincide – neanche ora, in tempi di dispositivi sempre più intelligenti – con una completa autonomia del lavoro meccanico da quello dell’uomo.  Certo, per tener dietro a un progresso sempre più incalzante, l’uomo ha dovuto procurarsi un grado crescente di alfabetizzazione tecnologica. Ma sinora, anche il lavoro dei macchinari più raffinati ha avuto e ha ancora bisogno di interventi “qualitativi” che non possono essere svolti meccanicamente. E così, il “fattore umano” ha difeso e per certi versi addirittura valorizzato il suo spazio nel lavoro industriale.

L’altra faccia della medaglia è che tutti i processi che sono man mano rimasti fuori da questo ambito di “responsabilizzazione tecnologica” si sono trasformati in lavori marginali, “micro-lavori” nel senso proprio della loro riduzione a un gesto, a un segmento produttivo minimo, talmente insignificante da non poter dar luogo a una pur minima cultura del lavoro.

Su attività così dequalificate non è possibile costruirsi un’identità lavorativa. Esse diventano tipiche di fasi precarie della vita produttiva, di soggetti che entrano ed escono dal mercato del lavoro o che per restare nel mercato del lavoro devono adattarsi a uno scenario frammentato, a cambiare continuamente attività o a svolgere più attività contemporaneamente.

La rivoluzione digitale non ha fatto altro che adattare a questo quadro i lavori legati alle nuove tecnologie. Anzi, l’automazione sempre più raffinata, l’intelligenza artificiale e la smaterializzazione produttiva – ciò che si produce sono dati e non più beni materiali – hanno, se possibile, banalizzato ulteriormente la mansione minima passibile di diventare “lavoro”. Il sociologo Antonio Casilli (Télécom ParisTech) parla – a proposito di questa parcellizzazione del processo produttivo portata agli estremi – di taskification e addirittura di clickizzazione del lavoro, un processo sta condizionando ogni ambito produttivo e professionale che comporti un’interazione con le piattaforme digitali.

Antonio Casilli: Uomini e macchine dalla fabbrica al click

I micro-lavori del click sfuggono alle tradizionali forme di tutela del lavoro, creando situazioni di sfruttamento che la normativa e gli organismi di rappresentanza sindacale faticano a inquadrare e dunque a contrastare. Non solo: oggi lavorare ai margini significa anche che le mansioni più riduttive e spersonalizzanti sono affidate a lavoratori che operano nei distretti periferici dell’economia globale, dove diritti e tutele del lavoro hanno ancora molta strada da fare. Per questo la politica – nota ancora Casilli – non può che trovare risposte sul piano internazionale.

Antonio Casilli: Frammentazione del lavoro: come interviene la politica?

 

La simbiosi-uomo macchina nel sistema di fabbrica

Questa estrema marginalizzazione del lavoro umano nel sistema meccanico è un fatto per certi versi connaturato al sistema stesso. Fin dagli albori dell’età industriale, l’automazione ha comportato anche una scomposizione del processo produttivo in fasi, le quali non sono più legate alle abilità umane – e dunque a un “mestiere” che su quel dato processo produttivo costruisce una vera e propria cultura di gesti e di saperi –, ma dipendono invece dalla possibilità di sviluppare un macchinario in grado di svolgere quell’attività. Il lavoratore viene posto ai margini del processo creativo che fino ad allora aveva caratterizzato ogni genere di produzione: non è più responsabile della bontà o meno del risultato, nemmeno di una parte di esso.

Lo notava già, con toni entusiastici, il chimico e divulgatore Andrew Ure nel 1835, autore di un trattato sul sistema manifatturiero che in quella prima metà del XIX secolo stava ormai rivoluzionando l’economia del mondo.

Il principio del sistema di fabbrica è quello di sostituire la scienza meccanica all’abilità manuale e di ripartire il processo nei suoi elementi costituivi, al fine di suddividere o di impostare per gradi il lavoro tra gli artigiani. […] Nel modello dell’automazione, il lavoro specializzato viene progressivamente superato e alla fine rimpiazzato dalla presenza di meri controllori del lavoro meccanico. A causa dell’imperfezione della natura umana, succede che più il lavoratore è abile, più esso è incline a diventare ambizioso e indocile, e meno si dimostra in grado adeguarsi a rappresentare un componente di un sistema meccanico, all’interno del quale, in conseguenza di irregolarità occasionali, egli rischia di arrecare un grave danno all’intero processo. Pertanto, il grande obiettivo del moderno imprenditore manifatturiero è – unendo capitale e progresso scientifico – quello di ridurre le mansioni dei suoi lavoranti all’esercizio della vigilanza e della destrezza; facoltà che, se concentrate in un unico processo, possono essere rapidamente sviluppate a perfezione in un giovane. […]

Andrew Ure, The philosophy of manifacturing, London 1835 (dal patrimonio Fondazione G. Feltrinelli)

 

Telai meccanici nella fabbrica di Stockport, 1835, immagine tratta dal patrimonio di Fondazione Giangiacomo Feltrinelli

L’uomo è al servizio della macchina e nel migliore dei casi può esercitare su di essa un’attività di controllo che richiede qualche conoscenza e una certa esperienza (l’alfabetizzazione tecnologica di cui si diceva); nel peggiore, deve solo essere in grado di integrare il suo lavoro con quello della macchina, adeguarsi alla sua velocità e precisione, con una buona dose di “atleticità” ma senza che siano necessari speciali saperi e apprendistati. Scrive ancora Ure:

Mr. Anthony Strutt, responsabile del dipartimento macchine delle grandi fabbriche cotoniere di Belper e Milford, ha preso tali distanze dalla tradizionale consuetudine scolastica da rifiutarsi di assumere uomini che hanno imparato il mestiere in un regolare apprendistato. Invece, a spregio – per così dire – del principio della divisione del lavoro, ha messo un contadinello a far ruotare un albero che pesa probabilmente parecchie tonnellate; e non ha mai motivo di pentirsi di questa scelta, perché il giovane esercita su quell’apparato girevole un’azione talmente precisa da risultare eguale se non superiore alla perizia di qualsiasi operaio qualificato.

Largo ai deboli

Nel ragionamento di Ure l’osservazione dell’efficienza e della forza dell’automazione sfocia in un’esaltazione della gioventù come età della forza e della “destrezza”, finalmente messa al centro di un sistema produttivo capace di minare le basi della tradizionale trasmissione del sapere, dagli anziani ai giovani.

Naturalmente, noi che la leggiamo oggi cogliamo nell’immagine del “contadinello” che lavora al grosso albero meccanico una realtà del lavoro industriale ben diversa dalla radiosa visione proposta dal divulgatore inglese. Come sappiamo bene, l’industria alla conquista del globo fagocitava rapidamente i soggetti sociali più fragili – i bambini, le donne – non certo per valorizzarne il contributo ma per abbattere i costi e aumentare il profitto. Con buona pace di Ure, la gioventù sarà a lungo nella storia del lavoro di fabbrica un elemento di marginalità e un fattore di debolezza contrattuale.

Cinquant’anni più tardi Ettore Friedländer, allora direttore dell’Agenzia Stefani e attento osservatore della realtà contemporanea, in un suo libro dedicato a Il lavoro delle donne e dei fanciulli (Roma 1886) individuava ancora nelle macchine la causa principale del lavoro femminile e minorile dell’industria: “Una conseguenza […] della grande produzione è stata quella di creare una serie d’occupazioni tali da trar profitto di tutte le forze, di tutte le capacità. Nei campi ove le macchine sono meno diffuse codesta gradazione di lavori è minore […]. Nell’industria, nella grande industria specialmente, oggetto di tante accuse, appunto per la grande diffusione delle macchine, questa ripartizione può farsi più facilmente che in ogni altra; essa offre occupazione a tutti, proporzionate ai sessi ed all’età”.

Come testimonia anche il lungo e difficile percorso di riconoscimento del lavoro femminile e di lotta al lavoro infantile, le fasi del lavoro “proporzionate” a questi soggetti in realtà sono state sempre mansioni accessorie, non caratterizzate da un periodo di formazione che si configura come abilitante, né sostenute da una rappresentazione di sé e del proprio lavoro in grado di alimentare anche la coscienza dei propri diritti.


Incisione da fotografia,  The British Workman, gennaio 1872, tratta da Fondazione Giangiacomo Feltrinelli

Quanti lavori fai?

Vecchie e nuove forme di micro-lavoro hanno tradizionalmente esposto categorie di lavoratori deboli alle difficoltà di una sottoccupazione che spesso ha anche implicato la necessità di integrare diverse attività per accedere a un reddito minimo. Forme di pluri-attività sono presenti fin dagli scenari proto-industriali che lasciavano spazio al prosieguo di un’attività artigianale da parte dei lavoratori, o negli ambiti rurali dove da sempre il lavoro di fabbrica si è integrato al lavoro dei campi.

La complessità del lavoro contemporaneo, con la sua tendenza a generare attività non standard che restano fuori dalle tradizionali forme di tutela e contrattualizzazione, ha esteso in modo impressionante il bacino dei lavoratori pluri-attivi. La situazione è in parte nuova e diversa rispetto al passato: sebbene non si possa dire risolta e superata la questione della marginalità di queste forme di “lavoro spezzato” – perché evidenti sono ancora le criticità sul piano della regolamentazione e delle protezione sociale che sollecitando nuove e urgenti risposte in termini di welfare – si apre anche un nuovo scenario di opportunità. Lo dimostra, ad esempio, l’esplosione della gig-economy, una declinazione particolarmente significativa – in termini di produzione di ricchezza e disseminazione di servizi – della pluri-attività contemporanea. Pur in un quadro di provvisorietà e precarietà, queste nuove figure – che ormai non interessano soltanto contesti di lavoro cognitivo e creativo – mettono in discussione antiche relazioni di padronato, accedono a modi e tempi di lavoro veramente autonomi, hanno una maggiore libertà di movimento e possibilità di apprendimento e di sviluppo creativo impensabili per le omologhe figure “standard”. In questo modo, si sta configurando un nuovo modo di mettersi al centro del lavoro contemporaneo, nei fatti e negli stili di vita se non rispetto alla forza contrattuale: soprattutto attraverso nuove forme di collaborazione, nuovi spazi di coabitazione lavorativa, nuove reti di sostegno collettivo, nuovi modi di condividere strumenti e conoscenze. Tanti lavori, quindi. Ma anche l’opportunità di allestire plurimi percorsi di senso, scambio e condivisione.

Pagina99 (Italie, 16 juin 2017)

Nel quotidiano Pagina99, numero speciale del weekend 17 giugno 2017 “algoritmi e sorveglianza”, una lunga intervista rilasciata al giornalista Samuele Cafasso.

I nuovi schiavi degli algoritmi

Per costruire le macchine al servizio dell’uomo, i grandi gruppi del digitale impiegano una moltitudine di persone. Spesso in condizioni definibili come sfruttamento. L’intervista di pagina99 al sociologo Casilli.

  • SAMUELE CAFASSO

Prima di chiederci se l’intelligenza artificiale e i robot ci toglieranno il lavoro, dovremmo chiederci quanto e quale lavoro serve per costruire le intelligenze artificiali. Scopriremmo così un grande paradosso: per costruire le macchine al servizio dell’uomo, i grandi gruppi del digitale stanno usando una moltitudine di persone a servizio delle macchine, spesso facendole lavorare in condizioni definibili come sfruttamento. La tesi è di Antonio Casilli, professore associato al Paris Institute of Technology e ricercatore al Centro Edgar Morin, tra i più acuti studiosi europei dell’impatto delle tecnologie digitali sulle nostre strutture sociali. L’abbiamo intervistato in occasione del Jobless society forum organizzato a Milano dalla Fondazione Feltrinelli.

D. Casilli, di quale intelligenza artificiale stiamo parlando e perché, per essere realizzata, questa richiede lo sfruttamento dell’uomo?
R. I grandi gruppi digitali come Google, o Facebook, hanno la loro ragione d’essere nel costituirsi come piattaforme di servizi per i propri utenti. Sono anche un riferimento per le altre imprese, di cui inglobano e coordinano le attività. Per svolgere il loro compito ricorrono sempre più spesso a sistemi automatici di funzionamento. In pratica si tratta di software costruiti grazie al machine learning, sistemi di apprendimento automatico: ogni dato inserito permette alla macchina di raffinare il proprio funzionamento, di specializzarsi riducendo gli errori. Serve però una mole enorme di dati, e di buona qualità. Questi dati sono prodotti e raffinati da noi, esseri umani.

D. È il sistema che sta alla base dei traduttori online, o dei “risponditori” automatici come Siri, o Cortana. Ma per il machine learning non basta il lavoro non retribuito che eseguiamo noi come utenti attraverso la nostra navigazione, l’uso dei dispositivi, i like che inseriamo sui social network e altro ancora?
R. Questa raccolta di dati è importantissima. I big data a disposizione di Facebook con i suoi 1,8 miliardi di profili, o le centinaia di milioni di clienti di Amazon, sono alla base del processo di machine learning. Ma le grandi piattaforme, lo sappiamo per certo, non si limitano a raccogliere i dati in maniera passiva. Questi dati vanno rielaborati, sistematizzati, annotati. C’è troppo “rumore” perché siano utilizzabili così come sono. E qui entra in gioco il microlavoro umano.

D. Di quali compiti stiamo parlando, in concreto?
R. Stiamo parlando di compiti che, presi singolarmente, sono minimi. Facciamo qualche esempio: selezionare, tra otto foto che compaiono sullo schermo, quelle in cui compare un determinato elemento, ad esempio un lago o l’insegna di un negozio. Individuare in qualche secondo se un sito è “solo per adulti”. Correggere lo spelling nella trascrizione di testi, brevissimi, di appena qualche parola. E altro ancora. Microcompiti che vengono spesso appaltati attraverso le piattaforme di micro-lavoro per qualche centesimo l’una, a volte anche meno.

D. Quali aziende sono coinvolte?
R. Ogni grande gruppo può contare su piattaforme a questo in qualche modo collegate. La più nota di tutte è Mechanical Turk di Amazon, il cui nome già dice tutto. Il “turco meccanico” è il nome di un robot giocatore di scacchi sviluppato alla fine del 1700. Vestito appunto come un turco, in realtà celava al suo interno una persona. Il robot, insomma, si muoveva solo grazie all’uomo. Google utilizza una piattaforma che si chiama Ewoq, Microsoft ha Uhrs, Ibm ricorre a Mighty Ai, Apple utilizza per la geolocalizzazione Try Rating. E poi ci sono tante piattaforme di microlavoro generaliste.

D. Chi si fa carico di questi lavori?
R. Se guardiamo al mercato dei click, vediamo che i primi utilizzatori si trovano negli Stati Uniti, in Paesi europei come la Francia, o la Gran Bretagna, in Canada, Australia. Lì si concentrano le imprese che reclutano microlavoratori per allenare le intelligenze artificiali. Chi vende prestazioni invece si trova soprattutto in India, Pakistan, Filippine, Malesia, America Centrale. Spesso si tratta di persone che lavorano da casa, ma ci sono realtà molto più dure. Alcuni operano negli equivalenti digitali dei call center, in grandi stanze ingombre di computer, una a fianco all’altra, in condizioni precarie. Sono le click-farm, di cui si parla oramai da anni. Lo schema che aveva notato Naomi Klein alla fine degli anni Novanta con il libro No Logo, per cui la globalizzazione e la delocalizzazione delle imprese tendeva a riprodurre schemi di potere di tipo colonialista, oggi si ripropone. Questa volta a essere mobili non sono i capitali e la produzione delle merci, ma il mercato del lavoro. Anche quando queste persone si trovano nei Paesi occidentali, nel Nord globale, sono persone spesso ai margini. Il microlavoro ha tendenza a riprodurre forme di esclusione classiche. Le donne sono particolarmente toccate, o i portatori di handicap. In alcuni casi, forme di precarietà più estreme fanno di questa forza lavoro un vero e proprio “esercito industriale di riserva” composto di ex-detenuti, persone senza domicilio fisso, lavoratori recentemente immigrati con secoli di storia di sfruttamento alle loro spalle. Alcune piattaforme (diverse da quelle citate qui sopra e non direttamente riferibili ai grandi gruppi del digitale, ndr.) come Mobileworks si fanno un vanto di impiegare «comunità di sotto-occupati negli Stati Uniti e nel mondo». I programmi di lavoro nelle carceri americane oggi includono compiti come data entry, trascrizioni di testi, preparazione di documenti. Anche quando gli utenti di queste piattaforme sono formalmente liberi, alcune imprese (come Microsourcing nelle Filippine) mimano il linguaggio delle colonie penali, promettendo alle imprese occidentali che i loro microlavori saranno eseguiti da persone «virtualmente in cattività».

D. Quali responsabilità abbiamo come utenti delle piattaforme e come cittadini?
R.
Se pensiamo che i nostri comportamenti individuali possano in qualche modo influire su queste dinamiche facciamo un errore enorme. Non possiamo separare i mercati di lavoro tradizionali, presenziali, da quelli delle piattaforme di microlavoro. I conflitti e le tensioni tra lavoratori scatenati dalle delocalizzazioni e dalla mobilità internazionale di imprese e individui si riproducono online. Questo è un problema globale che richiede risposte globali. È il legislatore, nazionale e sovranazionale, che deve assecondare i movimenti di auto-organizzazione di lavoratori per riaffermare i loro diritti. Un ruolo importante possono averlo anche i sindacati tradizionali. Anche se qui in Europa hanno reputazione di essere in ritardo rispetto a queste evoluzioni tecnologiche, sono loro che conservano infrastrutture, saperi forti su come gestire il conflitto e il dialogo sociale, radici tra i lavoratori e capacità di rapportarsi con le aziende e il legislatore. Alcune realtà si stanno muovendo in questo senso, come la Cgt o Force Ouvrière in Francia, la Cgil in Italia, Ig Metall in Germania con il progetto Fair Crowd Work che permette di mettere in rete le esperienze dei lavoratori. È necessario che ci si muova in questa direzione».

Questo articolo è tratto dal nuovo numero di pagina99, “dalla Cina a Facebook – prove di controllo totale”, in edicola, digitale e abbonamento dal 16 al 22 giugno 2017.

[Podcast] Digital labor, micro-travail et fermes à clic : grand entretien sur RTS (Suisse, 10 juin 2017)

J’ai été l’invité du journaliste Antoine Droux au Six heures-Neuf heures du samedi sur Le 1ère de RTS (Radio Télévision Suisse).

» [Podcast] Lʹéconomie du clic devient incontrôlable (25’49”)

Nous travaillons tous sur Internet. Chacune de nos actions sur le web renforce lʹéconomie du clic, génère des milliards de francs qui tombent dans dʹautres poches que les nôtres et entraîne les intelligences artificielles. Et quand un internaute de lʹautre bout du monde est rétribué pour décrire une photo ou faire une traduction, ce nʹest quʹà hauteur de quelques centimes par minute. Aucune pénibilité reconnue, aucune réglementation, aucun syndicat, bienvenue dans le merveilleux monde du “digital labor”. Chronique: Laurence Difélix et Stéphane Laurenceau. Invité: Antonio Casilli, sociologue, maître de conférences en humanités numériques à Télécom ParisTech. Co-auteur en 2015 de “Quʹest-ce que le digital labor ?” (éd. INA).