Monthly Archives: November 2016

[Podcast] Grand entretien à Récherche en Cours (avec Paola Tubaro, Radio Aligre FM, 25 nov. 2016)

A l’occasion de la sortie de notre livre Le phénomène ‘pro-ana’. Troubles alimentaires et réseaux sociaux (Presses des Mines, 2016), je me suis rendu avec Paola Tubaro chez Jean-Marc Galan, animateur de l’émission REC Recherche En Cours sur Radio AligreFM. Nous avons parlé du livren de l’enquête sur le web des troubles alimentaires menée à partir de 2010 dans le cadre du projet de recherche ANAMIA, des combats politiques qui ont suivi notre travail de recherche.

» Le phénomène «pro ana», Recherche En Cours, Radio AligreFM, 59’29”

Bulles de filtres, spirales de silence, algorithmes et politique (NextINpact, 23 nov. 2016)

(Article paru sur NextINpact, 23 novembre 2016)

Élection de Trump : influence ou innocence, le rôle de Facebook en questions

image dediée
Crédits : fotostorm/iStock
Web

La diffusion massive d’informations erronées aurait contribué à l’élection de Donald Trump à la tête des États-Unis. Facebook, ses algorithmes et son modèle publicitaire ont rapidement été désignés comme principaux responsables. Qu’en est-il vraiment ? Nous avons compilé les critiques et en avons discuté avec le chercheur Antonio Casilli.

Le 8 novembre dernier, Donald Trump était élu président des États-Unis. Une surprise pour nombre de médias américains et français, qui avaient soutenu la candidate démocrate, Hillary Clinton. Au-delà des questions politiques que soulève cet événement, un phénomène a été montré du doigt : la montée d’une « nouvelle droite » dure (alt-right). Elle aurait été portée par la production d’actualités « bidons », diffusées massivement en ligne sans être régulées ou vérifiées.

Nous serions dans l’ère de la post-vérité, où la véracité d’un fait serait moins importante que sa capacité à confirmer notre vision du monde. Outre de sites politiques, ces contenus « bidons » proviendraient de sites dédiés, produisant en masse des articles accrocheurs pour vivre de la publicité. Ces contenus auraient été propulsés par les algorithmes des réseaux sociaux, mettant mécaniquement en avant les articles populaires.

De fausses informations et des « bulles de filtres »

Le Washington Post a d’ailleurs interrogé le propriétaire de plusieurs de ces sites « bidons ». Celui-ci pense avoir joué un rôle dans cette élection, notamment en créant de toutes pièces des événements, largement relayés sans être vérifiés. Ses articles ont d’ailleurs été mis en avant par des proches de Trump, et apparaissaient en bonne place sur Google, en plus des nombreux partages sur Facebook.

Avec Twitter, ce dernier aurait eu un rôle important dans la campagne, en filtrant à outrance les actualités et en maintenant les internautes dans « une bulle de filtres », masquant toute idée ou personne dissonante. L’hyper-personnalisation serait devenue un danger démocratique, d’abord nié par les producteurs des algorithmes, qui ont ensuite promis de s’amender.

Sur le fond, ces événements posent la question du rôle démocratique des plateformes et de la puissance prêtée aux algorithmes (qu’on les estime inoffensifs ou tout puissants). L’émergence récente du concept de « bulle de filtres » renvoie aux réflexions anciennes sur le rôle des médias, que Facebook ou Twitter seraient devenus, à part entière. Pour explorer le sujet, nous avons retracé le cours du débat et discuté avec Antonio Casilli, chercheur spécialiste des réseaux sociaux et du travail numérique.

Les réseaux sociaux accusés d’être des nids à informations « bidons »

Suite à l’élection, les plateformes en ligne ont été rapidement accusées d’avoir contribué à la montée de l’alt-right, en lui fournissant les outils pour étendre son influence et ses nombreuses approximations, voire mensonges répétés en boucle. De quoi déclencher une forte pression publique sur ces sociétés, dans les jours qui ont succédé au scrutin.

Selon une analyse de Buzzfeed News, sur Facebook, les 20 fausses actualités les plus populaires liées aux élections ont été bien plus partagées que les 20 venant de médias grand public. Les contenus de sites « bidons » auraient ainsi été diffusés 8,7 millions de fois, contre près de 7,4 millions de fois pour celles plus sérieuses. En clair, les sites d’hoaxes feraient leur beurre via Facebook.

Le 14 novembre, TechCrunch demandait à Facebook de « combattre la peste des fausses informations avant de gâcher les élections d’autres pays ». Pour le magazine, la plateforme « a eu un rôle important dans l’avènement de Donald Trump ». Elle n’aurait pas suffisamment agi contre les fausses actualités, étant certaines des plus lues et partagées, contribuant d’autant aux résultats financiers de la société californienne.

Une analyse partagée par The Guardian, qui estime que le réseau social n’a aucun intérêt à vraiment lutter contre ces contenus, dont le partage lui rapporte tant. Tout comme TechCrunch, le Washington Post estime surtout que Facebook doit assumer son rôle de média, et non de plateforme faussement neutre qu’elle voudrait se donner.

Des internautes enfermés dans des « bulles de filtres » ?

L’accusation principale reste : l’enfermement des internautes dans une « bulle de filtres », avec des personnes. Cette expression, démocratisée en 2011 par Eli Pariser, cofondateur d’Upworthy, vise à dénoncer l’influence présumée qu’a la personnalisation à outrance de l’information sur chacun de nous.

Après l’élection de Trump, selon Joshua Benton, directeur du Nieman Journalism Lab à Harvard, le premier réseau social mondial a « militarisé la bulle de filtres ». Pour lui, il devrait traiter différemment les contenus « de toute évidence faux », comme l’annonce que le pape François a soutenu le candidat républicain.

Comme nous l’explique le chercheur Antonio Casilli, la notion de « bulle de filtres » aurait un intérêt scientifique limité. Des concepts comme l’entre-soi, l’homophilie ou la chambre d’écho expriment des idées proches depuis des décennies. « C’est une métaphore qui a été popularisée par Eli Pariser, à des fins de mobilisation politique » affirme-t-il. En fait, « choisir de les appeler bulles de filtre, c’est porter un jugement. Un jugement qui ne m’aide pas particulièrement à comprendre ce qu’il se passe dedans ».

Le terme impliquerait que la situation n’a que des inconvénients. « Très souvent, lorsque l’on parle de bulles de filtres, on se limite à dire qu’elles existent et que c’est mal, ce qu’elles ne sont pas forcément » explique Casilli, pour qui il faut dépasser cette simple identification. Des questions comme le contenu de ces bulles, leur intérêt (partager une information ou être ensemble), leur évolution et les ponts entre ces différentes bulles sont « cruciales ».

Le graphe social et les phénomènes de réseaux

À la base, il y a l’idée du graphe social : dans le réseau d’amis d’une personne, chacune est un nœud connecté à d’autres. Comme dans tout réseau, les liens sont bien plus denses dans certaines zones que dans d’autres. Ce sont ces communautés, cet « entre-soi », qui peuvent être appelées « bulles de filtres ».

Comme l’explique Antonio Casilli, avant même toute intervention logicielle d’un Facebook, il y a une tendance humaine à se rapprocher de ceux qui nous ressemblent. « Certains experts, autant de sciences politiques ou des sociologues, ont insisté sur le fait qu’une communauté soudée et dense peut, par exemple, se caractériser par de la solidarité » rappelle le chercheur.

Les « bulles de filtres », comme les chambres d’écho jusqu’ici, dirigent l’analyse vers la manipulation de l’information, et du vote qui en découle dans le cas de la dernière élection américaine. Quand la chambre d’écho (un concept de sciences politiques) se concentre sur l’information, la « bulle de filtres » se concentre sur la structure du réseau, qui serait réduit artificiellement.

Pourtant, « croire que l’échange avec des personnes de tous bords se met en place automatiquement est naïf » nous déclare Casilli. Pour lui, un phénomène contraire aurait joué : la spirale de silence. « Si vous savez qu’autour de vous, des personnes ne partagent pas votre opinion, vous auto-censurez vos avis politiques » résume-t-il. S’agissant d’une spirale, cette censure s’intensifie au fil du temps, avec des effets « désastreux » sur la vie politique d’un pays comme les États-Unis.

« Je me demande dans quelle mesure, plutôt que de parler de bulle de filtres, il faudrait parler de refroidissement de la conversation démocratique aux États-Unis. Malgré les déclarations outrancières de Trump, personne ne s’est efforcé de le démonter complètement d’un point de vue logique et politique » ajoute l’expert.

Selon une étude du sociologue Keith Hampton (PDF), le simple fait de connaître l’étendue de la surveillance de la NSA, suite aux révélations d’Edward Snowden en 2013, aurait eu un effet de refroidissement (chilling effect) sur cette parole politique. Plutôt que d’encourager le débat, cela aurait justement limité sa tenue sur les réseaux sociaux.

Les algorithmes sont-ils responsables ?

Pourtant, les principaux accusés sont les algorithmes des plateformes, qui trient l’information pour l’internaute. Pour Guillaume Chevillon, professeur en économétrie et statistiques, le filtre des algorithmes en matière d’actualité est « dangereux pour le débat démocratique ». Habituellement, ils constituent même une défense pour Facebook, évitant à des humains d’intervenir dans la sélection, qui seraient vraiment taillés pour chaque utilisateur.

Le cœur du débat est donc celui de l’influence réelle des algorithmes, certains estimant qu’ils sont tout puissants, quand d’autres ne leur prêtent aucune agentivité. Pour Antonio Casilli, se dire pour ou contre les algorithmes ne tient d’ailleurs pas à cette puissance présumée. Face à eux qui pensent qu’une influence sur les comportements est nuisible (algophobes), « pour certains techno-enthousiastes extrêmement proches de l’industrie, cette surpuissance peut être considérée comme une bonne chose » estime le chercheur.

Parmi ceux qui estiment que les algorithmes ne jouent pas un rôle déterminant dans les choix des internautes, il y a Facebook lui-même. Dans une étude en 2014, l’entreprise affirmait que, s’il existe bien un effet proche d’un enfermement algorithmique, il découle des choix de l’internaute, qui est le principal responsable. « Cette explication est complètement bidon » analyse sèchement Casilli, pour qui il existe un effet de mise en boucle entre les choix de l’utilisateur et ce que lui propose un algorithme, sur la base de critères prédéfinis.

« Sur 1 000 amis sur Facebook, si je vois toujours les mêmes, j’aurai tendance à penser que ce sont les seules personnes à utiliser le site. D’où cette illusion selon laquelle certains amis sont très actifs, quand les autres sont une majorité silencieuse. Alors qu’il s’agit surtout d’une majorité que l’algorithme déréférence et ne permet pas de voir à tout moment » détaille le spécialiste. Il faudrait donc manipuler la logique algorithmique, en interagissant sciemment avec des personnes plus éloignées, pour revoir cet effet. Autrement dit, il faut effectuer un effort supplémentaire et entrainer l’algorithme dans un autre sens. Autant de travail pour l’utilisateur.

« Croire que l’algorithme est tout puissant est vraiment un piège politique qui nous amène au pire de l’abdication à la résistance et à la négation. De l’autre côté, laisser faire l’algorithme, en disant que l’utilisateur est toujours responsable, est une injonction contradictoire, désastreuse dans d’autres domaines de la vie politique » poursuit-il. Sur-responsabiliser les utilisateurs serait une manière de dédouaner les concepteurs et les propriétaires des algorithmes, y compris le but et les critères qu’ils lui donnent. « L’algorithme n’existe pas, c’est toujours le choix d’un autre » résume Casilli.

Des actions promises contre les sites d’actualités « bidons »

Deux jours après l’élection, Mark Zuckerberg a d’abord nié toute influence de Facebook sur l’élection. Selon lui, les actualités « bidons » sont une part minime des contenus diffusés, et qu’« il faut un grand manque d’empathie pour penser que des gens ont voté Trump uniquement à cause d’actualités bidons ». De même, déterminer la véracité d’un contenu peut être difficile, notamment sur les questions politiques.

Il reste que les nombreuses mises en cause publiques ont porté leurs fruits. À la mi-novembre, Facebook et Google ont annoncé qu’ils refuseront d’afficher des publicités sur des sites diffusant de fausses actualités. Une action forte, censée éliminer l’incitation à créer de faux contenus « à clic », de la part des deux principales plateformes publicitaires du Net… qui vivent elles-mêmes du trafic de ces sites.

Le 18 novembre, Mark Zuckerberg a fourni un plan pour lutter contre ces contenus. Cette fois, il dit prendre « la désinformation au sérieux » et affirme que Facebook a une responsabilité dans l’information. « Nous ne voulons pas devenir des arbitres de la vérité, mais plutôt compter sur notre communauté et des tiers de confiance » explique-t-il.

Concrètement, le réseau social doit mettre en place une meilleure détection de ces contenus, faciliter leur signalement et s’aider de la vérification de tiers de confiance en matière de fact-checking. Il compte aussi afficher des avertissements si un contenu est signalé comme faux, à la lecture ou au partage, en plus d’améliorer la qualité des contenus présents dans le flux d’actualité et de « décourager économiquement les fausses informations ». Cela dans un dialogue constant avec les médias. L’entreprise bat publiquement sa coulpe sur le sujet.

Facebook peut donc difficilement continuer à s’affirmer neutre. « Depuis dix ans, il cherche à se déresponsabiliser, à se présenter comme une entreprise parmi d’autres qui a un rôle modeste dans un monde qui change. C’est une attitude indéfendable, surtout après la manière dont Facebook s’est imposé comme intermédiaire d’information, avec des responsabilités » réagit Antonio Casilli.

Publiée le 23/11/2016 à 09:32

Never mind the algorithms: the role of click farms and exploited digital labor in Trump’s election

The debate over who, in the media and in the IT scene, is responsible for Trump’s victory is just starting. I have been claiming for a long time that the issue is not an algorithmic one. The “algorithmic” candidate was Hillary Clinton: she embraced the big data targeting approach that helped Obama’s victory in 2012, and it seems that her campaign was coordinated by a data processing system called Ada.

On the contrary, the secret of the Talking Combover’s victorious campaign is the exploitation of crowds of “click workers”, most of them located on the other side of the globe. If Hillary Clinton spent $ 450 millions, by comparison Trump spent less (about half of her budget), by under-paying subcontractors recruited on micro-work platforms.

An army of digital pieceworkers living in developing countries

Maybe you have read the bitter-sweet news about a Singapore teenager who helped create a Prezi presentation for Trump. She was recruited on Fiverr, a platform where, for a few bucks, you can buy copywriters, graphic designers or coders. Those micro-workers live in more than 200 countries, but less well-paid tasks are mainly allocated to South-East Asian workers. This young Singaporean’s inspiring story must not distract from the real topic here: Trump customarily outsourced the production of campaign materials to underpaid digital pieceworkers recruited on digital labor platforms. The secret weapon of this racist, misogynistic candidate, well-known for shortchanging his employees was the exploitation of underage Asian crowdworkers. Who would have thought?

singapore-trump

Yet, some types of offshore micro-workers are less exemplary. You may have heard of the story of the “Macedonian spammers”. Turns out Trump received an unexpected help by working-class students of a little post-industrial town located in an ex-socialist country in Central Europe. They trained themselves to provide content designed to generate likes and posts promoting the worst hate messages and disinformation, in order to profit from a large click-market.

spam-macedonia

How Teens In The Balkans Are Duping Trump Supporters With Fake News

Who is to blame ? Facebook’s business model?

Who is to blame? The evil spammers or their instigators? According to a Business Insider’s analysis, the Trump campaign directly bought 60% of his Facebook followers. Those fans and most of his likes come from click farms in the Philippines, Malaysia, India, South Africa, Indonesia, Columbia… and Mexico. (Before you get all upset, you must know that this is pretty common in today’s Facebook. If you are not up to date on how Zuck’s platform limits the circulation of your content in order to dupe you into buying likes, this little video explains it. Please take 5 minutes to complete your education.).

Of course, as I explained elsewhere, invisible digital labor is everybody’s burden. Facebook prides itself as being on free service. But it is also a huge marketplace for our personal data: contacts, preferences, network engagement etc. Today Facebook artificially limits the organic reach of content shared by its users. If for example you have 1000 “friends”, less than 10% will read your hilarious jokes or watch your kitten videos. Facebook officially claims that it is about filtering spam. But actually it has implemented a business model aimed at making users pay for a wider reach via sponsoring posts.

This model is of less concern for individual users than for corporations and bad hair politicians whose marketing strategies are predicated on this social networking service: the latter are incentivized to have millions of users reading their propaganda, and they will pay to obtain more clicks. The fact is that this system is now based on “click-farms” that exploit workers living in developing or emerging countries. This huge market uncovers the delusion of voluntary participation in online social media, today constrained by the injunction to produce clicks within a productive system relying on an invisible workforce – invisible because literally offshored on the other side of the globe.

Digital labor flows  between global South and North

A recent study by the Oxford Internet Institute reveals the existence of important work flows between the global South and the North: developing countries supply digital labor by performing micro-tasks, whose data and contents are demanded by Western countries. Nowadays,  the biggest micro-task providers are based in the Philippines, Pakistan, India, Nepal, Bangladesh, Ukraine and Russia, and the biggest buyers are in the United States, Canada, Australia and the United Kingdom. Global North-South inequalities are thus reproduced. Especially if we consider that this is not a residual phenomenon but a real labor market: UpWork has 10 million users, Freelancers.com has 18 millions, etc.

odesk_net_4_no-numbers

Digital labor supply from Asia, digital labor demand in Europe, Australia, and North America on a micro-work platform.

Some call it new “iSlavery”. Some talk about digital imperialism. I maintain that new world inequalities are caused by workers marginalization, which forces them to accept the most despicable and indecent tasks (like helping an overtly fascist candidate win). I explain this in a recent paper on digital labor global structure (warning: it’s a 42 page-long piece of academic writing). What would have happened if the rights of these micro-workers had been upheld, if they had had a way to resist freelance jobs blackmail, if they had had a voice to protest against and to refuse to contribute to the imperial dreams of a sociopath surrounded by a court of morally bankrupt lackeys? To acknowledge this hidden click labor and to find ways to regulate it and to protect ourselves from its negative consequences is also – and above all – a fight against barbarism. Here are a few excerpts from my paper :

dllong1

dllong2

dllong3

Excerpt: “Is There a Global Digital Labor Culture?” (Antonio Casilli, 2016)

Concluding remarks.

  1. To be clear: the structure of the current click economy and global digital labor maket helped Trump’s victory. Not algorithms. Nor fake news.
  2. To be EVEN clearer: fascism and the exploitation of digital labor are as thick as thieves. Here is what I wrote in a recent post on this very blog:

The oppression of citizens in Western democracies, crushed for two decades under an ever shrinking political offer which has reached a far-right alignment of all parties across the parliamentary arch, for whom the only choice is fascism, but coming in different shades, goes hand in hand with the oppression of digital technology users, marginalized, forced into accepting only one centralized, normalized, censored and exploited mode of platform governance, opaque and asymmetrical, but downloadable through different apps.

The following text was collaboratively translated by several of my Twitter followers using Framapad. The French original was inspired by Jean-Marie Le Ray and proofread by Jessica Chekroun. I thank them all for their time, passion, and curiosity.

Qui a fait élire Trump ? Pas les algorithmes, mais des millions de “tâcherons du clic” sous-payés

Ce billet a été publié par L’Obs / Rue89 le 19 novembre 2016. Une version en anglais est disponible ici.

Le débat sur les responsabilités médiatiques (et technologiques) de la victoire de Trump ne semble pas épuisé. Moi par contre je m’épuise à expliquer que le problème, ce ne sont pas les algorithmes. D’ailleurs, la candidate “algorithmique” c’était Clinton : elle avait hérité de l’approche big data au ciblage des électeurs qui avait fait gagner Obama en 2012, et sa campagne était apparemment régie par un système de traitement de données personnelles surnommé Ada.

Au contraire, le secret de la victoire du Toupet Parlant (s’il y en a un) a été d’avoir tout misé sur l’exploitation de masses de travailleurs du clic, situés pour la plupart à l’autre bout du monde. Si Hillary Clinton a dépensé 450 millions de dollars, Trump a investi un budget relativement plus modeste (la moitié en fait), en sous-payant des sous-traitants recrutés sur des plateformes d’intermédiation de micro-travail.

Une armée de micro-tâcherons dans des pays en voie de développement

Vous avez peut-être lu la news douce-amère d’une ado de Singapour qui a fini par produire les slides des présentation de Trump. Elle a été recrutée via Fiverr, une plateforme où l’on peut acheter des services de secrétariat, graphisme ou informatique, pour quelques dollars. Ses micro-travailleurs résident en plus de 200 pays, mais les tâches les moins bien rémunérées reviennent principalement à de ressortissants de pays de l’Asie du Sud-Est. L’histoire édifiante de cette jeune singapourienne ne doit pas nous distraire de la vraie nouvelle : Trump a externalisé la préparation de plusieurs supports de campagne à des tacherons numériques recrutés via des plateformes de digital labor, et cela de façon récurrente. L’arme secrète de la victoire de ce candidat raciste, misogyne et connu pour mal payer ses salariés s’avère être l’exploitation de travailleuses mineures asiatiques. Surprenant, non ?

singapore-trump

Hrithie, la “tâcheronne numérique” qui a produit les slides de Donal Trump…

Mais certains témoignages de ces micro-travailleurs offshore sont moins édifiants. Vous avez certainement lu l’histoire des “spammeurs de Macédoine”. Trump aurait profité de l’aide opportuniste d’étudiants de milieux modestes d’une petite ville post-industrielle d’un pays ex-socialiste de l’Europe centrale devenus des producteurs de likes et de posts, qui ont généré et partagé les pires messages de haine et de désinformation pour pouvoir profiter d’un vaste marché des clics.

spam-macedonia

How Teens In The Balkans Are Duping Trump Supporters With Fake News

A qui la faute ? Au modèle d’affaires de Facebook

A qui la faute ? Aux méchants spammeurs ou bien à leur manditaires ? Selon Business Insider, les responsables de la comm’ de Trump ont directement acheté presque 60% des followers de sa page Facebook. Ces fans et la vaste majorité de ses likes proviennent de fermes à clic situées aux Philippines, en Malaysie, en Inde, en Afrique du Sud, en Indonesie, en Colombie… et au Méxique. (Avant de vous insurger, sachez que ceci est un classique du fonctionnement actuel de Facebook. Si vous n’êtes pas au fait de la façon dont la plateforme de Zuckerberg limite la circulation de vos posts pour ensuite vous pousser à acheter des likes, cette petite vidéo vous l’explique. Prenez 5 minutes pour finaliser votre instruction.)

Bien sûr, le travail dissimulé du clic concerne tout le monde. Facebook, présenté comme un service gratuit, se révèle aussi être un énorme marché de nos contacts et de notre engagement actif dans la vie de notre réseau. Aujourd’hui, Facebook opère une restriction artificielle de la portée organique des posts partagés par les utilisateurs : vous avez 1000 « amis », par exemple, mais moins de 10% lit vos messages hilarants ou regarde vos photos de chatons. Officiellement, Facebook prétend qu’il s’agit ainsi de limiter les spams. Mais en fait, la plateforme invente un nouveau modèle économique visant à faire payer pour une visibilité plus vaste ce que l’usager partage aujourd’hui via le sponsoring. Ce modèle concerne moins les particuliers que les entreprises ou les hommes politiques à la chevelure improbable qui fondent leur stratégies marketing sur ce réseau social : ces derniers ont en effet intérêt à ce que des centaines de milliers de personnes lisent leurs messages, et ils paieront pour obtenir plus de clics. Or ce système repose sur des « fermes à clics », qui exploitent des travailleurs installés dans des pays émergents ou en voie de développement. Cet énorme marché dévoile l’illusion d’une participation volontaire de l’usager, qui est aujourd’hui écrasée par un système de production de clics fondé sur du travail caché—parce que, littéralement, délocalisé à l’autre bout du monde.

Flux de digital labor entre pays du Sud et pays du Nord

Une étude récente de l’Oxford Internet Institute montre l’existence de flux de travail importants entre le sud et le nord de la planète : les pays du Sud deviennent les producteurs de micro-tâches pour les pays du Nord. Aujourd’hui, les plus grands réalisateurs de micro-taches se trouvent aux Philippines, au Pakistan, en Inde, au Népal, à Hong-Kong, en Ukraine et en Russie, et les plus grands acheteurs de leurs clics se situent aux Etats-Unis, au Canada, en Australie et au Royaume-Uni. Les inégalités classiques Nord/Sud se reproduisent à une échelle planétaire. D’autant qu’il ne s’agit pas d’un phénomène résiduel mais d’un véritable marché du travail : UpWork compte 10 millions d’utilisateurs, Freelancers.com, 18 millions, etc.

odesk_net_4_no-numbers

Micro-travailleurs d’Asie, et recruteurs en Europe, Australie et Amérique du Nord sur une plateforme de digital labor.

Nouvel “i-sclavagisme” ? Nouvel impérialisme numérique ? Je me suis efforcé d’expliquer que les nouvelles inégalités planétaires relèvent d’une marginalisation des travailleurs qui les expose à devoir accepter les tâches les plus affreuses et les plus moralement indéfendables (comme par exemple aider un candidat à l’idéologie clairement fasciste à remporter les élections). Je l’explique dans une contribution récente sur la structuration du digital labor en tant que phénomène global (attention : le document est en anglais et fait 42 pages).  Que se serait-il passé si les droits de ces travailleurs du clics avaient été protégés, s’ils avaient eu la possibilité de résister au chantage au micro-travail, s’il avaient eu une voix pour protester contre et pour refuser de contribuer aux rêves impériaux d’un homme politique clairement dérangé, suivi par une cour de parasites corrompus ? Reconnaître ce travail invisible du clic, et le doter de méthodes de se protéger, est aussi – et avant tout – un enjeux de citoyenneté globale. Voilà quelques extraits de mon texte :

dllong1 dllong2 dllong3

Extrait de “Is There a Global Digital Labor Culture?” (Antonio Casilli, 2016)

Conclusions:

  1. Pour être plus clair : ce ne sont pas ‘les algorithmes’ ni les ‘fake news’, mais la structure actuelle de l’économie du clic et du digital labor global qui ont aidé la victoire de Trump.
  2. Pour être ENCORE plus clair : la montée des fascismes et l’exploitation du digital labor s’entendent comme larrons en foire. Comme je le rappelais dans un billet récent de ce même blog :

L’oppression des citoyens des démocraties occidentales, écrasés par une offre politique constamment revue à la baisse depuis vingt ans, qui in fine a atteint l’alignement à l’extrême droite de tous les partis dans l’éventail constitutionnel, qui ne propose qu’un seul fascisme mais disponible en différents coloris, va de pair avec l’oppression des usagers de technologies numériques, marginalisés, forcés d’accepter une seule offre de sociabilité, centralisée, normalisée, policée, exploitée par le capitalisme des plateformes qui ne proposent qu’une seule modalité de gouvernance opaque et asymétrique, mais disponible via différents applications.

Entretien : algorithmes et vie privée (Radio Nova, 16 nov. 2016)

Ce matin à 7h15 j’ai pris le premier café de la journée en compagnie d’Edouard Baer et de sa joyeuse bande de lurons sur Radio Nova, dans l’émission Plus Près De Toi. On a parlé algorithmes de recommandation, traçage sur internet, vie privée et données personnelles. Et on s’est demandé pourquoi Edouard reçois toujours des pubs d’actrices qui ont mal vieilli, alors que moi je ne reçois que des pubs pour baignoires pour séniors…

Bref, voilà le lien du podcast : Plus Près De Toi 16/11 | NOVAPLANET Mon entretien commence à 14′.

[Slides séminaire #ecnEHESS] Christophe Benavent : Plateformes et gouvernementalité algorithmique (21 nov. 2016, 17h)

Pour la première séance de mon séminaire EHESS Étudier les cultures du numérique : approches théoriques et empiriques nous avons eu le plaisir d’accueillir Christophe Benavent, professeur à l’Université Paris Ouest, et auteur de l’ouvrage “Plateformes. Sites collaboratifs, marketplaces, réseaux sociaux” (FyP Editions, 2016).

Le séminaire a eu lieu le lundi 21 novembre 2016, de 17h à 20h, à l’EHESS.

 

—–

Titre : D’un versant à l’autre : gouvernementalité algorithmique des plateformes.

Intervenant : Christophe Benavent

View Fullscreen

Résumé : “Si la notion de marché multi-versants fournit un cadre utile pour penser l’émergence, la croissance et la compétition de l’économie des plateformes, sa limite est d’ignorer les modalités pratiques de leur gestion. Ces dernières passent essentiellement par une propagation algorithmique de dispositifs (architecture des capacitations et des restrictions, surveillance et police, mécanismes d’incitation et de motivation) destinés in fine à orienter et conditionner les conduites des individus de telle sorte à obtenir des propriétés particulières des populations qui caractérisent ces versants et se constituent en ressources. L’imperfection des  algorithmes, qu’elle soit intrinsèque (défaut de conception, données inappropriées..) ou extrinsèque (dépendance des données ou computation sociale), nécessite qu’on leur attribue une politique propre, qui impliquerait une exigence de redevabilité dont on devra aussi et surtout évaluer les conditions politiques.”

—–

[Note to self] Pourquoi le débat sur Trump et les algorithmes de Facebook est complètement débile

Cette note à moi-même était destinée à rester dans mon dossier Brouillons. Puis j’ai appuyé sur Publier.

Facebook a-t-il facilité l’élection de Trump ? C’est le mini-marronnier de l’après-déferlante fasciste, la chasse au bouc émissaire après l’élection du vieux bouc. Surtout c’est un débat public débile, auquel je refuse de participer tant qu’il continuera à être polarisé sur deux positions également indéfendables :

  • algorithms are the roots of all kinds of evil : l’algophobie à deux balles des médias généralistes, accompagnés par les technoluddites de tous bords, qui cherchent à cacher leurs propres responsabilités dans l’instauration d’un climat culturel fachocompatible (à force de passer en boucle Trump et ses pantins “décomplexés”) en attribuant le blâme aux bulles de filtres, conséquences des architectures des réseaux sociaux numériques. Ces mêmes médias traditionnels qui ont profité éhontément des bribes de haine et de violence du Toupet Parlant, ceux qui ont fourni une caisse de résonance et parfois des honoraires à ses porte-paroles, qui ont payé des posts sponsorisés et passé des deals de millions de dollars pour fournir du contenu à la même plateforme sociale qu’ils critiquent aujourd’hui—bref qui sont complices de ce désastre et cherchent à s’absoudre ;
  • users are to blame (not poor, innocent Facebook) : le “laissez-faire algorithmique” niais des alliées de fait ou des experts salariés des plateformes, qui vous répètent qu’en fin de compte les sociabilités ne sont pas influencées par les algorithmes, que si les bulles existent c’est parce que les usagers sont pointilleux, que les gauchistes refusent de parler avec les gens de droite, c’est leur choix, mais il faudrait faire un  effort, configurer quelques paramètres, faire des heures sup sur les réseaux pour lire des articles de sources variées, cliquer sur 5 ou 6 liens plus que d’habitude et, voilà, tout serait ok, parce que qu’après tout un algorithme c’est comme un régime alimentaire, c’est à vous de le suivre ou pas, il vous donne une indications mais après vous êtes libres, et même si parfois c’est un peu cacophonique, bien, c’est tout de même jouable, ce n’est que votre responsabilité, l’algo n’y est pour rien, et donc circulez y a rien à voir, circulez—bref qui se sentent ciblés par ces accusations d’être responsables de ce désastre et cherchent à s’absoudre.

Remettons le débat sur les rails en prenant comme points de départ ces trois principes :

  1. Le fascisme triomphe dans les urnes parce qu’il est une force historique que nous n’avons jamais défait, et qu’il faut combattre au quotidien. Il a toujours été présent dans la vie politique et il est revenu dans les parlements et dans les gouvernements en Pologne, Hongrie, Royaume-Uni, Autriche… Ce n’est pas parce que, pendant quelques décennies, des partis ouvertement fascistes n’ont pas candidaté au niveau local ou national que le mouvement a été éradiqué de nos institutions, de nos rues, de nos familles. Les mouvements néonazis prolifèrent en Allemagne, Italie, Grèce, Suède. L’ennemi actuel est toujours le même qu’avant. Être surpris face à ses incessantes résurgences est un signal dangereux d’oisiveté politique et de fausse conscience.
  2. Les médias sont tous responsables, les nouveaux comme les anciens, les sociaux comme les traditionnels, les “algorithmiques” comme les “électromagnétiques”. Notre propre responsabilité citoyenne de producteurs/consommateurs de contenus, de “public travailleur” ne doit pas nous aveugler vis-à-vis des collusions économiques, politiques et technologiques, de ceux qui détiennent les clés des plateformes : ils configurent les moyens de production qui encadrent notre force de travail implicite, et qui nous incite à créer, valoriser et circuler de la richesse dans des conditions de subordination — et tant que ce lien de subordination ne sera brisé en dénonçant la rhétorique de l’adhésion libre, de la participation volontaire, de la capacitation par défaut, nous serons dans la pire des forme de normation : celle qui consiste à ne pas voir que l’adhésion, la participation et la capacitation ne sont pas des acquis, mais des conquis de luttes que nous devons engager pour reprendre ce que les plateformes ont pris aux communautés d’internet.
  3. L’oppression des citoyens des démocraties occidentales, écrasés par une offre politique constamment revue à la baisse depuis vingt ans, qui in fine a atteint l’alignement à l’extrême droite de tous les partis dans l’éventail constitutionnel, qui ne propose qu’un seul fascisme mais disponible en différents coloris, va de pair avec l’oppression des usagers de technologies numériques, marginalisés, forcés d’accepter une seule offre de sociabilité, centralisée, normalisée, policée, exploitée par le capitalisme des plateformes qui ne proposent qu’une seule modalité de gouvernance opaque et asymétrique, mais disponible via différents applications.

Troubles alimentaires et réseaux sociaux: entretien (Radio Télévision Suisse, La 1ère, 5 nov. 2016)

TROUBLES ALIMENTAIRES ET RÉSEAUX SOCIAUX : dérive ou entraide Les défis genre  » bikini bridge  » ou  » A4 waist challenge  » fleurissent toujours sur Internet et sur les réseaux sociaux. Il sʹagit par exemple dʹêtre suffisamment maigre pour cacher sa taille derrière une feuille A4 tenue verticalement. De là à penser que la jungle numérique encourage les troubles alimentaires, il nʹy a quʹun pas. Mais ce nʹest pas si simple. Une vaste étude montre que derrière ces conversations digitales se cachent des communautés qui sʹentraident, qui se soutiennent, loin de lʹapologie de lʹanorexie souvent décriée. Voyage entre idées reçues à la peau dure et étude sociologique, avec nos chroniqueurs Anne Flament et Didier Bonvin. Invité : Antonio Casilli, professeur à ParisTech et chercheur associé à l’EHESS et co-auteur de “Le phénomène pro ana. Troubles alimentaires et réseaux sociaux” paru aux Presses des Mines

Source : Troubles alimentaires et réseaux sociaux: dérive ou entraide