facebook

The business performativity of Mark Zuckerberg’s manifesto

Whenever I hear a businessman talk about building a “healthy society”, my sociologist sense tingles… And although I haven’t been discussing Zuckerberg’s recent tirade, I feel reassured by the fast and compelling reactions I’ve read. Countering Zuckerberg’s brand of simplistic technodeterminism is crucial. For instance, you might want to examine Aral Balkan’s piece, or appreciate the relentless logic of Annalee Newitz, exposing contradictions and dangers in the manifesto.

Of course, we’ve been here before. Facebook’s founder customarily posts messages, rants, and edicts. And unfortunately their criticism is not enough. Because there is a performativity to Zuckerberg’s essays. Although they are constantly spinned to the media as heart-felt cries from Mark-Zuckerberg-the-person, they actually serve as program frameworks for the company run by Mark-Zuckerberg-the-CEO. The fact of stemming from “trainwrecks” (term used by both Annalee Newitz and danah boyd in a seminal paper penned almost a decade ago) doesn’t diminish the power of these pronouncements.

Capitalism feeds on crises. And Facebook (being the ultimate capitalist scheme) feeds on “trainwrecks”— it uses them as devices to establish its dominance. So the 2008/9 “privacy trainwreck” jumpstarted its extensive market for personal data. The 2013 “connectivity crisis” spawned Free Basics. And what will the 2016 “fake news disaster” be exploited for? Smart money says: “turning Facebook’s colossal user-base in a training ground for AI”.

Admittedly, this doesn’t come as a surprise. The ambition to “solve AI” by extracting free/micropaid digital labor from users is evident. Facebook AI Research (FAIR) division is devoted to “advancing the field of machine intelligence and to give people better ways to communicate” by relying on quality datasets produced by… people communicating on Facebook.

What is new is how the “fake news trainwreck” has ended up supporting this ambition by turning Facebook human users into a “social infrastructure” for AI (cf. Zuckerberg). More importantly, it provides a rationale for the company’s strategy. And throws in “terror” for good measure, to render it unavoidable…:

“A healthy society needs these communities to support our personal, emotional and spiritual needs. In a world where this physical social infrastructure has been declining, we have a real opportunity to help strengthen these communities and the social fabric of our society. (…) The guiding principles are that the Community Standards should reflect the cultural norms of our community, that each person should see as little objectionable content as possible, and each person should be able to share what they want while being told they cannot share something as little as possible. The approach is to combine creating a large-scale democratic process to determine standards with AI to help enforce them. (…) Right now, we’re starting to explore ways to use AI to tell the difference between news stories about terrorism and actual terrorist propaganda so we can quickly remove anyone trying to use our services to recruit for a terrorist organization. This is technically difficult as it requires building AI that can read and understand news, but we need to work on this to help fight terrorism worldwide. (…) The path forward is to recognize that a global community needs social infrastructure to keep us safe from threats around the world, and that our community is uniquely positioned to prevent disasters, help during crises, and rebuild afterwards. Keeping the global community safe is an important part of our mission — and an important part of how we’ll measure our progress going forward.”

[Pocast] Surveillance internationale et médias sociaux avec Edouard Baer (Radio Nova, 2 janv. 2017)

Au petit matin, j’ai eu une conversation intéressante avec Edouard Baer et Thomas Baumgartner sur Radio Nova, dans l’émission Plus Près De Toi. On a parlé des douanes américaines qui imposent désormais une démarche “facultative” d’enregistrement des comptes Facebook, Instagram, LinkedIn etc. de tous les voyageurs souhaitant obtenir un visa pour voyager aux Etats-Unis. Quelles implications en termes de surveillance électronique et d’identification des populations ? Special guest : la CIA qui a coupé le son à un certain moment, quand on allait révéler les pseudos internet de tous les présents.

Bref, voilà le lien du podcast : Plus Près De Toi 02/01/17 | NOVAPLANET (Mon entretien commence à 19’15”)

[Vidéo] Grand entretien Mediapart : l’impact des fermes à clic sur les élections (17 déc. 2016)

J’ai rendu visite à la rédaction de Mediapart pour une interview vidéo sur “fake news”, algorithmes et tâcherons du clic.

Je résume mes positions : lorsque le sage montre la désinformation, l’idiot déblatère contre les bulles de filtre. Moi, je regarde plutôt le travail de millions de tâcherons du clic qui créent des effets de résonance de ces messages idéologiquement connotés. L’un des ingrédients majeurs de la campagne de Donald Trump a été sa politique sans scrupules d’achat de clics, likes, followers (v. ma tribune dans l’Obs).

Est-ce que des candidats français d’extrême droite sont en train d’adopter la même stratégie ? La question est légitime. Et il est urgent de vérifier sur les marchés du micro-travail numérique français et internationaux que des acteurs politiques (autant systémiques qu'”anti-système”) ne soient pas en train d’acquérir des clics à la pièce.

C’est en enjeux de démocratie : comme dans les médias audiovisuels on adopte une règle d’égalité du temps de parole des candidats pour garantir le pluralisme, de la même manière il faut s’assurer que les partis politiques ne soient pas en train d’obtenir subrepticement du temps de parole supplémentaire sur internet en achetant des tweets, des likes et des contenus viraux afin de créer des “spirales de silence” qui musèlent les opposants sur les médias sociaux.

Bulles de filtres, spirales de silence, algorithmes et politique (NextINpact, 23 nov. 2016)

(Article paru sur NextINpact, 23 novembre 2016)

Élection de Trump : influence ou innocence, le rôle de Facebook en questions

image dediée
Crédits : fotostorm/iStock
Web

La diffusion massive d’informations erronées aurait contribué à l’élection de Donald Trump à la tête des États-Unis. Facebook, ses algorithmes et son modèle publicitaire ont rapidement été désignés comme principaux responsables. Qu’en est-il vraiment ? Nous avons compilé les critiques et en avons discuté avec le chercheur Antonio Casilli.

Le 8 novembre dernier, Donald Trump était élu président des États-Unis. Une surprise pour nombre de médias américains et français, qui avaient soutenu la candidate démocrate, Hillary Clinton. Au-delà des questions politiques que soulève cet événement, un phénomène a été montré du doigt : la montée d’une « nouvelle droite » dure (alt-right). Elle aurait été portée par la production d’actualités « bidons », diffusées massivement en ligne sans être régulées ou vérifiées.

Nous serions dans l’ère de la post-vérité, où la véracité d’un fait serait moins importante que sa capacité à confirmer notre vision du monde. Outre de sites politiques, ces contenus « bidons » proviendraient de sites dédiés, produisant en masse des articles accrocheurs pour vivre de la publicité. Ces contenus auraient été propulsés par les algorithmes des réseaux sociaux, mettant mécaniquement en avant les articles populaires.

De fausses informations et des « bulles de filtres »

Le Washington Post a d’ailleurs interrogé le propriétaire de plusieurs de ces sites « bidons ». Celui-ci pense avoir joué un rôle dans cette élection, notamment en créant de toutes pièces des événements, largement relayés sans être vérifiés. Ses articles ont d’ailleurs été mis en avant par des proches de Trump, et apparaissaient en bonne place sur Google, en plus des nombreux partages sur Facebook.

Avec Twitter, ce dernier aurait eu un rôle important dans la campagne, en filtrant à outrance les actualités et en maintenant les internautes dans « une bulle de filtres », masquant toute idée ou personne dissonante. L’hyper-personnalisation serait devenue un danger démocratique, d’abord nié par les producteurs des algorithmes, qui ont ensuite promis de s’amender.

Sur le fond, ces événements posent la question du rôle démocratique des plateformes et de la puissance prêtée aux algorithmes (qu’on les estime inoffensifs ou tout puissants). L’émergence récente du concept de « bulle de filtres » renvoie aux réflexions anciennes sur le rôle des médias, que Facebook ou Twitter seraient devenus, à part entière. Pour explorer le sujet, nous avons retracé le cours du débat et discuté avec Antonio Casilli, chercheur spécialiste des réseaux sociaux et du travail numérique.

Les réseaux sociaux accusés d’être des nids à informations « bidons »

Suite à l’élection, les plateformes en ligne ont été rapidement accusées d’avoir contribué à la montée de l’alt-right, en lui fournissant les outils pour étendre son influence et ses nombreuses approximations, voire mensonges répétés en boucle. De quoi déclencher une forte pression publique sur ces sociétés, dans les jours qui ont succédé au scrutin.

Selon une analyse de Buzzfeed News, sur Facebook, les 20 fausses actualités les plus populaires liées aux élections ont été bien plus partagées que les 20 venant de médias grand public. Les contenus de sites « bidons » auraient ainsi été diffusés 8,7 millions de fois, contre près de 7,4 millions de fois pour celles plus sérieuses. En clair, les sites d’hoaxes feraient leur beurre via Facebook.

Le 14 novembre, TechCrunch demandait à Facebook de « combattre la peste des fausses informations avant de gâcher les élections d’autres pays ». Pour le magazine, la plateforme « a eu un rôle important dans l’avènement de Donald Trump ». Elle n’aurait pas suffisamment agi contre les fausses actualités, étant certaines des plus lues et partagées, contribuant d’autant aux résultats financiers de la société californienne.

Une analyse partagée par The Guardian, qui estime que le réseau social n’a aucun intérêt à vraiment lutter contre ces contenus, dont le partage lui rapporte tant. Tout comme TechCrunch, le Washington Post estime surtout que Facebook doit assumer son rôle de média, et non de plateforme faussement neutre qu’elle voudrait se donner.

Des internautes enfermés dans des « bulles de filtres » ?

L’accusation principale reste : l’enfermement des internautes dans une « bulle de filtres », avec des personnes. Cette expression, démocratisée en 2011 par Eli Pariser, cofondateur d’Upworthy, vise à dénoncer l’influence présumée qu’a la personnalisation à outrance de l’information sur chacun de nous.

Après l’élection de Trump, selon Joshua Benton, directeur du Nieman Journalism Lab à Harvard, le premier réseau social mondial a « militarisé la bulle de filtres ». Pour lui, il devrait traiter différemment les contenus « de toute évidence faux », comme l’annonce que le pape François a soutenu le candidat républicain.

Comme nous l’explique le chercheur Antonio Casilli, la notion de « bulle de filtres » aurait un intérêt scientifique limité. Des concepts comme l’entre-soi, l’homophilie ou la chambre d’écho expriment des idées proches depuis des décennies. « C’est une métaphore qui a été popularisée par Eli Pariser, à des fins de mobilisation politique » affirme-t-il. En fait, « choisir de les appeler bulles de filtre, c’est porter un jugement. Un jugement qui ne m’aide pas particulièrement à comprendre ce qu’il se passe dedans ».

Le terme impliquerait que la situation n’a que des inconvénients. « Très souvent, lorsque l’on parle de bulles de filtres, on se limite à dire qu’elles existent et que c’est mal, ce qu’elles ne sont pas forcément » explique Casilli, pour qui il faut dépasser cette simple identification. Des questions comme le contenu de ces bulles, leur intérêt (partager une information ou être ensemble), leur évolution et les ponts entre ces différentes bulles sont « cruciales ».

Le graphe social et les phénomènes de réseaux

À la base, il y a l’idée du graphe social : dans le réseau d’amis d’une personne, chacune est un nœud connecté à d’autres. Comme dans tout réseau, les liens sont bien plus denses dans certaines zones que dans d’autres. Ce sont ces communautés, cet « entre-soi », qui peuvent être appelées « bulles de filtres ».

Comme l’explique Antonio Casilli, avant même toute intervention logicielle d’un Facebook, il y a une tendance humaine à se rapprocher de ceux qui nous ressemblent. « Certains experts, autant de sciences politiques ou des sociologues, ont insisté sur le fait qu’une communauté soudée et dense peut, par exemple, se caractériser par de la solidarité » rappelle le chercheur.

Les « bulles de filtres », comme les chambres d’écho jusqu’ici, dirigent l’analyse vers la manipulation de l’information, et du vote qui en découle dans le cas de la dernière élection américaine. Quand la chambre d’écho (un concept de sciences politiques) se concentre sur l’information, la « bulle de filtres » se concentre sur la structure du réseau, qui serait réduit artificiellement.

Pourtant, « croire que l’échange avec des personnes de tous bords se met en place automatiquement est naïf » nous déclare Casilli. Pour lui, un phénomène contraire aurait joué : la spirale de silence. « Si vous savez qu’autour de vous, des personnes ne partagent pas votre opinion, vous auto-censurez vos avis politiques » résume-t-il. S’agissant d’une spirale, cette censure s’intensifie au fil du temps, avec des effets « désastreux » sur la vie politique d’un pays comme les États-Unis.

« Je me demande dans quelle mesure, plutôt que de parler de bulle de filtres, il faudrait parler de refroidissement de la conversation démocratique aux États-Unis. Malgré les déclarations outrancières de Trump, personne ne s’est efforcé de le démonter complètement d’un point de vue logique et politique » ajoute l’expert.

Selon une étude du sociologue Keith Hampton (PDF), le simple fait de connaître l’étendue de la surveillance de la NSA, suite aux révélations d’Edward Snowden en 2013, aurait eu un effet de refroidissement (chilling effect) sur cette parole politique. Plutôt que d’encourager le débat, cela aurait justement limité sa tenue sur les réseaux sociaux.

Les algorithmes sont-ils responsables ?

Pourtant, les principaux accusés sont les algorithmes des plateformes, qui trient l’information pour l’internaute. Pour Guillaume Chevillon, professeur en économétrie et statistiques, le filtre des algorithmes en matière d’actualité est « dangereux pour le débat démocratique ». Habituellement, ils constituent même une défense pour Facebook, évitant à des humains d’intervenir dans la sélection, qui seraient vraiment taillés pour chaque utilisateur.

Le cœur du débat est donc celui de l’influence réelle des algorithmes, certains estimant qu’ils sont tout puissants, quand d’autres ne leur prêtent aucune agentivité. Pour Antonio Casilli, se dire pour ou contre les algorithmes ne tient d’ailleurs pas à cette puissance présumée. Face à eux qui pensent qu’une influence sur les comportements est nuisible (algophobes), « pour certains techno-enthousiastes extrêmement proches de l’industrie, cette surpuissance peut être considérée comme une bonne chose » estime le chercheur.

Parmi ceux qui estiment que les algorithmes ne jouent pas un rôle déterminant dans les choix des internautes, il y a Facebook lui-même. Dans une étude en 2014, l’entreprise affirmait que, s’il existe bien un effet proche d’un enfermement algorithmique, il découle des choix de l’internaute, qui est le principal responsable. « Cette explication est complètement bidon » analyse sèchement Casilli, pour qui il existe un effet de mise en boucle entre les choix de l’utilisateur et ce que lui propose un algorithme, sur la base de critères prédéfinis.

« Sur 1 000 amis sur Facebook, si je vois toujours les mêmes, j’aurai tendance à penser que ce sont les seules personnes à utiliser le site. D’où cette illusion selon laquelle certains amis sont très actifs, quand les autres sont une majorité silencieuse. Alors qu’il s’agit surtout d’une majorité que l’algorithme déréférence et ne permet pas de voir à tout moment » détaille le spécialiste. Il faudrait donc manipuler la logique algorithmique, en interagissant sciemment avec des personnes plus éloignées, pour revoir cet effet. Autrement dit, il faut effectuer un effort supplémentaire et entrainer l’algorithme dans un autre sens. Autant de travail pour l’utilisateur.

« Croire que l’algorithme est tout puissant est vraiment un piège politique qui nous amène au pire de l’abdication à la résistance et à la négation. De l’autre côté, laisser faire l’algorithme, en disant que l’utilisateur est toujours responsable, est une injonction contradictoire, désastreuse dans d’autres domaines de la vie politique » poursuit-il. Sur-responsabiliser les utilisateurs serait une manière de dédouaner les concepteurs et les propriétaires des algorithmes, y compris le but et les critères qu’ils lui donnent. « L’algorithme n’existe pas, c’est toujours le choix d’un autre » résume Casilli.

Des actions promises contre les sites d’actualités « bidons »

Deux jours après l’élection, Mark Zuckerberg a d’abord nié toute influence de Facebook sur l’élection. Selon lui, les actualités « bidons » sont une part minime des contenus diffusés, et qu’« il faut un grand manque d’empathie pour penser que des gens ont voté Trump uniquement à cause d’actualités bidons ». De même, déterminer la véracité d’un contenu peut être difficile, notamment sur les questions politiques.

Il reste que les nombreuses mises en cause publiques ont porté leurs fruits. À la mi-novembre, Facebook et Google ont annoncé qu’ils refuseront d’afficher des publicités sur des sites diffusant de fausses actualités. Une action forte, censée éliminer l’incitation à créer de faux contenus « à clic », de la part des deux principales plateformes publicitaires du Net… qui vivent elles-mêmes du trafic de ces sites.

Le 18 novembre, Mark Zuckerberg a fourni un plan pour lutter contre ces contenus. Cette fois, il dit prendre « la désinformation au sérieux » et affirme que Facebook a une responsabilité dans l’information. « Nous ne voulons pas devenir des arbitres de la vérité, mais plutôt compter sur notre communauté et des tiers de confiance » explique-t-il.

Concrètement, le réseau social doit mettre en place une meilleure détection de ces contenus, faciliter leur signalement et s’aider de la vérification de tiers de confiance en matière de fact-checking. Il compte aussi afficher des avertissements si un contenu est signalé comme faux, à la lecture ou au partage, en plus d’améliorer la qualité des contenus présents dans le flux d’actualité et de « décourager économiquement les fausses informations ». Cela dans un dialogue constant avec les médias. L’entreprise bat publiquement sa coulpe sur le sujet.

Facebook peut donc difficilement continuer à s’affirmer neutre. « Depuis dix ans, il cherche à se déresponsabiliser, à se présenter comme une entreprise parmi d’autres qui a un rôle modeste dans un monde qui change. C’est une attitude indéfendable, surtout après la manière dont Facebook s’est imposé comme intermédiaire d’information, avec des responsabilités » réagit Antonio Casilli.

Publiée le 23/11/2016 à 09:32

Qui a fait élire Trump ? Pas les algorithmes, mais des millions de “tâcherons du clic” sous-payés

Ce billet a été publié par L’Obs / Rue89 le 19 novembre 2016. Une version en anglais est disponible ici.

Le débat sur les responsabilités médiatiques (et technologiques) de la victoire de Trump ne semble pas épuisé. Moi par contre je m’épuise à expliquer que le problème, ce ne sont pas les algorithmes. D’ailleurs, la candidate “algorithmique” c’était Clinton : elle avait hérité de l’approche big data au ciblage des électeurs qui avait fait gagner Obama en 2012, et sa campagne était apparemment régie par un système de traitement de données personnelles surnommé Ada.

Au contraire, le secret de la victoire du Toupet Parlant (s’il y en a un) a été d’avoir tout misé sur l’exploitation de masses de travailleurs du clic, situés pour la plupart à l’autre bout du monde. Si Hillary Clinton a dépensé 450 millions de dollars, Trump a investi un budget relativement plus modeste (la moitié en fait), en sous-payant des sous-traitants recrutés sur des plateformes d’intermédiation de micro-travail.

Une armée de micro-tâcherons dans des pays en voie de développement

Vous avez peut-être lu la news douce-amère d’une ado de Singapour qui a fini par produire les slides des présentation de Trump. Elle a été recrutée via Fiverr, une plateforme où l’on peut acheter des services de secrétariat, graphisme ou informatique, pour quelques dollars. Ses micro-travailleurs résident en plus de 200 pays, mais les tâches les moins bien rémunérées reviennent principalement à de ressortissants de pays de l’Asie du Sud-Est. L’histoire édifiante de cette jeune singapourienne ne doit pas nous distraire de la vraie nouvelle : Trump a externalisé la préparation de plusieurs supports de campagne à des tacherons numériques recrutés via des plateformes de digital labor, et cela de façon récurrente. L’arme secrète de la victoire de ce candidat raciste, misogyne et connu pour mal payer ses salariés s’avère être l’exploitation de travailleuses mineures asiatiques. Surprenant, non ?

singapore-trump

Hrithie, la “tâcheronne numérique” qui a produit les slides de Donal Trump…

Mais certains témoignages de ces micro-travailleurs offshore sont moins édifiants. Vous avez certainement lu l’histoire des “spammeurs de Macédoine”. Trump aurait profité de l’aide opportuniste d’étudiants de milieux modestes d’une petite ville post-industrielle d’un pays ex-socialiste de l’Europe centrale devenus des producteurs de likes et de posts, qui ont généré et partagé les pires messages de haine et de désinformation pour pouvoir profiter d’un vaste marché des clics.

spam-macedonia

How Teens In The Balkans Are Duping Trump Supporters With Fake News

A qui la faute ? Au modèle d’affaires de Facebook

A qui la faute ? Aux méchants spammeurs ou bien à leur manditaires ? Selon Business Insider, les responsables de la comm’ de Trump ont directement acheté presque 60% des followers de sa page Facebook. Ces fans et la vaste majorité de ses likes proviennent de fermes à clic situées aux Philippines, en Malaysie, en Inde, en Afrique du Sud, en Indonesie, en Colombie… et au Méxique. (Avant de vous insurger, sachez que ceci est un classique du fonctionnement actuel de Facebook. Si vous n’êtes pas au fait de la façon dont la plateforme de Zuckerberg limite la circulation de vos posts pour ensuite vous pousser à acheter des likes, cette petite vidéo vous l’explique. Prenez 5 minutes pour finaliser votre instruction.)

Bien sûr, le travail dissimulé du clic concerne tout le monde. Facebook, présenté comme un service gratuit, se révèle aussi être un énorme marché de nos contacts et de notre engagement actif dans la vie de notre réseau. Aujourd’hui, Facebook opère une restriction artificielle de la portée organique des posts partagés par les utilisateurs : vous avez 1000 « amis », par exemple, mais moins de 10% lit vos messages hilarants ou regarde vos photos de chatons. Officiellement, Facebook prétend qu’il s’agit ainsi de limiter les spams. Mais en fait, la plateforme invente un nouveau modèle économique visant à faire payer pour une visibilité plus vaste ce que l’usager partage aujourd’hui via le sponsoring. Ce modèle concerne moins les particuliers que les entreprises ou les hommes politiques à la chevelure improbable qui fondent leur stratégies marketing sur ce réseau social : ces derniers ont en effet intérêt à ce que des centaines de milliers de personnes lisent leurs messages, et ils paieront pour obtenir plus de clics. Or ce système repose sur des « fermes à clics », qui exploitent des travailleurs installés dans des pays émergents ou en voie de développement. Cet énorme marché dévoile l’illusion d’une participation volontaire de l’usager, qui est aujourd’hui écrasée par un système de production de clics fondé sur du travail caché—parce que, littéralement, délocalisé à l’autre bout du monde.

Flux de digital labor entre pays du Sud et pays du Nord

Une étude récente de l’Oxford Internet Institute montre l’existence de flux de travail importants entre le sud et le nord de la planète : les pays du Sud deviennent les producteurs de micro-tâches pour les pays du Nord. Aujourd’hui, les plus grands réalisateurs de micro-taches se trouvent aux Philippines, au Pakistan, en Inde, au Népal, à Hong-Kong, en Ukraine et en Russie, et les plus grands acheteurs de leurs clics se situent aux Etats-Unis, au Canada, en Australie et au Royaume-Uni. Les inégalités classiques Nord/Sud se reproduisent à une échelle planétaire. D’autant qu’il ne s’agit pas d’un phénomène résiduel mais d’un véritable marché du travail : UpWork compte 10 millions d’utilisateurs, Freelancers.com, 18 millions, etc.

odesk_net_4_no-numbers

Micro-travailleurs d’Asie, et recruteurs en Europe, Australie et Amérique du Nord sur une plateforme de digital labor.

Nouvel “i-sclavagisme” ? Nouvel impérialisme numérique ? Je me suis efforcé d’expliquer que les nouvelles inégalités planétaires relèvent d’une marginalisation des travailleurs qui les expose à devoir accepter les tâches les plus affreuses et les plus moralement indéfendables (comme par exemple aider un candidat à l’idéologie clairement fasciste à remporter les élections). Je l’explique dans une contribution récente sur la structuration du digital labor en tant que phénomène global (attention : le document est en anglais et fait 42 pages).  Que se serait-il passé si les droits de ces travailleurs du clics avaient été protégés, s’ils avaient eu la possibilité de résister au chantage au micro-travail, s’il avaient eu une voix pour protester contre et pour refuser de contribuer aux rêves impériaux d’un homme politique clairement dérangé, suivi par une cour de parasites corrompus ? Reconnaître ce travail invisible du clic, et le doter de méthodes de se protéger, est aussi – et avant tout – un enjeux de citoyenneté globale. Voilà quelques extraits de mon texte :

dllong1 dllong2 dllong3

Extrait de “Is There a Global Digital Labor Culture?” (Antonio Casilli, 2016)

Conclusions:

  1. Pour être plus clair : ce ne sont pas ‘les algorithmes’ ni les ‘fake news’, mais la structure actuelle de l’économie du clic et du digital labor global qui ont aidé la victoire de Trump.
  2. Pour être ENCORE plus clair : la montée des fascismes et l’exploitation du digital labor s’entendent comme larrons en foire. Comme je le rappelais dans un billet récent de ce même blog :

L’oppression des citoyens des démocraties occidentales, écrasés par une offre politique constamment revue à la baisse depuis vingt ans, qui in fine a atteint l’alignement à l’extrême droite de tous les partis dans l’éventail constitutionnel, qui ne propose qu’un seul fascisme mais disponible en différents coloris, va de pair avec l’oppression des usagers de technologies numériques, marginalisés, forcés d’accepter une seule offre de sociabilité, centralisée, normalisée, policée, exploitée par le capitalisme des plateformes qui ne proposent qu’une seule modalité de gouvernance opaque et asymétrique, mais disponible via différents applications.

Dans Libération (24 août 2016)

Le 15 août aux Etats-Unis, alors que la Louisiane était frappée par des inondations spectaculaires et qu’un incendie dévastait – et dévaste toujours – plusieurs milliers d’hectares en Californie, le géant Airbnb a décidé de lancer son plan d’hébergement d’urgence. Le principe du «disaster response service» est simple : les usagers postent des annonces pour proposer un refuge gratuit aux victimes géolocalisées dans la zone en danger. A ce jour en Louisiane, plus de 250 hôtes ont mis leur logement à disposition et entre 50 et 100 victimes en ont bénéficié. En Californie, une vingtaine de personnes ont proposé leur toit et ont permis à une dizaine de sinistrés de se mettre à l’abri. Il est de plus en plus récurrent que, lors de désastres ou situations d’urgence, les plateformes communautaires et réseaux sociaux utilisent leurs outils de géolocalisation pour permettre de sauver des vies, d’aider des sinistrés ou de simplement rassurer des proches. Au risque (bénéfique pour eux, cependant) de devenir des mines de données personnelles. Le «disaster response service» d’Airbnb est déclenché par l’équipe Global Disaster Response & Relief dirigée par Kellie Bentz. Elle explique que l’initiative «est prise par l’équipe de gestion après concertation avec les autorités et ONG locales», afin de déterminer au mieux les besoins des populations sinistrées. «Cela dépend aussi du nombre d’hôtes inscrits et d’utilisateurs potentiels présents dans la région touchée», ajoute-t-elle.Des dispositifs critiqués malgré leur bonne intentionCette initiative solidaire n’est pas inédite, car la plateforme communautaire américaine l’expérimente depuis 2013. Celle-ci a été créée suite au passage de l’ouragan Sandy qui avait frappé la côte Est des Etats-Unis en 2012, alors qu’un utilisateur de l’application avait ouvert ses portes à des sinistrés. Une façon pour les plateformes sociales d’agir, tout comme Facebook qui propose depuis 2015 sa fonction de «safety check», ou «contrôle de sécurité», en cas de catastrophe naturelle ou d’attaque. Là aussi, cet outil a été créé à partir d’un constat : en situation de crise, beaucoup de gens cherchent à contacter leurs proches via les réseaux sociaux. Le «safety check» est cependant sujet à polémiques et on lui reproche principalement d’être à géométrie variable. Aucun «safety check» ne s’est déclenché le 12 novembre pendant les attentats à la bombe de Beyrouth, alors que le lendemain, les personnes géolocalisées en Ile-de-France ont pu indiquer à leurs proches qu’elles étaient en sécurité. De la même façon, les Ivoiriens de la plage de Grand-Bassam n’ont pas eu droit au «safety check» lors de l’attaque du 13 mars, alors qu’il se déclenchait quelques jours plus tard à Bruxelles. Un responsable de Facebook a expliqué au Monde suite aux attentats du 22 mars à Bruxelles, que cet outil était compliqué à mettre en œuvre. Chaque situation est évaluée, ainsi que son ampleur et sa gravité. Il s’agit aussi de ne pas déclencher le «safety check» trop tard, ni trop tôt, pour que les gens ne se signalent pas en sécurité trop précipitamment. Un fonctionnement qui ne repose donc pas entièrement sur des algorithmes et requiert un jugement humain, qui par définition n’est pas infaillible. Numérama annonçait néanmoins en juillet que Facebook testait une version automatique de son «safety check» depuis deux mois, sans confirmation manuelle de la part de ses équipes. «Assurer une bonne image publique»Mais ces outils entrent dans une logique de communication inhérente à leur statut d’entreprise, et pour Antonio Casilli, sociologue à Télécom ParisTech et à l’Ecole des hautes études en sciences sociales (EHESS), ils ne seraient qu’une manœuvre commerciale de la part des géants du web : «Les choix géographiques qui sont faits dans le déclenchement du “safety check” sont révélateurs de la gestion de réputation exercée par Facebook». Il s’agit d’assurer «une bonne image publique dans les pays de l’hémisphère nord qui représentent sa cible commerciale principale», explique-t-il. Quant à Airbnb, Kellie Bentz se défend de tout objectif commercial. Une affirmation qui peut paraître crédible au vu des résultats, encore temporaires mais plutôt humbles, du plan d’urgence.Le rôle du web social dans l’encouragement à la solidarité serait donc à nuancer. «Le fait que les gens répondent à l’appel d’Airbnb n’est que la preuve que la solidarité humaine continue de se manifester. Mais elle existait heureusement avant ces plateformes», continue le sociologue. Selon lui, les initiatives prises sur des petits forums ou sur des chats sont plus sincères, car elles ne «découlent pas d’une stratégie de communication». Twitter lui semble donc plus «spontané» car les utilisateurs eux-mêmes sont à l’origine des tendances, à l’image du hashtag #PorteOuverte créé sur Twitter le soir du 13 Novembre par des citoyens franciliens. Antonio Casilli estime que c’est ici «une bonne façon de ne pas se borner aux algorithmes de plateformes telles que Facebook

Source: Quand Airbnb, Facebook et Twitter viennent au secours de leurs utilisateurs – Libération

Bye bye, La Grande Table

Le vendredi 19 juillet 2013, Caroline Broué a accueilli une délégation des chroniqueurs de La Grande Table pour un dernier épisode avant la fin de la saison – et avant de démobiliser « la brigade ». Par ce terme on a désigné, dans le jargon propre à l’émission, le groupe d’une cinquantaine d’écrivains, artistes, chercheurs et intellectuels assortis qui a animé la première partie du magazine culturel du midi sur France Culture. Je l’avais intégré en 2011, sur invitation de Caroline même, et de Raphaël Bourgois, producteur de l’émission. Une expérience enrichissante, qui m’a permis de rentrer dans l’actualité des débats intellectuels français et internationaux, de sortir quelque peu de mon rôle de “docteur ès geekeries”, de côtoyer des personnes que j’admire, et – parfois – de me disputer avec eux à l’antenne 😉

La Brigade de la Grande Table dans les locaux de France Culture. De gauche à droite : (debout) Tobie Nathan, Pascal Ory, Gérard Mordillat, Mathieu Potte-Bonneville, Fabienne Servan-Schreiber, Antonio A. Casilli, Caroline Broué, Dominique Cardon, (assis) Christophe Prochasson, André Gunthert, Raphaël Bourgois.

 

C’est le moment donc de remercier tou(te)s : les autres brigadistes/brigadiers, les journalistes, les producteurs, les stagiaires et les techniciens (la quantité de gens nécessaire pour faire marcher une émission…). Et je vous laisse avec une petite sélection de podcasts d’épisodes de La Grande Table auxquels j’ai eu le plaisir de participer :

L’accès ouvert aux revues en sciences humaines et sociales – 15.04.2013

Beppe Grillo et le populisme 2.0 en Italie – 28.03.2013

Guy Debord à la BNF – 22.03.2013

A propos du rapport de l’Académie des Sciences L’enfant et les écrans – 08.02.2013

Pour les 30 ans du protocôle TCP/IP – 29.01.2013

– A l’occasion de la parution de Karaoke Culture de Dubravka Ugresic – 31.12.2012

A l’occasion du colloque BNF Comprendre le phénomène pro-ana – 29.11.2012

Nouvelles mythologies : de la voiture au smartphone – 04.10.2012

La NSA et le loi LOPPSI : extension du domaine de la surveillance sur Internet – 23.05.2012

Pour le centenaire d’Alan Turing – 25.04.2012

L’affaire Megaupload : le début de « l’Internet de plomb » ? – 08.02.2012

L’intimité à l’épreuve des réseaux sociaux numériques – 05.01.2012

Qu’est-ce que le Digital Labor ? [Audio + slides + biblio]

UPDATE : Qu’est-ce que le digital labor ? est désormais un ouvrage, paru aux Editions de l’INA en 2015. Dans cet ouvrage je passe en revue les études sur le travail des internautes en compagnie de Dominique Cardon.

Audio :

La notion de digital labor fait désormais l’objet de plusieurs publications et colloques de part et d’autre de l’Atlantique. Mais elle reste encore méconnue en France. Le 12 mars 2012, j’ai assuré une intervention lors de la journée co-organisée par la DGT, la DIRECCTE et la Fing Risques et opportunités des transformations du travail à l’ère du numérique.  Voilà l’enregistrement audio :

Digital labor via Réseau FING

Pour aller plus loin, lien vers Digital labor : portrait de l’internaute en travailleur exploité, l’émission du 8 décembre 2012 de Place de la Toile sur France Culture, que nous avons concoctée avec Xavier de la Porte, Yann Moulier-Boutang et Thibault Henneton.

Slides :

Le 26 mars, à l’invitation d’Alexandra Bidet (CNRS), je suis intervenu sur le même sujet au Collège des Bernardins dans le cadre des travaux du séminaire L’entreprise: propriété, création collective, monde commun (Département EHS).

TITRE : Qu’est-ce que le Digital labor ?

INTERVENANT : Antonio A. CASILLI (Telecom ParisTech / EHESS)

RESUME : La parution récente de l’ouvrage ‘Digital Labor. The Internet as playground and factory’, dirigé par Trebor Scholz couronne plusieurs années de recherches et fait connaître au public international un domaine émergent de réflexion autour de l’économie de la contribution d’Internet. Face aux exaltations du “don et contre-don hi-tech” et du rôle des amateurs (qui avaient marqué les études des usages TIC respectivement de la première et de la deuxième partie des années 2000), les théoriciens du digital labor pointent l’apparition d’activités sur les réseaux socio-numériques lesquelles, en tant que productrices de valeur, peuvent s’assimiler à du travail. C’est un travail banal, non spécialisé et à faible valeur marginale, comme effectuer des recherches sur Google, poster un lien sur Twitter, évaluer un produit. Mais c’est bien l’activité qui permet la création d’énormes bases de données exploitables par les géants du Web comme Facebook, ou fait vivre des plateformes d’externalisation massive du travail (crowdsourcing) comme Amazon MTurk. A partir de ce constat, bien des questions se posent : comment ce “travail numérique” réinterroge la notion même du travail et de la (co)production de la valeur ? peut-on parler d’exploitation ? nos vieux cadres d’analyse, nous permettent-ils de penser ce qui se joue là, voire de définir les contours d’un “capitalisme cognitif” ?

(more…)

Slides du séminaire EHESS d'Antonio Casilli “Contre l’hypothèse de la fin de la vie privée” (20 nov. 2012)

La première séance de mon séminaire EHESS Étudier les cultures du numérique : approches théoriques et empiriques pour cette année universitaire a eu lieu le mardi 20 novembre 2012 à l’EHESS. Merci à tou(te)s les participant(e)s pour leur présence, leurs commentaires et leur enthousiasme. Voilà les slides de ma présentation.

TITRE : “Contre l’hypothèse de la ‘fin de la vie privée’ sur les médias sociaux : négociabilité et cyclicité de la privacy”

RESUME : “Au sein de la communauté internationale plusieurs voix se lèvent pour dénoncer l’érosion inexorable de la vie privée dans le  contexte des usages actuels du Web social. En s’adonnant à une surveillance mutuelle et participative, les internautes renoncent-ils volontairement à la protection de leurs données personnelles ? Cette intervention adopte une approche ethno-computationnelle des controverses relatives aux politiques de négociation des paramètres de confidentialité en ligne pour montrer que la vie privée a encore de beaux jours devant elle. Sous certaines conditions, des « cycles de privacy » se mettent en place. Au travers du travail des associations d’usagers et des organismes préposés à la défense de leurs droits, ces conditions peuvent être remplies.”

Lectures :

Susan B. Barnes (2006) A privacy paradox: Social networking in the United States, First Monday, 11 (9)

danah boyd (2008) Facebook’s Privacy Trainwreck: Exposure, Invasion, and Social Convergence, Convergence, 14 (1): 13-20

danah boyd & Eszter Hargittai (2010) Facebook privacy settings: Who cares?, First Monday, 15 (8)

Anders Albrechtslund (2008) Online Social Networking as Participatory Surveillance, First Monday, 13 (3)

(more…)

EnemyGraph: blasphème ou ruse de l’amitié sur Facebook ?

On m’a souvent entendu parler d’amitié et d’inimitié dans les réseaux sociaux. De l’amitié à l’heure du numérique, autant dans le chapitre « Mon friend n’est pas mon ami » (v. mon ouvrage Les liaisons numériques, Paris, Seuil, p. 270-277 – que vous trouvez résumées ici) que dans plusieurs interventions publiques  détaillant les tenants et les aboutissants du friending. D’inimitié, plus récemment, dans mon effort de théoriser la conflictualité et les liens négatifs en ligne.

 Donc, quand le toujours admirable @affordanceinfo m’a signalé aujourd’hui le lancement d’EnemyGraph, une nouvelle app qui permet de déclarer des ennemis sur Facebook, j’ai fait un bond de surprise. Créé à la University of Texas par Dean Terry et ses étudiants Bradley Griffith et Harrison Massey, l’application promet de faire le contre-pied de l’ethos de l’amour et de l’amitié forcées de Facebook et de réaliser le rêve longtemps refoulé d’un bouton dislike. Mais comment ça marche ? Selon Terry le tout est basé sur la notion de « dissonance sociale », voire l’évaluation des liens existants entre usagers selon leur désignation de personnes, choses et lieux qui leur déplaisent:

EnemyGraph is an application that allows you to list your “enemies”. Any Facebook friend or user of the app can be an enemy. More importantly, you can also make any page or group on Facebook an “enemy”. This covers almost everything including people, places and things. During our testing testing triangles and q-tips were trending, along with politicians, music groups, and math.
Dean Terry EnemyGraph Facebook Application [visité 26 Mar. 12]