politique

Ni bots, ni e-militants : François Fillon et l’exploitation des travailleurs du clic

Ce billet a été publié dans L’Obs / Rue89 le 3 février 2017.

Dans le sillage du PenelopeGate, l’affaire des prétendus “bots” de François Fillon représente une illustration parfaite de l’impact des dispositifs d’extraction de travail implicite de foules d’usagers de plateformes numériques (digital labor) sur les modalités de délibération démocratique. Ici, je présente quelques réflexions (initialement publiées sous forme de tweets) pour encourager le débat sur ces questions.

Tout d’abord, un élément de contexte: en novembre 2016, j’avais commis une tribune dans l’Obs sur le rôle des “tâcherons du clic” dans la campagne de Donald Trump. Il y était surtout question de micro-tâches (une slide, une fake news, un like, un partage) payées quelques centimes (ou parfois beaucoup moins que ça) à des travailleurs issus de pays émergents ou en voie de développement. Certains ont été surpris par ces quelques exemples, mais il existe des vrais marchés du micro-travail, où marques, particuliers ou personnalités politiques passent des annonces comme celui-ci :

Annonce parue sur Freelancer.com

Et en France ? Lors d’un entretien récent sur Médiapart, François Bonnet me demandait si le succès de Fillon à la primaire de la droite était dû au même phénomène. Et moi de lui répondre : “Je ne pense pas que Fillon soit le type de candidat qui va acheter du digital labor dans des fermes à clic” (11’58”).

Par cela je voulais dire que, somme toute, je ne le croyais pas à ce point sans scrupules. Mais les règles du marketing politique contemporain sont impitoyables. Et personne n’y échappe. Même les socialistes français ont eu recours à des plateformes qui monétisent des clics. Mais dans leur cas il s’agissait moins d’un achat direct de fans ou de partages que d’un système pyramidal de sollicitation d’influencers qui à leur tour mettaient à contribution les membres de leurs “commus”. Et on parle de 35-70¢/like— donc on est loin du salaire de la faim des “fermes à clic” dans le Sud global (0,006¢/clic).

Et Fillon dans tout ça ? Suite au PenelopeGate, il a eu besoin d’un petit coup de buzz sur internet. Et tout le monde a hâtivement crié au bot.

Parce que les bots c’est l’avant-garde, parce que les bots font baver les technofuturistes et insurger les luddites à deux sous, parce que les bots font jaser les journalistes qui ont peur d’être remplacé.e.s à leur tour. Néanmoins, quelques minutes après, Libération relate qu’il ne s’agit pas d’une armée d’entités artificielles, mais bien d’une plateforme qui tweete automatiquement à partir de vrais comptes Twitter et Facebook. Rien de différent d’une de ces applis que chacun d’entre nous a pu installer, à un moment ou à un autre, et qui spamme nos followers de messages sur nos exploits sportifs, nos paper.li (remember ?), et nos scores à Pokémon Go (remember ???).

Et comme toujours, derrière le bots se cachent des foules de micro-travailleurs humains. C’est la règle du crowdturfing, terme hybride de crowdsourcing (externalisation de tâches productives à des foules d’usagers/travailleurs) et astroturfing (faux activisme). C’est une pratique qui se généralise pour contrer la capacité des grandes plateformes à reconnaître et intercepter le trafic artificiel : au lieu de payer 100$ à un développeur qui va coder pour vous un logiciel qui envoie 10 000 tweets, vous pouvez recruter 10 000 tâcherons du clic payés 1¢ chacun, voir moins. Simple non ? Voilà un article qui vous explique comment il fonctionne. On retrouve deux cas de figure : la version centralisée du crowdturfing (cf. les fans Facebook de Donald Trump) et celle distribuée (basée sur des recruteurs intermédiaires, comme dans le cas de la Primaire de Gauche).


Source : Serf and Turf: Crowdturfing for Fun and Profit (Wang et al., 2012)

Et la plateforme de Fillon ? Elle fait un crowdturfing d’un type particulier, *sans échange monétaire*. Mais il s’agit bel et bien de digital labor, c’est à dire d’une suite de tâches allouées à des cliqueurs : s’inscrire, se connecter à son compte Twitter et Facebook, “réaliser des actions”.

 


Captures d’écran E-militants de l’Alternance

Zéro spontanéité, zéro loisir, zéro autonomie. Rien qu’une suite d’ordres pénibles et aliénants à réaliser “en zombie”. Le tout est mesuré, tracé, surveillé, et transformé en gratification non pas monétaire (c-à-d un micro-salaire) mais en “points”. Le maître mot ici, c’est gamification. La majorité des tâches valent 1 point. Certaines, plus urgentes/importantes, sont rémunérées 2 ou 3 points. D’autres ont des objectifs a atteindre (116 tweets ou 2k partages FB)…

     

Captures d’écran E-militants de l’Alternance

Mais alors, vous me direz, si ce n’est pas payé et en plus c’est un jeu, ce n’est pas du travail. Ah my dear friends, si vous saviez… Les mécanismes de ludification sont inhérents à la gestion du travail sur les plateformes numériques. Amazon Mechanical Turk les adopte, Uber les adopte, Facebook les adopte.

Derrière la ludification, le spectre de l’exploitation. Déjà en 2013, le philosophe Ian Bogost proposait de remplacer la notion de “gamification” par celle “exploitationware” (logiciel d’exploitation) :

“In particular, gamification proposes to replace real incentives with fictional ones. Real incentives come at a cost but provide value for both parties based on a relationship of trust. By contrast, pretend incentives reduce or eliminate costs, but in so doing they strip away both value and trust.

When companies and organizations provide incentives to help orient the goals of the organization against the desires of its constituency, they facilitate functional relationships, one in which both parties have come to an understanding about how they will relate to one another. Subsequent loyalty might exist between an organization and its customers, an organization and its employees, or a government and its citizens.

For example: an airline offers a view of its business model, and frequent flyers who advance those expectations get rewards. An employer offers a view of its goals, and employees who help meet those goals enjoy raises, perks, and promotions. When loyalty is real it’s reciprocal. It moves in two directions. Something real is at stake for both parties.
Gamification replaces these real, functional, two-way relationships with dysfunctional perversions of relationships. Organizations ask for loyalty, but they reciprocate that loyalty with shams, counterfeit incentives that neither provide value nor require investment.”

[Bogost, I. (2013). Exploitationware. In R. Colby, M. S. S. Johnson, & R. S. Colby (Éd.), Rhetoric/Composition/Play through Video Games (p. 139‑147). Palgrave Macmillan]

Bref, on revient aux bases du digital labor : ce n’est pas parce que vous n’êtes pas payé.e.s que vous ne travaillez pas pour autant. Et ce n’est pas parce que François Fillon inscrit ses tâcherons dans un mécanisme ludique que sa campagne est moins fondée sur l’extraction de valeur à partir de tâches réalisées par des usagers de plateformes numériques. La prise de conscience de cette relation de “parasubordination technique“ entre tâcherons du clics (rémunérés ou pas) et recruteurs (marques, politiques, etc) est nécessaire pour éviter les dérives culturelles et politiques auxquelles ce système nous expose.

[Vidéo] Grand entretien Mediapart : l’impact des fermes à clic sur les élections (17 déc. 2016)

J’ai rendu visite à la rédaction de Mediapart pour une interview vidéo sur “fake news”, algorithmes et tâcherons du clic.

Je résume mes positions : lorsque le sage montre la désinformation, l’idiot déblatère contre les bulles de filtre. Moi, je regarde plutôt le travail de millions de tâcherons du clic qui créent des effets de résonance de ces messages idéologiquement connotés. L’un des ingrédients majeurs de la campagne de Donald Trump a été sa politique sans scrupules d’achat de clics, likes, followers (v. ma tribune dans l’Obs).

Est-ce que des candidats français d’extrême droite sont en train d’adopter la même stratégie ? La question est légitime. Et il est urgent de vérifier sur les marchés du micro-travail numérique français et internationaux que des acteurs politiques (autant systémiques qu'”anti-système”) ne soient pas en train d’acquérir des clics à la pièce.

C’est en enjeux de démocratie : comme dans les médias audiovisuels on adopte une règle d’égalité du temps de parole des candidats pour garantir le pluralisme, de la même manière il faut s’assurer que les partis politiques ne soient pas en train d’obtenir subrepticement du temps de parole supplémentaire sur internet en achetant des tweets, des likes et des contenus viraux afin de créer des “spirales de silence” qui musèlent les opposants sur les médias sociaux.

Bulles de filtres, spirales de silence, algorithmes et politique (NextINpact, 23 nov. 2016)

(Article paru sur NextINpact, 23 novembre 2016)

Élection de Trump : influence ou innocence, le rôle de Facebook en questions

image dediée
Crédits : fotostorm/iStock
Web

La diffusion massive d’informations erronées aurait contribué à l’élection de Donald Trump à la tête des États-Unis. Facebook, ses algorithmes et son modèle publicitaire ont rapidement été désignés comme principaux responsables. Qu’en est-il vraiment ? Nous avons compilé les critiques et en avons discuté avec le chercheur Antonio Casilli.

Le 8 novembre dernier, Donald Trump était élu président des États-Unis. Une surprise pour nombre de médias américains et français, qui avaient soutenu la candidate démocrate, Hillary Clinton. Au-delà des questions politiques que soulève cet événement, un phénomène a été montré du doigt : la montée d’une « nouvelle droite » dure (alt-right). Elle aurait été portée par la production d’actualités « bidons », diffusées massivement en ligne sans être régulées ou vérifiées.

Nous serions dans l’ère de la post-vérité, où la véracité d’un fait serait moins importante que sa capacité à confirmer notre vision du monde. Outre de sites politiques, ces contenus « bidons » proviendraient de sites dédiés, produisant en masse des articles accrocheurs pour vivre de la publicité. Ces contenus auraient été propulsés par les algorithmes des réseaux sociaux, mettant mécaniquement en avant les articles populaires.

De fausses informations et des « bulles de filtres »

Le Washington Post a d’ailleurs interrogé le propriétaire de plusieurs de ces sites « bidons ». Celui-ci pense avoir joué un rôle dans cette élection, notamment en créant de toutes pièces des événements, largement relayés sans être vérifiés. Ses articles ont d’ailleurs été mis en avant par des proches de Trump, et apparaissaient en bonne place sur Google, en plus des nombreux partages sur Facebook.

Avec Twitter, ce dernier aurait eu un rôle important dans la campagne, en filtrant à outrance les actualités et en maintenant les internautes dans « une bulle de filtres », masquant toute idée ou personne dissonante. L’hyper-personnalisation serait devenue un danger démocratique, d’abord nié par les producteurs des algorithmes, qui ont ensuite promis de s’amender.

Sur le fond, ces événements posent la question du rôle démocratique des plateformes et de la puissance prêtée aux algorithmes (qu’on les estime inoffensifs ou tout puissants). L’émergence récente du concept de « bulle de filtres » renvoie aux réflexions anciennes sur le rôle des médias, que Facebook ou Twitter seraient devenus, à part entière. Pour explorer le sujet, nous avons retracé le cours du débat et discuté avec Antonio Casilli, chercheur spécialiste des réseaux sociaux et du travail numérique.

Les réseaux sociaux accusés d’être des nids à informations « bidons »

Suite à l’élection, les plateformes en ligne ont été rapidement accusées d’avoir contribué à la montée de l’alt-right, en lui fournissant les outils pour étendre son influence et ses nombreuses approximations, voire mensonges répétés en boucle. De quoi déclencher une forte pression publique sur ces sociétés, dans les jours qui ont succédé au scrutin.

Selon une analyse de Buzzfeed News, sur Facebook, les 20 fausses actualités les plus populaires liées aux élections ont été bien plus partagées que les 20 venant de médias grand public. Les contenus de sites « bidons » auraient ainsi été diffusés 8,7 millions de fois, contre près de 7,4 millions de fois pour celles plus sérieuses. En clair, les sites d’hoaxes feraient leur beurre via Facebook.

Le 14 novembre, TechCrunch demandait à Facebook de « combattre la peste des fausses informations avant de gâcher les élections d’autres pays ». Pour le magazine, la plateforme « a eu un rôle important dans l’avènement de Donald Trump ». Elle n’aurait pas suffisamment agi contre les fausses actualités, étant certaines des plus lues et partagées, contribuant d’autant aux résultats financiers de la société californienne.

Une analyse partagée par The Guardian, qui estime que le réseau social n’a aucun intérêt à vraiment lutter contre ces contenus, dont le partage lui rapporte tant. Tout comme TechCrunch, le Washington Post estime surtout que Facebook doit assumer son rôle de média, et non de plateforme faussement neutre qu’elle voudrait se donner.

Des internautes enfermés dans des « bulles de filtres » ?

L’accusation principale reste : l’enfermement des internautes dans une « bulle de filtres », avec des personnes. Cette expression, démocratisée en 2011 par Eli Pariser, cofondateur d’Upworthy, vise à dénoncer l’influence présumée qu’a la personnalisation à outrance de l’information sur chacun de nous.

Après l’élection de Trump, selon Joshua Benton, directeur du Nieman Journalism Lab à Harvard, le premier réseau social mondial a « militarisé la bulle de filtres ». Pour lui, il devrait traiter différemment les contenus « de toute évidence faux », comme l’annonce que le pape François a soutenu le candidat républicain.

Comme nous l’explique le chercheur Antonio Casilli, la notion de « bulle de filtres » aurait un intérêt scientifique limité. Des concepts comme l’entre-soi, l’homophilie ou la chambre d’écho expriment des idées proches depuis des décennies. « C’est une métaphore qui a été popularisée par Eli Pariser, à des fins de mobilisation politique » affirme-t-il. En fait, « choisir de les appeler bulles de filtre, c’est porter un jugement. Un jugement qui ne m’aide pas particulièrement à comprendre ce qu’il se passe dedans ».

Le terme impliquerait que la situation n’a que des inconvénients. « Très souvent, lorsque l’on parle de bulles de filtres, on se limite à dire qu’elles existent et que c’est mal, ce qu’elles ne sont pas forcément » explique Casilli, pour qui il faut dépasser cette simple identification. Des questions comme le contenu de ces bulles, leur intérêt (partager une information ou être ensemble), leur évolution et les ponts entre ces différentes bulles sont « cruciales ».

Le graphe social et les phénomènes de réseaux

À la base, il y a l’idée du graphe social : dans le réseau d’amis d’une personne, chacune est un nœud connecté à d’autres. Comme dans tout réseau, les liens sont bien plus denses dans certaines zones que dans d’autres. Ce sont ces communautés, cet « entre-soi », qui peuvent être appelées « bulles de filtres ».

Comme l’explique Antonio Casilli, avant même toute intervention logicielle d’un Facebook, il y a une tendance humaine à se rapprocher de ceux qui nous ressemblent. « Certains experts, autant de sciences politiques ou des sociologues, ont insisté sur le fait qu’une communauté soudée et dense peut, par exemple, se caractériser par de la solidarité » rappelle le chercheur.

Les « bulles de filtres », comme les chambres d’écho jusqu’ici, dirigent l’analyse vers la manipulation de l’information, et du vote qui en découle dans le cas de la dernière élection américaine. Quand la chambre d’écho (un concept de sciences politiques) se concentre sur l’information, la « bulle de filtres » se concentre sur la structure du réseau, qui serait réduit artificiellement.

Pourtant, « croire que l’échange avec des personnes de tous bords se met en place automatiquement est naïf » nous déclare Casilli. Pour lui, un phénomène contraire aurait joué : la spirale de silence. « Si vous savez qu’autour de vous, des personnes ne partagent pas votre opinion, vous auto-censurez vos avis politiques » résume-t-il. S’agissant d’une spirale, cette censure s’intensifie au fil du temps, avec des effets « désastreux » sur la vie politique d’un pays comme les États-Unis.

« Je me demande dans quelle mesure, plutôt que de parler de bulle de filtres, il faudrait parler de refroidissement de la conversation démocratique aux États-Unis. Malgré les déclarations outrancières de Trump, personne ne s’est efforcé de le démonter complètement d’un point de vue logique et politique » ajoute l’expert.

Selon une étude du sociologue Keith Hampton (PDF), le simple fait de connaître l’étendue de la surveillance de la NSA, suite aux révélations d’Edward Snowden en 2013, aurait eu un effet de refroidissement (chilling effect) sur cette parole politique. Plutôt que d’encourager le débat, cela aurait justement limité sa tenue sur les réseaux sociaux.

Les algorithmes sont-ils responsables ?

Pourtant, les principaux accusés sont les algorithmes des plateformes, qui trient l’information pour l’internaute. Pour Guillaume Chevillon, professeur en économétrie et statistiques, le filtre des algorithmes en matière d’actualité est « dangereux pour le débat démocratique ». Habituellement, ils constituent même une défense pour Facebook, évitant à des humains d’intervenir dans la sélection, qui seraient vraiment taillés pour chaque utilisateur.

Le cœur du débat est donc celui de l’influence réelle des algorithmes, certains estimant qu’ils sont tout puissants, quand d’autres ne leur prêtent aucune agentivité. Pour Antonio Casilli, se dire pour ou contre les algorithmes ne tient d’ailleurs pas à cette puissance présumée. Face à eux qui pensent qu’une influence sur les comportements est nuisible (algophobes), « pour certains techno-enthousiastes extrêmement proches de l’industrie, cette surpuissance peut être considérée comme une bonne chose » estime le chercheur.

Parmi ceux qui estiment que les algorithmes ne jouent pas un rôle déterminant dans les choix des internautes, il y a Facebook lui-même. Dans une étude en 2014, l’entreprise affirmait que, s’il existe bien un effet proche d’un enfermement algorithmique, il découle des choix de l’internaute, qui est le principal responsable. « Cette explication est complètement bidon » analyse sèchement Casilli, pour qui il existe un effet de mise en boucle entre les choix de l’utilisateur et ce que lui propose un algorithme, sur la base de critères prédéfinis.

« Sur 1 000 amis sur Facebook, si je vois toujours les mêmes, j’aurai tendance à penser que ce sont les seules personnes à utiliser le site. D’où cette illusion selon laquelle certains amis sont très actifs, quand les autres sont une majorité silencieuse. Alors qu’il s’agit surtout d’une majorité que l’algorithme déréférence et ne permet pas de voir à tout moment » détaille le spécialiste. Il faudrait donc manipuler la logique algorithmique, en interagissant sciemment avec des personnes plus éloignées, pour revoir cet effet. Autrement dit, il faut effectuer un effort supplémentaire et entrainer l’algorithme dans un autre sens. Autant de travail pour l’utilisateur.

« Croire que l’algorithme est tout puissant est vraiment un piège politique qui nous amène au pire de l’abdication à la résistance et à la négation. De l’autre côté, laisser faire l’algorithme, en disant que l’utilisateur est toujours responsable, est une injonction contradictoire, désastreuse dans d’autres domaines de la vie politique » poursuit-il. Sur-responsabiliser les utilisateurs serait une manière de dédouaner les concepteurs et les propriétaires des algorithmes, y compris le but et les critères qu’ils lui donnent. « L’algorithme n’existe pas, c’est toujours le choix d’un autre » résume Casilli.

Des actions promises contre les sites d’actualités « bidons »

Deux jours après l’élection, Mark Zuckerberg a d’abord nié toute influence de Facebook sur l’élection. Selon lui, les actualités « bidons » sont une part minime des contenus diffusés, et qu’« il faut un grand manque d’empathie pour penser que des gens ont voté Trump uniquement à cause d’actualités bidons ». De même, déterminer la véracité d’un contenu peut être difficile, notamment sur les questions politiques.

Il reste que les nombreuses mises en cause publiques ont porté leurs fruits. À la mi-novembre, Facebook et Google ont annoncé qu’ils refuseront d’afficher des publicités sur des sites diffusant de fausses actualités. Une action forte, censée éliminer l’incitation à créer de faux contenus « à clic », de la part des deux principales plateformes publicitaires du Net… qui vivent elles-mêmes du trafic de ces sites.

Le 18 novembre, Mark Zuckerberg a fourni un plan pour lutter contre ces contenus. Cette fois, il dit prendre « la désinformation au sérieux » et affirme que Facebook a une responsabilité dans l’information. « Nous ne voulons pas devenir des arbitres de la vérité, mais plutôt compter sur notre communauté et des tiers de confiance » explique-t-il.

Concrètement, le réseau social doit mettre en place une meilleure détection de ces contenus, faciliter leur signalement et s’aider de la vérification de tiers de confiance en matière de fact-checking. Il compte aussi afficher des avertissements si un contenu est signalé comme faux, à la lecture ou au partage, en plus d’améliorer la qualité des contenus présents dans le flux d’actualité et de « décourager économiquement les fausses informations ». Cela dans un dialogue constant avec les médias. L’entreprise bat publiquement sa coulpe sur le sujet.

Facebook peut donc difficilement continuer à s’affirmer neutre. « Depuis dix ans, il cherche à se déresponsabiliser, à se présenter comme une entreprise parmi d’autres qui a un rôle modeste dans un monde qui change. C’est une attitude indéfendable, surtout après la manière dont Facebook s’est imposé comme intermédiaire d’information, avec des responsabilités » réagit Antonio Casilli.

Publiée le 23/11/2016 à 09:32

Economie et politique des plateformes numériques : le programme de mon séminaire #ecnEHESS 2016-17

FINALLY ! Pour la neuvième année consécutive, mon séminaire Étudier les cultures du numérique : approches théoriques et empiriques (#ecnEHESS) ouvre ses portes le 21 novembre 2016 à l’EHESS de Paris. Pour récompenser votre patience, le programme de cette année réserve plus d’une surprise : des intervenants internationaux pour une réflexion sur l’impact politique du numérique, avec des séances spéciales sur la surveillance de masse, sur l’économie et l’idéologie des plateformes, sur les libertés fondamentales à l’heure d’internet.

Comme toujours, les inscriptions sont ouvertes aux auditeurs libres : il suffit d’envoyer un petit mail gentil via ce formulaire. La première séance aura lieu le lundi 21 novembre 2016, EHESS. Les séances successives, le troisième lundi de chaque mois de 17h à 20h.

ATTENTION : changement d’adresse. Cette année le séminaire se déroulera au 96 bd Raspail 75006 Paris, salle M. & D. Lombard. NB: la séance de fin d’année aura lieu le mercredi 14 décembre 2016. Pour plus de précisions sur les dates et les salles (et pour d’éventuels changements), se référer à la page de l’enseignement.

Programme

 platform 21 novembre 2016
Christophe Benavent (Paris Nanterre)
Gouvernementalité algorithmique des plateformes
 lloirns 14 décembre 2016
Isabelle Attard (députée citoyenne du Calvados) et Adrienne Charmet (La Quadrature du Net)
Internet, surveillance et libertés fondamentales en France
 ideology 16 janvier 2017
Benjamin Loveluck (Télécom ParisTech)
Idéologies et utopies du numérique
 workfutur 20 février 2017
Mark Graham (Oxford Internet Institute) et Karen Gregory (University of Edinbugh)
Global platforms and the future of work
 gafa 20 mars 2017
Nikos Smyrnaios (Université Toulouse 3)
Stratégies et logique des GAFAM
 mturk 10 avril 2017
Mary Gray (Microsoft Research)
Behind the API: Work in On-Demand Digital Labor Markets
 datanomix 15 mai 2017
Louis-David Benyayer (Without Model) et Simon Chignard (Etalab)
Les nouveaux business models des données
 magna 19 juin 2017
Juan Carlos De Martin (NEXA Center for Internet & Society)
Looking back at the 2015 ‘Declaration of Internet Rights’

[Podcast] Discorde et réveil du politique en ligne (France Culture Plus, 27 mai 2013)

Podcast de l’émission #Politique : Citoyens connectés, de France Culture Plus, webmédia étudiant de France Culture. Le journaliste Christophe Payet se penche sur les modalités d’expression de la discorde sur Internet : du tweet-clash aux commentaires venimeux des blogs, aux jeux vidéos, aux trolls. Avec le sociologue Antonio Casilli, auteur de Les liaisons numériques. Vers une nouvelle sociabilité ? (Ed. du Seuil).

» Tweet-clash et bagarre 2.0 : un réveil du politique ? | France Culture Plus.

Pour écouter d’autres podcast d’Antonio Casilli sur France Culture.

Il est facile de penser qu’Internet a appauvri le débat politique. Que le web a consacré la petite phrase assassine. Que les commentaires en ligne sont violents gratuitement. Que le débat s’est muté en tweet-clash, en bagarre 2.0. Mais le web n’aurait-il pas tout simplement réveillé une discorde que notre démocratie refusait de regarder en face ? 

[Podcast] Vers la dictature du trollétariat ? (France Culture Plus, 25 févr. 2013)

Podcast de l’émission #Politique – Citoyens connectés, de France Culture Plus, webmédia étudiant de France Culture. Le journaliste Christophe Payet revient sur la figure du troll et sur l’hypothèse inquiétante de la “dictature du trollétariat” en discutant les thèses du sociologue Antonio Casilli, auteur de Les liaisons numériques. Vers une nouvelle sociabilité ? (Ed. du Seuil).

» Le Troll est-il un chien de garde de la démocratie ? | France Culture Plus.

Pour écouter d’autres podcast d’Antonio Casilli sur France Culture.

Le Troll est-il un chien de garde de la démocratie ? Cet être vil des bas fonds d’internet. Ce provocateur intempestif qui inonde les discussions sur internet pour les détourner en polémique. Le Troll, explicitement bête et méchant, serait en voie de réhabilitation… Depuis quelque temps circule une idée étrange : et si le Troll était le gardien d’un Internet comme espace public ouvert.  Celui qui nous prévient de l’endogamie et du conformisme.  Exploration d’une hypothèse en clics, en sons et en méchanceté.

Etude sur la censure des médias sociaux et les émeutes : la presse internationale en parle

Le sujet est plus que jamais d’actualité : à l’occasion des Jeux Olympiques de Londres, les autorités britanniques redoutes des nouvelles explosions de violence comparables aux émeutes qui ont secoué l’Angleterre l’année dernière. L’étude d’Antonio Casilli et Paola Tubaro sur la censure du Web en cas de violence civile, initialement publiée en 2011 sous forme de blog, vient de paraître dans le numéro 115 de la revue Bulletin of Sociological Methodology sous le titre  “Social Media Censorship in Times of Political Unrest – A Social Simulation Experiment with the UK Riots”.

Les médias internationaux ont relayé l’information. Ici de suite, les liens vers les sources principales.

Communiqué de presse SAGE publications

CNN

The Daily Mail

Yahoo Lifestyle

Technorati

The Times of India

GigaOM

Buzzfeed

Sify News

Phys.org

Science Daily

Zee News TV India

Oman Tribune

The Free Library

L’atelier

Sciencenewsline

Le Soir d’Algérie

Tempo Indonesia

Sur le blog d’Antonio Casilli Bodyspacesociety une version préprint de l’étude est disponible, ainsi qu’à d’autres informations de référence (vidéo, simulations, bios des auteurs, etc.)

Antonio Casilli et Paola Tubaro : une étude contre la censure d'Internet (Owni.fr, 19 août 2011)

Le site web Owni.fr propose une contribution signée par Paola Tubaro (Université de Greenwich, R-U) et Antonio A. Casilli, auteur de Les liaisons numériques. Vers une nouvelle sociabilité ? (Ed. du Seuil). L’article, initialement paru en anglais sur les blogs des auteurs (Bodyspacesociety et Paola Tubaro’s Blog), présente les résultats de leur récente étude portant sur les effets négatifs de la censure des réseaux sociaux prônée par les autorités britanniques pour contrôler les émeutes.

L’étude complète, aujourd’hui dans la top 10 des plus téléchargées du SSRN (dans plusieurs catégories, telles ‘Computational Models’, ‘Conflict Resolution’, ‘Social & Political Philosophy’, ‘Microeconomic Theory’, etc), a été présentée dans presse internationale :

Vidéo de l’intervention d’Antonio Casilli au Parlement du Futur (Assemblée nationale, Paris, 27 mai 2011)

Vendredi 27 mai 2011, à 17h le sociologue Antonio A. Casilli, auteur de Les liaisons numériques. Vers une nouvelle sociabilité ? (Seuil) interviendra à l’Assemblée Nationale, dans le cadre du colloque Parlement du futur “Entre desirs et dechets : jusqu’ou irons-nous avec l’electronique ambiante ?” (Salle Victor Hugo, 101 rue de l’Université, 75007 Paris). Sa conférence introduira la séance “L’électronique à l’assaut des corps et des esprits”. Pour plus de renseignements, consulter le site Web VivAgora (formulaire d’inscription en ligne disponible ici).

Un événement VivAgora/Fondation Internet nouvelle génération (Fing). Avec : Joël De Rosnay, Françoise Berthoud, Laurent Alliod, Daniel Stern, Nicolas Buclet, Stéphane Bernhard, Catherine Martial, Olivier Seznec, Guillaume Moenne-Loccoz, Brigitte Demeure, Stéphane Elkon, Michèle Rivasi, Francis Chateauraynaud, Sylvette Mazy, Daniel Le Métayer, Jean-Charles Froment, Laurent Gille, Marc Fossier, Daniel Kaplan, Michel Arnaud, Christophe Bénavent, Pierre-Antoine Chardel, Antonio Casilli, Jean-Pierre Quentin, Natacha Roussel, Marc-Eric Bobillier Chaumon, Françoise Roure, Antoinette Rouvroy, Franck Poirier, Gérard Dubey, Philippe Lemoine.