fake news

Comment se fabriquent les “fake news” ? (entretien France Inter, 8 juin 2018)

J’étais l’invité de Sonia Devillers à l’Instant M de France Inter pour parler du Projet de loi sur les fausses informations actuellement en discussion à l’Assemblée Nationale.

Le vote de “la loi contre la manipulation de l’information” s’est embourbée cette nuit à l’Assemblée. Le sociologue et spécialiste d’internet Antonio Casilli nous explique ce matin les dessous de la fabrication et diffusion des fake news. Pas d’adoption en première lecture. La majorité a sous-estimé les assauts de la France Insoumise, du Front National et des Républicains qui hurlent à la mort de la liberté d’expression. « Cette loi les empoisonnent », écrit l’Obs ce matin. Pourtant dans son édito, Le Monde la juge « délibérément inefficace pour qu’elle ne soit pas dangereuse ». Après la matinale d’Inter, ce matin, L’Instant M vous propose de creuser le sujet. Pas de discussion sur la confiance ou la vérité, mais un focus sur ces armées de l’ombre payées pour répandre des fausses nouvelles. Nous vous racontons comment ce système est complètement artificiel.

Les brèves de L’Instant M Coup d’arrêt, hier, net et brutal pour Buzzfeed France. Décision totalement inattendue de son actionnaire américain en difficulté financière. Ce site – une équipe de quatorze personnes – avait développé une ligne éditoriale très nouvelle et très remuante. Au départ, des classements rigolos et anecdotiques partagés à gogo sur les réseaux sociaux. Puis, en France comme aux Etats-Unis, un deuxième fil, d’info celui-là, recrutant des journalistes d’investigation. Scoops et révélations : le restaurant L’Avenue refusant les clients arabes, enquête sur les candidats aux législatives du Front National, actes de violence commis par Jean-Michel Baylet, ancien ministre à l’encontre d’une collaboratrice … Fin de partie.

Une loi sur les fake news : à quoi bon ? Tribune dans L’Obs (1 mars 2018)

Si la notion de « fausse nouvelle » est déjà définie par la loi sur la liberté de la presse de 1881, la « loi de fiabilité et de confiance de l’information » annoncée par Emmanuel Macron en 2018 va soi-disant obliger les plateformes numériques à plus de transparence sur les contenus sponsorisés. Toutefois, nous ne connaissons pas suffisamment bien les modes de diffusion de l’information problématique, ni les incitations économiques des grandes plateformes étrangères et des petits producteurs de faux contenus et fausses intéractions qui peuplent leurs écosystèmes. “L’Obs” a demandé à trois intellectuels (Slavoj Žižek, Emmanuel Todd et moi-même) de réfléchir à ce problème qui touche à la nature même du débat public en démocratie.

L’Obs

jeudi 1 mars 2018 – p. 91,92,93,94

Faut-il une loi sur les “fake news” ?

Par ANTONIO CASILLI

A l’heure où le gouvernement veut légiférer sur les fausses informations, le sociologue et spécialiste d’internet Antonio Casilli explique comment elles se fabriquent, et révèle les dessous d’un marché mondial.

Les colporteurs, d’après l’édition 1751 de l’« Encyclopédie », étaient « anciennement des gens de mauvaise foi qui rodoient de ville en ville, vendant & achetant de la vaisselle de cuivre, d’étain, & autres semblables marchandises ». Un peu marchands, un peu charlatans, ils vendaient du rêve sous forme de livres et de gazettes truffées d’histoires mêlant le monstrueux au prodigieux. Il serait aisé de tracer un parallèle historique entre la littérature de colportage et les fake news actuelles. L’Histoire pullule d’exemples de systèmes organisant la circulation d’informations non vérifiées. Citons les écrits apocryphes de l’Antiquité, qui entretiennent des similitudes avec les « faits alternatifs » et les théories complotistes actuelles, ou encore l’invention de la dezinformatsiya dans le « bureau spécial de désinformation » du KGB créé par Staline en 1923, et qui a servi de modèle à la production active d’ignorance et de confusion à des fins politiques. Mensonges et propagande ont toujours fait partie de la sphère publique. A première vue, les traits distinctifs des fake news ne ressortent pas de manière évidente. Même en admettant que la propagation actuelle de rumeurs et contre-vérités s’inscrive dans un cadre culturel et technologique inédit, dominé par les médias numériques, la cause de cette confusion généralisée demeure inconnue. Est-ce la possibilité que le web offre à n’importe qui de publier n’importe quoi qui ébranle la capacité des citoyens à se forger une opinion éclairée? Ou alors, comme le rappelle le chercheur Nikos Smyrnaios, serait-ce l’opinion largement partagée d’une presse soumise aux pouvoirs économiques et politiques qui pousse les publics à rechercher « une information “alternative”, pour le meilleur et pour le pire » ? Quelle qu’en soit la raison, la perte de légitimité des médias traditionnels a créé un appel d’air pour la production de fake news. Mais contrairement à ce qu’on dit souvent, leur diffusion n’est pas le fait de hordes de « colporteurs numériques » venus répandre librement leurs fausses nouvelles. C’est bien la manière dont les grandes plateformes numériques, comme Google ou Facebook, ont décidé de sélectionner l’information qui pose problème.

Les modèles économiques des médias sociaux s’appuient sur des régies publicitaires comme AdSense et AdWords de Google ou Audience Network de Facebook, qui collectent et mettent à profit les informations personnelles de leurs usagers : historiques de navigation, listes d’amis, localisation géographique, visionnages de vidéos ou « J’aime » sur des photos constituent cette fameuse data que vont monnayer les Gafam [Google, Apple, Facebook, Amazon et Microsoft]. Dès lors que les médias sociaux ont intérêt à retenir leurs abonnés le plus longtemps possible pour collecter davantage de données personnelles, ils finissent par mettre en place des incitations économiques qui favorisent les contenus sensationnalistes. Dans le jargon des annonceurs, les histoires outrancières seraient plus sticky, plus « collantes ». Les contenus doivent émouvoir et polariser les opinions pour constituer une occasion de partage, d’engagement de l’attention, d’échanges entre amis et ennemis sur les médias sociaux – qu’importe leur degré de fiction. Cet intérêt pour l’attention des internautes pousse les producteurs d’information en ligne à se débarrasser des standards éthiques et des méthodes d’autorégulation qui avaient caractérisé le journalisme d’avant internet.

La ville de Veles, en Macédoine, en donne un exemple flagrant. Sans grande perspective d’emploi dans cette cité désindustrialisée, des jeunes ont mis en ligne des sites tels que TrumpVision365.com, USConservativeToday.com, DonaldTrumpNews.co, qu’ils ont utilisés comme base pour propager sur Facebook des millions de mèmes. Ces images cocasses ou choquantes, propageant des mensonges sur les adversaires politiques du candidat républicain, ont généré des flux de revenu publicitaire qui ont permis à ces adolescents, souvent en rupture scolaire, de joindre les deux bouts. Les modèles économiques des plateformes numériques ne favorisent pas tant la militance spontanée émanant de la base d’un parti, que des campagnes de propagande et de dénigrement montées de toute pièce. Les Américains les désignent par le néologisme crowdturfing, issu du terme anglais crowd (« foule ») et de la marque de gazon artificiel AstroTurf.

Mais l’artificialité du phénomène ne réside pas là où on le croit. Car ces contenus factices ne sont généralement pas créés par des « bots » – des agents automatiques, trop vite repérés par les filtres anti-spam des plateformes et par les usagers avec lesquels ils sont censés interagir. Les propagateurs sont en réalité des faux comptes animés par des êtres humains, qui la plupart du temps n’ont que faire de l’opinion politique des images ou textes qu’ils diffusent. Les faux followers, par exemple, sont créés par des internautes qui s’abonnent volontairement à une page, une chaîne, un compte en échange d’un micropaiement. Vu que pour le reste, leurs comportements sont ceux d’usagers communs, il est difficile de les détecter. En outre, ils peuvent influencer les électeurs par leurs messages et comportements. Le crowdturfing vise à produire des vagues de trafic et de viralité de l’information qui servent à « amorcer la pompe ».

Les campagnes électorales à l’heure des grandes plateformes se basent donc sur des masses grandissantes d’influenceurs numériques qui se font passer pour des militants mais sont essentiellement motivés par l’appât du gain. Ce phénomène ne se résume pas à la production d’intox : l’interaction sociale qui accompagne les fake news est tout aussi importante que leur contenu. Il existe sur internet des plateformes de crowdturfing où l’on achète à prix cassé commentaires, partage et retweets de messages haineux ou diffamatoires. Moyennant des paiements d’à peine quelques centimes d’euro, les experts en marketing politique peuvent recruter des myriades d’ouvriers du clic pour assurer la circulation des fake news, ou les faire remonter dans le référencement des moteurs de recherche et dans les tendances émergentes des médias sociaux. Pendant la présidentielle française de 2017, le chercheur belge Nicolas Vanderbiest a pu détecter sur Twitter des réseaux d’influence nationaux (Patriosphère, Sens Commun, etc.) et internationaux (provenant des Etats-Unis, de la Russie, et même de l’Arabie saoudite), qui ont vraisemblablement acheté le travail de foules de faux militants pour mettre en avant les hashtags #MacronLeaks, #PenelopeGate, etc.

La majorité de ces ouvriers du clic opèrent depuis chez eux et sont recrutés sur des services en ligne tout à fait légitimes comme UpWork ou FreeLancer. Selon une étude de l’université de Santa Barbara, entre 70% et 95% des requêtes négociées sur certaines plateformes de microtravail (MinuteWorkers, ShortTask, MyEasyTask, MicroWorkers) consistent en la création de faux profils, faux avis, faux liens vers sites web, etc. L’origine géographique des acheteurs de clics (Etats-Unis, Canada et Royaume-Uni, mais aussi France, et Espagne) et celle des producteurs (Bangladesh, Pakistan, Népal, Indonésie, Sri Lanka, Inde, Kenya, Madagascar) reproduit des tendances globales de délocalisation de « sales boulots » vers des zones du monde où la force de travail est marquée par une forte vulnérabilité à l’exploitation. Partager des messages de haine, faire augmenter le compteur de visionnage d’une vidéo diffamatoire voire créer des profils qui s’abonnent au fil d’une personnalité de l’extrême droite xénophobe : voilà les tâches que ces travailleurs se voient proposer. Selon les révélations de Business Insider, en 2015 Donald Trump aurait acheté près de 60% des fans de sa page Facebook aux Philippines, en Malaisie et… au Mexique.

Les grands médias sociaux jouent un rôle extrêmement ambigu dans cette économie du clic. D’une part, Facebook et Google s’engagent depuis 2016 dans des remaniements réguliers de leurs algorithmes de référencement et de ciblage publicitaire afin de corriger les biais qui ont permis aux fake news de se répandre et ils s’adonnent depuis toujours à des « purges » de faux profils, voire proscrivent les utilisateurs ayant recours aux plateformes de crowdturfing. Mais, d’autre part, le réseau de Mark Zuckerberg semble fonctionner grâce à des mécanismes d’achat de visibilité qui entretiennent de nombreuses similitudes avec le fonctionnement des usines à faux clics.

Entre 2012 et 2014, des experts ont mené des expériences à partir de pages-appâts conçues pour attirer des lecteurs. Tous arrivent à la même conclusion : l’essentiel des profils ayant partagé leurs contenus ont des comportements suspects, ils sont fans de milliers de marques et de personnalités politiques disparates situées en Inde comme en Amérique du Nord. Autre conclusion de ces expériences : ces faux clics ne sont pas un détournement mais bien le résultat de la politique commerciale de Facebook Facebook ne vend pas directement du clic, mais propose à ses usagers de « booster leurs publications », voire d’en augmenter la visibilité moyennant un petit paiement. Or selon ces mêmes experts, ce visionnage vendu par Facebook provient des mêmes pays en voie de développement. C’est ainsi que le crowdturfing chassé des profils reviendrait par la fenêtre de la publicité. Cela redimensionne considérablement les prétentions d’authenticité de l’information qui circule sur ces réseaux. La distinction entre expression politique « artificielle » et « vraie conviction » devient floue. Sans vouloir entrer dans les débats philosophiques sur « ce qu’est la vérité », il nous faut admettre une chose : les fake news mettent à mal la possibilité de s’entendre sur la réalité même d’une action politique bien informée, indépendante des logiques commerciales et dans laquelle les intermédiaires politiques et culturels opéreraient de manière transparente.

Toute intervention législative sur les fake news qui manquerait de prendre en compte ces aspects serait destinée à l’échec. Au lieu de cibler exclusivement les petits dealers de mal-information, il est nécessaire de se concentrer sur leurs mandataires et sur les infrastructures techniques qui rendent possible leur action. Il faudrait par exemple établir l’obligation, pour les formations politiques, de publier un « bilan numérique » faisant état des dépenses et de la nature de leur marketing politique sur internet, de façon à les décourager d’effectuer des opérations clandestines à base de marchandage de clics. Tout comme les médias audiovisuels adoptent une règle d’égalité du temps de parole des candidats pour garantir le pluralisme, il est urgent de s’assurer que les partis politiques n’obtiennent pas subrepticement du « temps de cerveau » supplémentaire en achetant des tweets, des « like » et des contenus viraux lors des campagnes.

Mais la responsabilité informationnelle des organisations politiques doit se conjuguer avec un renouvellement des modèles économiques des médias sociaux numériques, qui ont reposé jusqu’à présent sur l’expropriation des données personnelles de leurs usagers à des fins publicitaires et sur la mise en place de longues chaînes de sous-traitance de tâches informationnelles vers des pays dits « du Sud ». C’est non seulement leur viabilité économique, mais aussi leurs admissibilités politique et éthique qui doivent être aujourd’hui questionnées. Une dernière recommandation politique concerne alors la défense des droits des travailleurs du clic, non pas pour normaliser le système du crowdturfing mais pour s’en affranchir. Le respect des normes internationales du travail, la garantie pour ces travailleurs d’une rémunération équitable et de conditions de travail décentes – bref la possibilité de résister au chantage au travail à la micro-pièce – constituerait un levier de négociation qui leur permettrait de refuser de contribuer au système des fake news. Reconnaître le travail invisible de ces ouvriers du clic et les doter de méthodes pour se protéger et pour faire entendre leurs voix, est aussi – et avant tout – un enjeu de citoyenneté globale.

[Vidéo] Turfu Express #1 : une émission sur politique, travail du clic et mouvements sociaux (2 juin 2017)

Arthur de Grave et Eric Baille m’ont invité pour un entretien sur internet, progrès, justice sociale et émancipation politique. On a fini par parler de bulles de filtre, fake news et digital labor. Avec en bonus une enquête sur Vélès, la “capitale des fake news”, et une digital detox dans la campagne française. C’est la vie.

[Séminaire #ecnEHESS] Benjamin Loveluck “Post-vérités : utopies et idéologies du numérique” (16 janv. 2017, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Pour cette première séance de 2017 de notre séminaire EHESS Etudier les cultures du numérique, nous sommes heureux d’accueillir Benjamin Loveluck, maître de conférences à Télécom ParisTech, auteur d’un ouvrage remarqué : Réseaux, libertés et contrôle. Une généalogie politique d’internet (Armand Colin, 2015).

Le séminaire aura lieu lundi 16 janvier 2017, de 17h à 20h, salle Lombard, EHESS, 96 bd. Raspail, Paris 6e arr.

Pour suivre le séminaire sur Twitter : hashtag #ecnEHESS.

Utopies et idéologies du numérique. Quel régime de (post-)vérité ?

Intervenant : Benjamin Loveluck

Quelles représentations ont accompagné l’essor du numérique, et comment contribuent-elles aujourd’hui encore à lui donner forme ? À quelles sources puisent les discours des acteurs, et quels sont les ressorts de l’enthousiasme mais aussi des craintes suscitées par l’informatique communicante ? Ces questions trouvent une actualité nouvelle, alors que la méfiance est aujourd’hui de mise et que le numérique est accusé de favoriser l’émergence d’un régime de « post-vérité ». En abordant ces enjeux du point de vue de l’histoire longue des idées politiques, le recours à la méthode généalogique permet d’apporter des éléments de contexte. En particulier, elle permet de montrer comment s’est mis en place un cadre de pensée structurant, que nous avons appelé le libéralisme informationnel. Différentes études de cas emblématiques – allant de Google à Bitcoin et WikiLeaks en passant par le mouvement des logiciels libres – permettent d’en préciser les différentes déclinaisons, et leur articulation avec les pratiques des acteurs. Cette intervention vise ainsi à resituer la réflexion sur le numérique dans les cadres d’analyse éprouvés de la philosophie et de l’économie politique – afin de ne pas céder à la fascination de la « rupture » et de la « révolution », tout en identifiant ce qui se présente effectivement comme nouveau. En somme, d’éclairer à la fois ce que le numérique rend possible et ce qu’il rend pensable.

(more…)

[Vidéo] Grand entretien Mediapart : l’impact des fermes à clic sur les élections (17 déc. 2016)

J’ai rendu visite à la rédaction de Mediapart pour une interview vidéo sur “fake news”, algorithmes et tâcherons du clic.

Je résume mes positions : lorsque le sage montre la désinformation, l’idiot déblatère contre les bulles de filtre. Moi, je regarde plutôt le travail de millions de tâcherons du clic qui créent des effets de résonance de ces messages idéologiquement connotés. L’un des ingrédients majeurs de la campagne de Donald Trump a été sa politique sans scrupules d’achat de clics, likes, followers (v. ma tribune dans l’Obs).

Est-ce que des candidats français d’extrême droite sont en train d’adopter la même stratégie ? La question est légitime. Et il est urgent de vérifier sur les marchés du micro-travail numérique français et internationaux que des acteurs politiques (autant systémiques qu'”anti-système”) ne soient pas en train d’acquérir des clics à la pièce.

C’est en enjeux de démocratie : comme dans les médias audiovisuels on adopte une règle d’égalité du temps de parole des candidats pour garantir le pluralisme, de la même manière il faut s’assurer que les partis politiques ne soient pas en train d’obtenir subrepticement du temps de parole supplémentaire sur internet en achetant des tweets, des likes et des contenus viraux afin de créer des “spirales de silence” qui musèlent les opposants sur les médias sociaux.

Bulles de filtres, spirales de silence, algorithmes et politique (NextINpact, 23 nov. 2016)

(Article paru sur NextINpact, 23 novembre 2016)

Élection de Trump : influence ou innocence, le rôle de Facebook en questions

image dediée
Crédits : fotostorm/iStock
Web

La diffusion massive d’informations erronées aurait contribué à l’élection de Donald Trump à la tête des États-Unis. Facebook, ses algorithmes et son modèle publicitaire ont rapidement été désignés comme principaux responsables. Qu’en est-il vraiment ? Nous avons compilé les critiques et en avons discuté avec le chercheur Antonio Casilli.

Le 8 novembre dernier, Donald Trump était élu président des États-Unis. Une surprise pour nombre de médias américains et français, qui avaient soutenu la candidate démocrate, Hillary Clinton. Au-delà des questions politiques que soulève cet événement, un phénomène a été montré du doigt : la montée d’une « nouvelle droite » dure (alt-right). Elle aurait été portée par la production d’actualités « bidons », diffusées massivement en ligne sans être régulées ou vérifiées.

Nous serions dans l’ère de la post-vérité, où la véracité d’un fait serait moins importante que sa capacité à confirmer notre vision du monde. Outre de sites politiques, ces contenus « bidons » proviendraient de sites dédiés, produisant en masse des articles accrocheurs pour vivre de la publicité. Ces contenus auraient été propulsés par les algorithmes des réseaux sociaux, mettant mécaniquement en avant les articles populaires.

De fausses informations et des « bulles de filtres »

Le Washington Post a d’ailleurs interrogé le propriétaire de plusieurs de ces sites « bidons ». Celui-ci pense avoir joué un rôle dans cette élection, notamment en créant de toutes pièces des événements, largement relayés sans être vérifiés. Ses articles ont d’ailleurs été mis en avant par des proches de Trump, et apparaissaient en bonne place sur Google, en plus des nombreux partages sur Facebook.

Avec Twitter, ce dernier aurait eu un rôle important dans la campagne, en filtrant à outrance les actualités et en maintenant les internautes dans « une bulle de filtres », masquant toute idée ou personne dissonante. L’hyper-personnalisation serait devenue un danger démocratique, d’abord nié par les producteurs des algorithmes, qui ont ensuite promis de s’amender.

Sur le fond, ces événements posent la question du rôle démocratique des plateformes et de la puissance prêtée aux algorithmes (qu’on les estime inoffensifs ou tout puissants). L’émergence récente du concept de « bulle de filtres » renvoie aux réflexions anciennes sur le rôle des médias, que Facebook ou Twitter seraient devenus, à part entière. Pour explorer le sujet, nous avons retracé le cours du débat et discuté avec Antonio Casilli, chercheur spécialiste des réseaux sociaux et du travail numérique.

Les réseaux sociaux accusés d’être des nids à informations « bidons »

Suite à l’élection, les plateformes en ligne ont été rapidement accusées d’avoir contribué à la montée de l’alt-right, en lui fournissant les outils pour étendre son influence et ses nombreuses approximations, voire mensonges répétés en boucle. De quoi déclencher une forte pression publique sur ces sociétés, dans les jours qui ont succédé au scrutin.

Selon une analyse de Buzzfeed News, sur Facebook, les 20 fausses actualités les plus populaires liées aux élections ont été bien plus partagées que les 20 venant de médias grand public. Les contenus de sites « bidons » auraient ainsi été diffusés 8,7 millions de fois, contre près de 7,4 millions de fois pour celles plus sérieuses. En clair, les sites d’hoaxes feraient leur beurre via Facebook.

Le 14 novembre, TechCrunch demandait à Facebook de « combattre la peste des fausses informations avant de gâcher les élections d’autres pays ». Pour le magazine, la plateforme « a eu un rôle important dans l’avènement de Donald Trump ». Elle n’aurait pas suffisamment agi contre les fausses actualités, étant certaines des plus lues et partagées, contribuant d’autant aux résultats financiers de la société californienne.

Une analyse partagée par The Guardian, qui estime que le réseau social n’a aucun intérêt à vraiment lutter contre ces contenus, dont le partage lui rapporte tant. Tout comme TechCrunch, le Washington Post estime surtout que Facebook doit assumer son rôle de média, et non de plateforme faussement neutre qu’elle voudrait se donner.

Des internautes enfermés dans des « bulles de filtres » ?

L’accusation principale reste : l’enfermement des internautes dans une « bulle de filtres », avec des personnes. Cette expression, démocratisée en 2011 par Eli Pariser, cofondateur d’Upworthy, vise à dénoncer l’influence présumée qu’a la personnalisation à outrance de l’information sur chacun de nous.

Après l’élection de Trump, selon Joshua Benton, directeur du Nieman Journalism Lab à Harvard, le premier réseau social mondial a « militarisé la bulle de filtres ». Pour lui, il devrait traiter différemment les contenus « de toute évidence faux », comme l’annonce que le pape François a soutenu le candidat républicain.

Comme nous l’explique le chercheur Antonio Casilli, la notion de « bulle de filtres » aurait un intérêt scientifique limité. Des concepts comme l’entre-soi, l’homophilie ou la chambre d’écho expriment des idées proches depuis des décennies. « C’est une métaphore qui a été popularisée par Eli Pariser, à des fins de mobilisation politique » affirme-t-il. En fait, « choisir de les appeler bulles de filtre, c’est porter un jugement. Un jugement qui ne m’aide pas particulièrement à comprendre ce qu’il se passe dedans ».

Le terme impliquerait que la situation n’a que des inconvénients. « Très souvent, lorsque l’on parle de bulles de filtres, on se limite à dire qu’elles existent et que c’est mal, ce qu’elles ne sont pas forcément » explique Casilli, pour qui il faut dépasser cette simple identification. Des questions comme le contenu de ces bulles, leur intérêt (partager une information ou être ensemble), leur évolution et les ponts entre ces différentes bulles sont « cruciales ».

Le graphe social et les phénomènes de réseaux

À la base, il y a l’idée du graphe social : dans le réseau d’amis d’une personne, chacune est un nœud connecté à d’autres. Comme dans tout réseau, les liens sont bien plus denses dans certaines zones que dans d’autres. Ce sont ces communautés, cet « entre-soi », qui peuvent être appelées « bulles de filtres ».

Comme l’explique Antonio Casilli, avant même toute intervention logicielle d’un Facebook, il y a une tendance humaine à se rapprocher de ceux qui nous ressemblent. « Certains experts, autant de sciences politiques ou des sociologues, ont insisté sur le fait qu’une communauté soudée et dense peut, par exemple, se caractériser par de la solidarité » rappelle le chercheur.

Les « bulles de filtres », comme les chambres d’écho jusqu’ici, dirigent l’analyse vers la manipulation de l’information, et du vote qui en découle dans le cas de la dernière élection américaine. Quand la chambre d’écho (un concept de sciences politiques) se concentre sur l’information, la « bulle de filtres » se concentre sur la structure du réseau, qui serait réduit artificiellement.

Pourtant, « croire que l’échange avec des personnes de tous bords se met en place automatiquement est naïf » nous déclare Casilli. Pour lui, un phénomène contraire aurait joué : la spirale de silence. « Si vous savez qu’autour de vous, des personnes ne partagent pas votre opinion, vous auto-censurez vos avis politiques » résume-t-il. S’agissant d’une spirale, cette censure s’intensifie au fil du temps, avec des effets « désastreux » sur la vie politique d’un pays comme les États-Unis.

« Je me demande dans quelle mesure, plutôt que de parler de bulle de filtres, il faudrait parler de refroidissement de la conversation démocratique aux États-Unis. Malgré les déclarations outrancières de Trump, personne ne s’est efforcé de le démonter complètement d’un point de vue logique et politique » ajoute l’expert.

Selon une étude du sociologue Keith Hampton (PDF), le simple fait de connaître l’étendue de la surveillance de la NSA, suite aux révélations d’Edward Snowden en 2013, aurait eu un effet de refroidissement (chilling effect) sur cette parole politique. Plutôt que d’encourager le débat, cela aurait justement limité sa tenue sur les réseaux sociaux.

Les algorithmes sont-ils responsables ?

Pourtant, les principaux accusés sont les algorithmes des plateformes, qui trient l’information pour l’internaute. Pour Guillaume Chevillon, professeur en économétrie et statistiques, le filtre des algorithmes en matière d’actualité est « dangereux pour le débat démocratique ». Habituellement, ils constituent même une défense pour Facebook, évitant à des humains d’intervenir dans la sélection, qui seraient vraiment taillés pour chaque utilisateur.

Le cœur du débat est donc celui de l’influence réelle des algorithmes, certains estimant qu’ils sont tout puissants, quand d’autres ne leur prêtent aucune agentivité. Pour Antonio Casilli, se dire pour ou contre les algorithmes ne tient d’ailleurs pas à cette puissance présumée. Face à eux qui pensent qu’une influence sur les comportements est nuisible (algophobes), « pour certains techno-enthousiastes extrêmement proches de l’industrie, cette surpuissance peut être considérée comme une bonne chose » estime le chercheur.

Parmi ceux qui estiment que les algorithmes ne jouent pas un rôle déterminant dans les choix des internautes, il y a Facebook lui-même. Dans une étude en 2014, l’entreprise affirmait que, s’il existe bien un effet proche d’un enfermement algorithmique, il découle des choix de l’internaute, qui est le principal responsable. « Cette explication est complètement bidon » analyse sèchement Casilli, pour qui il existe un effet de mise en boucle entre les choix de l’utilisateur et ce que lui propose un algorithme, sur la base de critères prédéfinis.

« Sur 1 000 amis sur Facebook, si je vois toujours les mêmes, j’aurai tendance à penser que ce sont les seules personnes à utiliser le site. D’où cette illusion selon laquelle certains amis sont très actifs, quand les autres sont une majorité silencieuse. Alors qu’il s’agit surtout d’une majorité que l’algorithme déréférence et ne permet pas de voir à tout moment » détaille le spécialiste. Il faudrait donc manipuler la logique algorithmique, en interagissant sciemment avec des personnes plus éloignées, pour revoir cet effet. Autrement dit, il faut effectuer un effort supplémentaire et entrainer l’algorithme dans un autre sens. Autant de travail pour l’utilisateur.

« Croire que l’algorithme est tout puissant est vraiment un piège politique qui nous amène au pire de l’abdication à la résistance et à la négation. De l’autre côté, laisser faire l’algorithme, en disant que l’utilisateur est toujours responsable, est une injonction contradictoire, désastreuse dans d’autres domaines de la vie politique » poursuit-il. Sur-responsabiliser les utilisateurs serait une manière de dédouaner les concepteurs et les propriétaires des algorithmes, y compris le but et les critères qu’ils lui donnent. « L’algorithme n’existe pas, c’est toujours le choix d’un autre » résume Casilli.

Des actions promises contre les sites d’actualités « bidons »

Deux jours après l’élection, Mark Zuckerberg a d’abord nié toute influence de Facebook sur l’élection. Selon lui, les actualités « bidons » sont une part minime des contenus diffusés, et qu’« il faut un grand manque d’empathie pour penser que des gens ont voté Trump uniquement à cause d’actualités bidons ». De même, déterminer la véracité d’un contenu peut être difficile, notamment sur les questions politiques.

Il reste que les nombreuses mises en cause publiques ont porté leurs fruits. À la mi-novembre, Facebook et Google ont annoncé qu’ils refuseront d’afficher des publicités sur des sites diffusant de fausses actualités. Une action forte, censée éliminer l’incitation à créer de faux contenus « à clic », de la part des deux principales plateformes publicitaires du Net… qui vivent elles-mêmes du trafic de ces sites.

Le 18 novembre, Mark Zuckerberg a fourni un plan pour lutter contre ces contenus. Cette fois, il dit prendre « la désinformation au sérieux » et affirme que Facebook a une responsabilité dans l’information. « Nous ne voulons pas devenir des arbitres de la vérité, mais plutôt compter sur notre communauté et des tiers de confiance » explique-t-il.

Concrètement, le réseau social doit mettre en place une meilleure détection de ces contenus, faciliter leur signalement et s’aider de la vérification de tiers de confiance en matière de fact-checking. Il compte aussi afficher des avertissements si un contenu est signalé comme faux, à la lecture ou au partage, en plus d’améliorer la qualité des contenus présents dans le flux d’actualité et de « décourager économiquement les fausses informations ». Cela dans un dialogue constant avec les médias. L’entreprise bat publiquement sa coulpe sur le sujet.

Facebook peut donc difficilement continuer à s’affirmer neutre. « Depuis dix ans, il cherche à se déresponsabiliser, à se présenter comme une entreprise parmi d’autres qui a un rôle modeste dans un monde qui change. C’est une attitude indéfendable, surtout après la manière dont Facebook s’est imposé comme intermédiaire d’information, avec des responsabilités » réagit Antonio Casilli.

Publiée le 23/11/2016 à 09:32