algorithmes

Mon texte sur l’actualité des luttes abolitionnistes publié dans le magazine Le 1 Hebdo (14 mars 2022)

Le magazine Le 1 Hebdo publie ma tribune sur l’abolitionnisme, entre lutte contre la dissuasion nucléaire et limitation des algorithmes. Ce texte est né d’une conversation avec la journaliste Marie Deshaye.


Abolition

Antonio A. Casilli

Quel est le point commun entre la lutte contre l’esclavagisme, contre la prolifération des armes nucléaires et contre le manque de contrôle des algorithmes ? C’est, à chaque fois, la volonté d’abolir une institution disciplinaire, nous dit le sociologue spécialiste du numérique.

Dans une situation de risque de guerre nucléaire, il est important de rappeler l’histoire du mot abolition. Prenons la Campagne internationale pour l’abolition des armes nucléaires (ICAN), qui existe depuis quinze ans et avait reçu le prix Nobel pour la paix en 2017. Sa visée est radicale : non seulement interdire, mais “abolir” les armes atomiques.
Cette campagne se rattache à un mouvement beaucoup plus vaste et plus ancien : celui qui, du combat pour l’abolition de l’esclavage au XVIIIe et XIXe siècle, conduit à la lutte contre la peine de mort, contre le système pénal et la police. Il s’agit d’un mouvement très varié, dont la visée politique est la suppression d’institutions considérées comme des formes de répression, ainsi que des sources d’injustice et d’inégalités sociales.

Pour les abolitionnistes, la peine de mort et les prisons sont considérées comme une de prolongation de l’esclavage. Comme ce dernier, elles punissent et disciplinent les corps de populations opprimées. Aux États-Unis, la population carcérale est énorme et très inégalement répartie ; les personnes racisées sont surreprésentées. Les prisonniers sont, de plus, encouragés à travailler pour des activités peu rémunérées.

On voit donc que le mouvement abolitionniste a su à chaque fois changer son cap et sa cible, toujours en restant sur une critique des institutions : c’est toujours le point de départ.

Récemment, d’autres formes d’abolitionnisme se sont manifestées, notamment avec la pensée de toute une nouvelle génération de militants aux États-Unis. En 2020, alors que la crise sanitaire battait son plein, un événement déclencheur, le meurtre de Georges Floyd, a catalysé l’organisation et la structuration d’un mouvement d’abolition de la police. La revendication est de limiter son budget, de la démilitariser. Par opposition, en France on assiste à l’explosion de l’usage de nouvelles armes par les policiers et les gendarmes. Depuis 2010, les tirs d’armes “non létales” sont passés de 1 000 à plus de 32 000 par an. Parfois, l’abolition de la police peut aller jusqu’à la volonté de s’en passer totalement, en réorganisant les collectivités humaines et locales, dans lesquelles on peut gérer l’ordre public d’une manière préventive plutôt que punitive. Il s’agit d’une vision de la justice réparatrice, basée sur le dialogue, l’entraide et l’inclusion.

Le lien entre ces événements apparemment disparates est toujours la volonté politique d’abolir une institution. Et l’esclavage, la prison, la police et le nucléaire doivent justement être considérés comme des institutions qui règlent la vie humaine de manière répressive. Le nucléaire militaire, par exemple, impose de choix de politiques publiques même aux Etats qui poursuivent des processus de dénucléarisation. Face à la menace nucléaire de Vladimir Poutine, l’Allemagne a tout de suite décidé de consacrer 2 % de son PIB aux dépenses militaires. Si le problème de l’Allemagne est la dépendance aux énergies fossiles fournies par la Russie, consacrer 100 milliards d’euros pour poursuivre une transition énergétique significative aurait été une politique à long terme plus intéressante, mais ce n’est pas ce choix qui a été retenu.

Il y a également un lien entre le mouvement abolitionniste et ce dont je m’occupe dans mon activité de chercheur, le numérique. Certes, la réflexion est pour l’instant extrêmement exploratoire, avec une tentative de structuration des luttes. Quel est le lien entre abolition, big data et algorithmes ? C’est le fait que pour un nombre croissant de chercheuses et de chercheurs, il existe une continuité entre des formes d’oppression anciennes et les mesures d’aides aux personnes précaires, de plus en plus automatisées. Les enquêtes de l’américaine Virginia Eubanks montrent comment l’isolement et la discrimination algorithmique ont succédé à l’enfermement physique dans les hospices pour les indigents d’antan. Ces formes de gestion automatisée de l’assistance peuvent parfois créer des véritables désastres dans la vie des pauvres, des migrants, des minorités sexuelles. L’idée est donc d’abolir la gestion automatique de ces aides pour en venir à une gestion réellement humaine, ce qui est d’ailleurs cohérent avec la législation existante. L’article 22 du Règlement général sur la protection des données (RGPD) précise ainsi que les citoyens ont le droit de ne pas faire l’objet de décisions entièrement automatisées.

Cela explique qu’un nombre croissant de chercheuses et chercheurs aient cessé de considérer les effets négatifs des technologies simplement comme les conséquences de biais de programmation. La reconnaissance faciale, par exemple, n’est pas seulement dangereuse parce qu’elle est moins précise dans l’identification de personnes qui ne sont pas des hommes blancs. Elle est délétère pour la démocratie puisqu’elle constitue la continuation de politiques de domination anciennes sur les populations, dont l’émancipation passe aussi par une mouvement populaire d’abolition.
 

[Vidéo] [séminaire #ECNEHESS] Angèle Christin (ft. Berlin Tech Workers Coalition) : “De l’éthique à l’ethnographie des algorithmes” (wébinaire, 11 mars 2021, 19h)

La quatrième séance d’approfondissement de notre séminaire #ecnEHESS Étudier les cultures du numérique (organisée en collaboration avec la Gaîté Lyrique) a eu lieu en version wébinaire le jeudi 11 mars 2021, de 19h à 21h. Les échanges se sont déroulés en anglais.

Dans ce séminaire, Angèle Christin (Université Stanford), auteure entre autres de Metrics at Work. Journalism and the Contested Meaning of Algorithms (Princeton University Press, 2020) plaide pour l’articulation entre grands principes de l’éthique des algorithmes et observation ethnographique de leur conception et usages afin de prendre en compte leurs conséquences sociales inattendues.

Dans le rôle de discutant/contrepoint, le militant Yonatan Miller, membre de la Berlin Tech Workers Coalition, organisation de protection des droits des travailleurs du secteur technologique.

⚠️ La séance a eu lieu en distanciel sur Plein Écran, la plateforme de vidéoconférences de la Gaîté Lyrique : https://gaite-lyrique.net/plein-ecran/contenu/les-algorithmes-en-pratiques-de-lethique-a-lethnographie ⚠️


Les algorithmes en pratiques: De l’éthique à l’ethnographie

Angèle Christin (Université Stanford)

Les recherches actuelles sur les algorithmes et l’intelligence artificielle articulent d’importantes critiques concernant l’opacité, la discrimination et la surveillance que ces formes technologiques représentent et amplifient. Suite à ces critiques, de nombreux travaux ont apellé au développement d’une “éthique des algorithmes” autour de concepts comme “fairness, accountability, and transparency”. Angèle Christin soutient ici qu’en plus de ces critiques, qui portent principalement sur les instruments eux-mêmes, il est essentiel de réinscrire les algorithmes dans une analyse fine des usages afin de mieux comprendre leurs effets problématiques sur le monde social. En particulier, nous devons inscrire explicitement les algorithmes dans la recherche ethnographique, qui peut faire la lumière sur leurs aspects inattendus. La présentation illustre ces points à partir d’une recherche ethnographique sur les algorithmes prédictifs dans la justice pénale américaine. Angèle Christin conclut en discutant des implications de cette boîte à outils pour l’étude des systèmes sociotechniques. 

Grand entretien dans la revue Relations [no. 808 – mai-juin 2020]

Par : Emiliano Arpin-Simonetti 

Dans son dernier ouvrage En attendant les robots. Enquête sur le travail du clic (Seuil, 2019), Antonio A. Casilli, professeur de sociologie à Télécom Paris (Institut Polytechnique de Paris), lève le voile sur la face cachée du boom de l’intelligence artificielle : les millions de travailleurs et de travailleuses du clic nécessaires au fonctionnement des machines dites intelligentes. Gratuit ou sous-payé, ce travail, largement invisibilisé et souvent sous-traité dans les pays du Sud global, bouscule le monde du travail et fait apparaître le caractère trompeur de l’automatisation généralisée. Nous en avons discuté avec lui.

Article accessible sur la revue Relations.

Relations808_mai-juin2020

Tribune dans Le Monde (6 févr. 2020)

« L’avènement du dresseur d’intelligences artificielles »

Tribune. Face aux inquiétudes autour de l’effacement annoncé du travail humain par une vague d’automates intelligents, nos sociétés doivent encore apprendre à se poser les bonnes questions. Un réflexe sain consisterait à cesser d’ergoter sur le nombre exact d’emplois qui seront remplacés à l’avenir et demander plutôt combien sont d’ores et déjà en passe de se métamorphoser en digital labor. Cette expression désigne littéralement le « travail du doigt », qui clique et produit des données.

Depuis des décennies, la numérisation grandissante des professions manuelles et intellectuelles amplifie la composante de production de data au sein de tout métier. La tendance est liée à l’exigence des entreprises de fragmenter et d’uniformiser leurs processus productifs pour les articuler avec des écosystèmes de prestataires externes, de sous-traitants, et parfois de communautés de producteurs non professionnels.

Ceci explique aussi la prolifération des plates-formes numériques, qui coordonnent ces acteurs en les transformant en main-d’œuvre docile et bon marché, disponible à flux tendu pour réaliser des tâches de plus en plus fragmentées. Partout sous nos yeux, ce travail de production de données tisse le quotidien des livreurs et des chauffeurs, qui gèrent leurs profils sur l’appli Uber et se géolocalisent sur leurs GPS.

Mais il est aussi l’occupation des modérateurs de YouTube et Facebook, qui filtrent à longueur de journée des contenus multimédias. Même le travail gratuit que chacun d’entre nous réalise en effectuant des « reCAPTCHA » (les fenêtres surgissantes qui nous enjoignent de démontrer que nous ne sommes pas un robot) pour Google enseigne aux véhicules autonomes du géant de Mountain View à reconnaître des feux de circulation et des passages pour piétons.

Se situant sur un continuum, entre activités sous-payées ou non rémunérées, ces tâches numériques contribuent à l’automatisation de nos métiers. Métier du futur : dresseur d’intelligences artificielles, accordeur des algorithmes qui permettent à nos robots de livrer, conduire, manœuvrer.

Alors même que ce travail du clic est l’ingrédient secret de notre automatisation, il n’est aujourd’hui qu’insuffisamment encadré par la protection sociale et encore en quête de reconnaissance politique. Ce travail humain est là pour durer, mais, si nos luttes n’aboutissent pas à de nouveaux conquis sociaux, il le sera dans des conditions d’exploitation et d’invisibilité généralisées.

[Slides séminaire #ecnEHESS] Plateformes numériques : gouvernementalité algorithmique et libertés (Olivier Ertzscheid)

Dans le cadre du séminaire EHESS Étudier les cultures du numérique j’ai eu le plaisir d’accueillir Olivier Ertzscheid, maître de conférence à l’Université de Nantes, agitateur culturel inlassable sur son blog Affordance.info, auteur de plusieurs ouvrages sur l’identité numérique, l’e-réputation, la littérature connectée.

Celle du 8 janvier 2018 a été une séance très riche (et très peuplée), ayant comme point de départ le dernier livre d’Olivier Ertzscheid, L’appétit des géants, paru en 2017 chez C & F Éditions (full disclosure : j’ai eu l’honneur d’écrire la préface).

Voilà les slides de sa présentation :

Titre : L’appétit des géants: Pouvoir des algorithmes, ambitions des plateformes

Intervenant : Olivier Ertzscheid

Résumé : Les Etats-Unis viennent d’acter la fin du principe de neutralité du net ; certains des créateurs de Facebook traversent un syndrome de Frankenstein et parlent de leur créature comme d’un « monstre » ou « d’une merde » (sic) ; de plus en plus d’ingénieurs de la Silicon Valley traversent une crise éthique qui les amène à critiquer le rôle des technologies qu’ils ont eux-mêmes construits. C’est aujourd’hui que la question posée depuis plus de 10 ans par Tim Berners Lee apparaît comme absolument cruciale d’un point de vue sociétal, économique mais aussi politique : quel est le rôle joué par les « jardins fermés » et les plateformes dans la normalisation d’usages de plus en plus contraints, aliénants et à rebours de la philosophie initiale du projet web ? Autour de l’ouvrage « L’appétit des géants », et au travers de quelques exemples touchant notamment aux questions de gouvernementalité algorithmique et de libertés numériques, nous nous interrogerons sur ce que les nouvelles formes de calcul et de computation à l’œuvre dans ces plateformes sont en capacité de produire ou d’induire comme nouvelles formes de compréhension du monde. Et peut-être (et cela semble inédit à l’échelle de l’épistémologie des sciences) de quelles formes de compréhension du monde ces nouvelles formes de calcul peuvent également nous priver.

Pagina99 (Italie, 16 juin 2017)

Nel quotidiano Pagina99, numero speciale del weekend 17 giugno 2017 “algoritmi e sorveglianza”, una lunga intervista rilasciata al giornalista Samuele Cafasso.

I nuovi schiavi degli algoritmi

Per costruire le macchine al servizio dell’uomo, i grandi gruppi del digitale impiegano una moltitudine di persone. Spesso in condizioni definibili come sfruttamento. L’intervista di pagina99 al sociologo Casilli.

  • SAMUELE CAFASSO

Prima di chiederci se l’intelligenza artificiale e i robot ci toglieranno il lavoro, dovremmo chiederci quanto e quale lavoro serve per costruire le intelligenze artificiali. Scopriremmo così un grande paradosso: per costruire le macchine al servizio dell’uomo, i grandi gruppi del digitale stanno usando una moltitudine di persone a servizio delle macchine, spesso facendole lavorare in condizioni definibili come sfruttamento. La tesi è di Antonio Casilli, professore associato al Paris Institute of Technology e ricercatore al Centro Edgar Morin, tra i più acuti studiosi europei dell’impatto delle tecnologie digitali sulle nostre strutture sociali. L’abbiamo intervistato in occasione del Jobless society forum organizzato a Milano dalla Fondazione Feltrinelli.

D. Casilli, di quale intelligenza artificiale stiamo parlando e perché, per essere realizzata, questa richiede lo sfruttamento dell’uomo?
R. I grandi gruppi digitali come Google, o Facebook, hanno la loro ragione d’essere nel costituirsi come piattaforme di servizi per i propri utenti. Sono anche un riferimento per le altre imprese, di cui inglobano e coordinano le attività. Per svolgere il loro compito ricorrono sempre più spesso a sistemi automatici di funzionamento. In pratica si tratta di software costruiti grazie al machine learning, sistemi di apprendimento automatico: ogni dato inserito permette alla macchina di raffinare il proprio funzionamento, di specializzarsi riducendo gli errori. Serve però una mole enorme di dati, e di buona qualità. Questi dati sono prodotti e raffinati da noi, esseri umani.

D. È il sistema che sta alla base dei traduttori online, o dei “risponditori” automatici come Siri, o Cortana. Ma per il machine learning non basta il lavoro non retribuito che eseguiamo noi come utenti attraverso la nostra navigazione, l’uso dei dispositivi, i like che inseriamo sui social network e altro ancora?
R. Questa raccolta di dati è importantissima. I big data a disposizione di Facebook con i suoi 1,8 miliardi di profili, o le centinaia di milioni di clienti di Amazon, sono alla base del processo di machine learning. Ma le grandi piattaforme, lo sappiamo per certo, non si limitano a raccogliere i dati in maniera passiva. Questi dati vanno rielaborati, sistematizzati, annotati. C’è troppo “rumore” perché siano utilizzabili così come sono. E qui entra in gioco il microlavoro umano.

D. Di quali compiti stiamo parlando, in concreto?
R. Stiamo parlando di compiti che, presi singolarmente, sono minimi. Facciamo qualche esempio: selezionare, tra otto foto che compaiono sullo schermo, quelle in cui compare un determinato elemento, ad esempio un lago o l’insegna di un negozio. Individuare in qualche secondo se un sito è “solo per adulti”. Correggere lo spelling nella trascrizione di testi, brevissimi, di appena qualche parola. E altro ancora. Microcompiti che vengono spesso appaltati attraverso le piattaforme di micro-lavoro per qualche centesimo l’una, a volte anche meno.

D. Quali aziende sono coinvolte?
R. Ogni grande gruppo può contare su piattaforme a questo in qualche modo collegate. La più nota di tutte è Mechanical Turk di Amazon, il cui nome già dice tutto. Il “turco meccanico” è il nome di un robot giocatore di scacchi sviluppato alla fine del 1700. Vestito appunto come un turco, in realtà celava al suo interno una persona. Il robot, insomma, si muoveva solo grazie all’uomo. Google utilizza una piattaforma che si chiama Ewoq, Microsoft ha Uhrs, Ibm ricorre a Mighty Ai, Apple utilizza per la geolocalizzazione Try Rating. E poi ci sono tante piattaforme di microlavoro generaliste.

D. Chi si fa carico di questi lavori?
R. Se guardiamo al mercato dei click, vediamo che i primi utilizzatori si trovano negli Stati Uniti, in Paesi europei come la Francia, o la Gran Bretagna, in Canada, Australia. Lì si concentrano le imprese che reclutano microlavoratori per allenare le intelligenze artificiali. Chi vende prestazioni invece si trova soprattutto in India, Pakistan, Filippine, Malesia, America Centrale. Spesso si tratta di persone che lavorano da casa, ma ci sono realtà molto più dure. Alcuni operano negli equivalenti digitali dei call center, in grandi stanze ingombre di computer, una a fianco all’altra, in condizioni precarie. Sono le click-farm, di cui si parla oramai da anni. Lo schema che aveva notato Naomi Klein alla fine degli anni Novanta con il libro No Logo, per cui la globalizzazione e la delocalizzazione delle imprese tendeva a riprodurre schemi di potere di tipo colonialista, oggi si ripropone. Questa volta a essere mobili non sono i capitali e la produzione delle merci, ma il mercato del lavoro. Anche quando queste persone si trovano nei Paesi occidentali, nel Nord globale, sono persone spesso ai margini. Il microlavoro ha tendenza a riprodurre forme di esclusione classiche. Le donne sono particolarmente toccate, o i portatori di handicap. In alcuni casi, forme di precarietà più estreme fanno di questa forza lavoro un vero e proprio “esercito industriale di riserva” composto di ex-detenuti, persone senza domicilio fisso, lavoratori recentemente immigrati con secoli di storia di sfruttamento alle loro spalle. Alcune piattaforme (diverse da quelle citate qui sopra e non direttamente riferibili ai grandi gruppi del digitale, ndr.) come Mobileworks si fanno un vanto di impiegare «comunità di sotto-occupati negli Stati Uniti e nel mondo». I programmi di lavoro nelle carceri americane oggi includono compiti come data entry, trascrizioni di testi, preparazione di documenti. Anche quando gli utenti di queste piattaforme sono formalmente liberi, alcune imprese (come Microsourcing nelle Filippine) mimano il linguaggio delle colonie penali, promettendo alle imprese occidentali che i loro microlavori saranno eseguiti da persone «virtualmente in cattività».

D. Quali responsabilità abbiamo come utenti delle piattaforme e come cittadini?
R.
Se pensiamo che i nostri comportamenti individuali possano in qualche modo influire su queste dinamiche facciamo un errore enorme. Non possiamo separare i mercati di lavoro tradizionali, presenziali, da quelli delle piattaforme di microlavoro. I conflitti e le tensioni tra lavoratori scatenati dalle delocalizzazioni e dalla mobilità internazionale di imprese e individui si riproducono online. Questo è un problema globale che richiede risposte globali. È il legislatore, nazionale e sovranazionale, che deve assecondare i movimenti di auto-organizzazione di lavoratori per riaffermare i loro diritti. Un ruolo importante possono averlo anche i sindacati tradizionali. Anche se qui in Europa hanno reputazione di essere in ritardo rispetto a queste evoluzioni tecnologiche, sono loro che conservano infrastrutture, saperi forti su come gestire il conflitto e il dialogo sociale, radici tra i lavoratori e capacità di rapportarsi con le aziende e il legislatore. Alcune realtà si stanno muovendo in questo senso, come la Cgt o Force Ouvrière in Francia, la Cgil in Italia, Ig Metall in Germania con il progetto Fair Crowd Work che permette di mettere in rete le esperienze dei lavoratori. È necessario che ci si muova in questa direzione».

Questo articolo è tratto dal nuovo numero di pagina99, “dalla Cina a Facebook – prove di controllo totale”, in edicola, digitale e abbonamento dal 16 al 22 giugno 2017.

[Vidéo] Grand entretien Mediapart : l’impact des fermes à clic sur les élections (17 déc. 2016)

J’ai rendu visite à la rédaction de Mediapart pour une interview vidéo sur “fake news”, algorithmes et tâcherons du clic.

Je résume mes positions : lorsque le sage montre la désinformation, l’idiot déblatère contre les bulles de filtre. Moi, je regarde plutôt le travail de millions de tâcherons du clic qui créent des effets de résonance de ces messages idéologiquement connotés. L’un des ingrédients majeurs de la campagne de Donald Trump a été sa politique sans scrupules d’achat de clics, likes, followers (v. ma tribune dans l’Obs).

Est-ce que des candidats français d’extrême droite sont en train d’adopter la même stratégie ? La question est légitime. Et il est urgent de vérifier sur les marchés du micro-travail numérique français et internationaux que des acteurs politiques (autant systémiques qu'”anti-système”) ne soient pas en train d’acquérir des clics à la pièce.

C’est en enjeux de démocratie : comme dans les médias audiovisuels on adopte une règle d’égalité du temps de parole des candidats pour garantir le pluralisme, de la même manière il faut s’assurer que les partis politiques ne soient pas en train d’obtenir subrepticement du temps de parole supplémentaire sur internet en achetant des tweets, des likes et des contenus viraux afin de créer des “spirales de silence” qui musèlent les opposants sur les médias sociaux.

Bulles de filtres, spirales de silence, algorithmes et politique (NextINpact, 23 nov. 2016)

(Article paru sur NextINpact, 23 novembre 2016)

Élection de Trump : influence ou innocence, le rôle de Facebook en questions

image dediée
Crédits : fotostorm/iStock
Web

La diffusion massive d’informations erronées aurait contribué à l’élection de Donald Trump à la tête des États-Unis. Facebook, ses algorithmes et son modèle publicitaire ont rapidement été désignés comme principaux responsables. Qu’en est-il vraiment ? Nous avons compilé les critiques et en avons discuté avec le chercheur Antonio Casilli.

Le 8 novembre dernier, Donald Trump était élu président des États-Unis. Une surprise pour nombre de médias américains et français, qui avaient soutenu la candidate démocrate, Hillary Clinton. Au-delà des questions politiques que soulève cet événement, un phénomène a été montré du doigt : la montée d’une « nouvelle droite » dure (alt-right). Elle aurait été portée par la production d’actualités « bidons », diffusées massivement en ligne sans être régulées ou vérifiées.

Nous serions dans l’ère de la post-vérité, où la véracité d’un fait serait moins importante que sa capacité à confirmer notre vision du monde. Outre de sites politiques, ces contenus « bidons » proviendraient de sites dédiés, produisant en masse des articles accrocheurs pour vivre de la publicité. Ces contenus auraient été propulsés par les algorithmes des réseaux sociaux, mettant mécaniquement en avant les articles populaires.

De fausses informations et des « bulles de filtres »

Le Washington Post a d’ailleurs interrogé le propriétaire de plusieurs de ces sites « bidons ». Celui-ci pense avoir joué un rôle dans cette élection, notamment en créant de toutes pièces des événements, largement relayés sans être vérifiés. Ses articles ont d’ailleurs été mis en avant par des proches de Trump, et apparaissaient en bonne place sur Google, en plus des nombreux partages sur Facebook.

Avec Twitter, ce dernier aurait eu un rôle important dans la campagne, en filtrant à outrance les actualités et en maintenant les internautes dans « une bulle de filtres », masquant toute idée ou personne dissonante. L’hyper-personnalisation serait devenue un danger démocratique, d’abord nié par les producteurs des algorithmes, qui ont ensuite promis de s’amender.

Sur le fond, ces événements posent la question du rôle démocratique des plateformes et de la puissance prêtée aux algorithmes (qu’on les estime inoffensifs ou tout puissants). L’émergence récente du concept de « bulle de filtres » renvoie aux réflexions anciennes sur le rôle des médias, que Facebook ou Twitter seraient devenus, à part entière. Pour explorer le sujet, nous avons retracé le cours du débat et discuté avec Antonio Casilli, chercheur spécialiste des réseaux sociaux et du travail numérique.

Les réseaux sociaux accusés d’être des nids à informations « bidons »

Suite à l’élection, les plateformes en ligne ont été rapidement accusées d’avoir contribué à la montée de l’alt-right, en lui fournissant les outils pour étendre son influence et ses nombreuses approximations, voire mensonges répétés en boucle. De quoi déclencher une forte pression publique sur ces sociétés, dans les jours qui ont succédé au scrutin.

Selon une analyse de Buzzfeed News, sur Facebook, les 20 fausses actualités les plus populaires liées aux élections ont été bien plus partagées que les 20 venant de médias grand public. Les contenus de sites « bidons » auraient ainsi été diffusés 8,7 millions de fois, contre près de 7,4 millions de fois pour celles plus sérieuses. En clair, les sites d’hoaxes feraient leur beurre via Facebook.

Le 14 novembre, TechCrunch demandait à Facebook de « combattre la peste des fausses informations avant de gâcher les élections d’autres pays ». Pour le magazine, la plateforme « a eu un rôle important dans l’avènement de Donald Trump ». Elle n’aurait pas suffisamment agi contre les fausses actualités, étant certaines des plus lues et partagées, contribuant d’autant aux résultats financiers de la société californienne.

Une analyse partagée par The Guardian, qui estime que le réseau social n’a aucun intérêt à vraiment lutter contre ces contenus, dont le partage lui rapporte tant. Tout comme TechCrunch, le Washington Post estime surtout que Facebook doit assumer son rôle de média, et non de plateforme faussement neutre qu’elle voudrait se donner.

Des internautes enfermés dans des « bulles de filtres » ?

L’accusation principale reste : l’enfermement des internautes dans une « bulle de filtres », avec des personnes. Cette expression, démocratisée en 2011 par Eli Pariser, cofondateur d’Upworthy, vise à dénoncer l’influence présumée qu’a la personnalisation à outrance de l’information sur chacun de nous.

Après l’élection de Trump, selon Joshua Benton, directeur du Nieman Journalism Lab à Harvard, le premier réseau social mondial a « militarisé la bulle de filtres ». Pour lui, il devrait traiter différemment les contenus « de toute évidence faux », comme l’annonce que le pape François a soutenu le candidat républicain.

Comme nous l’explique le chercheur Antonio Casilli, la notion de « bulle de filtres » aurait un intérêt scientifique limité. Des concepts comme l’entre-soi, l’homophilie ou la chambre d’écho expriment des idées proches depuis des décennies. « C’est une métaphore qui a été popularisée par Eli Pariser, à des fins de mobilisation politique » affirme-t-il. En fait, « choisir de les appeler bulles de filtre, c’est porter un jugement. Un jugement qui ne m’aide pas particulièrement à comprendre ce qu’il se passe dedans ».

Le terme impliquerait que la situation n’a que des inconvénients. « Très souvent, lorsque l’on parle de bulles de filtres, on se limite à dire qu’elles existent et que c’est mal, ce qu’elles ne sont pas forcément » explique Casilli, pour qui il faut dépasser cette simple identification. Des questions comme le contenu de ces bulles, leur intérêt (partager une information ou être ensemble), leur évolution et les ponts entre ces différentes bulles sont « cruciales ».

Le graphe social et les phénomènes de réseaux

À la base, il y a l’idée du graphe social : dans le réseau d’amis d’une personne, chacune est un nœud connecté à d’autres. Comme dans tout réseau, les liens sont bien plus denses dans certaines zones que dans d’autres. Ce sont ces communautés, cet « entre-soi », qui peuvent être appelées « bulles de filtres ».

Comme l’explique Antonio Casilli, avant même toute intervention logicielle d’un Facebook, il y a une tendance humaine à se rapprocher de ceux qui nous ressemblent. « Certains experts, autant de sciences politiques ou des sociologues, ont insisté sur le fait qu’une communauté soudée et dense peut, par exemple, se caractériser par de la solidarité » rappelle le chercheur.

Les « bulles de filtres », comme les chambres d’écho jusqu’ici, dirigent l’analyse vers la manipulation de l’information, et du vote qui en découle dans le cas de la dernière élection américaine. Quand la chambre d’écho (un concept de sciences politiques) se concentre sur l’information, la « bulle de filtres » se concentre sur la structure du réseau, qui serait réduit artificiellement.

Pourtant, « croire que l’échange avec des personnes de tous bords se met en place automatiquement est naïf » nous déclare Casilli. Pour lui, un phénomène contraire aurait joué : la spirale de silence. « Si vous savez qu’autour de vous, des personnes ne partagent pas votre opinion, vous auto-censurez vos avis politiques » résume-t-il. S’agissant d’une spirale, cette censure s’intensifie au fil du temps, avec des effets « désastreux » sur la vie politique d’un pays comme les États-Unis.

« Je me demande dans quelle mesure, plutôt que de parler de bulle de filtres, il faudrait parler de refroidissement de la conversation démocratique aux États-Unis. Malgré les déclarations outrancières de Trump, personne ne s’est efforcé de le démonter complètement d’un point de vue logique et politique » ajoute l’expert.

Selon une étude du sociologue Keith Hampton (PDF), le simple fait de connaître l’étendue de la surveillance de la NSA, suite aux révélations d’Edward Snowden en 2013, aurait eu un effet de refroidissement (chilling effect) sur cette parole politique. Plutôt que d’encourager le débat, cela aurait justement limité sa tenue sur les réseaux sociaux.

Les algorithmes sont-ils responsables ?

Pourtant, les principaux accusés sont les algorithmes des plateformes, qui trient l’information pour l’internaute. Pour Guillaume Chevillon, professeur en économétrie et statistiques, le filtre des algorithmes en matière d’actualité est « dangereux pour le débat démocratique ». Habituellement, ils constituent même une défense pour Facebook, évitant à des humains d’intervenir dans la sélection, qui seraient vraiment taillés pour chaque utilisateur.

Le cœur du débat est donc celui de l’influence réelle des algorithmes, certains estimant qu’ils sont tout puissants, quand d’autres ne leur prêtent aucune agentivité. Pour Antonio Casilli, se dire pour ou contre les algorithmes ne tient d’ailleurs pas à cette puissance présumée. Face à eux qui pensent qu’une influence sur les comportements est nuisible (algophobes), « pour certains techno-enthousiastes extrêmement proches de l’industrie, cette surpuissance peut être considérée comme une bonne chose » estime le chercheur.

Parmi ceux qui estiment que les algorithmes ne jouent pas un rôle déterminant dans les choix des internautes, il y a Facebook lui-même. Dans une étude en 2014, l’entreprise affirmait que, s’il existe bien un effet proche d’un enfermement algorithmique, il découle des choix de l’internaute, qui est le principal responsable. « Cette explication est complètement bidon » analyse sèchement Casilli, pour qui il existe un effet de mise en boucle entre les choix de l’utilisateur et ce que lui propose un algorithme, sur la base de critères prédéfinis.

« Sur 1 000 amis sur Facebook, si je vois toujours les mêmes, j’aurai tendance à penser que ce sont les seules personnes à utiliser le site. D’où cette illusion selon laquelle certains amis sont très actifs, quand les autres sont une majorité silencieuse. Alors qu’il s’agit surtout d’une majorité que l’algorithme déréférence et ne permet pas de voir à tout moment » détaille le spécialiste. Il faudrait donc manipuler la logique algorithmique, en interagissant sciemment avec des personnes plus éloignées, pour revoir cet effet. Autrement dit, il faut effectuer un effort supplémentaire et entrainer l’algorithme dans un autre sens. Autant de travail pour l’utilisateur.

« Croire que l’algorithme est tout puissant est vraiment un piège politique qui nous amène au pire de l’abdication à la résistance et à la négation. De l’autre côté, laisser faire l’algorithme, en disant que l’utilisateur est toujours responsable, est une injonction contradictoire, désastreuse dans d’autres domaines de la vie politique » poursuit-il. Sur-responsabiliser les utilisateurs serait une manière de dédouaner les concepteurs et les propriétaires des algorithmes, y compris le but et les critères qu’ils lui donnent. « L’algorithme n’existe pas, c’est toujours le choix d’un autre » résume Casilli.

Des actions promises contre les sites d’actualités « bidons »

Deux jours après l’élection, Mark Zuckerberg a d’abord nié toute influence de Facebook sur l’élection. Selon lui, les actualités « bidons » sont une part minime des contenus diffusés, et qu’« il faut un grand manque d’empathie pour penser que des gens ont voté Trump uniquement à cause d’actualités bidons ». De même, déterminer la véracité d’un contenu peut être difficile, notamment sur les questions politiques.

Il reste que les nombreuses mises en cause publiques ont porté leurs fruits. À la mi-novembre, Facebook et Google ont annoncé qu’ils refuseront d’afficher des publicités sur des sites diffusant de fausses actualités. Une action forte, censée éliminer l’incitation à créer de faux contenus « à clic », de la part des deux principales plateformes publicitaires du Net… qui vivent elles-mêmes du trafic de ces sites.

Le 18 novembre, Mark Zuckerberg a fourni un plan pour lutter contre ces contenus. Cette fois, il dit prendre « la désinformation au sérieux » et affirme que Facebook a une responsabilité dans l’information. « Nous ne voulons pas devenir des arbitres de la vérité, mais plutôt compter sur notre communauté et des tiers de confiance » explique-t-il.

Concrètement, le réseau social doit mettre en place une meilleure détection de ces contenus, faciliter leur signalement et s’aider de la vérification de tiers de confiance en matière de fact-checking. Il compte aussi afficher des avertissements si un contenu est signalé comme faux, à la lecture ou au partage, en plus d’améliorer la qualité des contenus présents dans le flux d’actualité et de « décourager économiquement les fausses informations ». Cela dans un dialogue constant avec les médias. L’entreprise bat publiquement sa coulpe sur le sujet.

Facebook peut donc difficilement continuer à s’affirmer neutre. « Depuis dix ans, il cherche à se déresponsabiliser, à se présenter comme une entreprise parmi d’autres qui a un rôle modeste dans un monde qui change. C’est une attitude indéfendable, surtout après la manière dont Facebook s’est imposé comme intermédiaire d’information, avec des responsabilités » réagit Antonio Casilli.

Publiée le 23/11/2016 à 09:32

Qui a fait élire Trump ? Pas les algorithmes, mais des millions de “tâcherons du clic” sous-payés

Ce billet a été publié par L’Obs / Rue89 le 19 novembre 2016. Une version en anglais est disponible ici.

Le débat sur les responsabilités médiatiques (et technologiques) de la victoire de Trump ne semble pas épuisé. Moi par contre je m’épuise à expliquer que le problème, ce ne sont pas les algorithmes. D’ailleurs, la candidate “algorithmique” c’était Clinton : elle avait hérité de l’approche big data au ciblage des électeurs qui avait fait gagner Obama en 2012, et sa campagne était apparemment régie par un système de traitement de données personnelles surnommé Ada.

Au contraire, le secret de la victoire du Toupet Parlant (s’il y en a un) a été d’avoir tout misé sur l’exploitation de masses de travailleurs du clic, situés pour la plupart à l’autre bout du monde. Si Hillary Clinton a dépensé 450 millions de dollars, Trump a investi un budget relativement plus modeste (la moitié en fait), en sous-payant des sous-traitants recrutés sur des plateformes d’intermédiation de micro-travail.

Une armée de micro-tâcherons dans des pays en voie de développement

Vous avez peut-être lu la news douce-amère d’une ado de Singapour qui a fini par produire les slides des présentation de Trump. Elle a été recrutée via Fiverr, une plateforme où l’on peut acheter des services de secrétariat, graphisme ou informatique, pour quelques dollars. Ses micro-travailleurs résident en plus de 200 pays, mais les tâches les moins bien rémunérées reviennent principalement à de ressortissants de pays de l’Asie du Sud-Est. L’histoire édifiante de cette jeune singapourienne ne doit pas nous distraire de la vraie nouvelle : Trump a externalisé la préparation de plusieurs supports de campagne à des tacherons numériques recrutés via des plateformes de digital labor, et cela de façon récurrente. L’arme secrète de la victoire de ce candidat raciste, misogyne et connu pour mal payer ses salariés s’avère être l’exploitation de travailleuses mineures asiatiques. Surprenant, non ?

singapore-trump

Hrithie, la “tâcheronne numérique” qui a produit les slides de Donal Trump…

Mais certains témoignages de ces micro-travailleurs offshore sont moins édifiants. Vous avez certainement lu l’histoire des “spammeurs de Macédoine”. Trump aurait profité de l’aide opportuniste d’étudiants de milieux modestes d’une petite ville post-industrielle d’un pays ex-socialiste de l’Europe centrale devenus des producteurs de likes et de posts, qui ont généré et partagé les pires messages de haine et de désinformation pour pouvoir profiter d’un vaste marché des clics.

spam-macedonia

How Teens In The Balkans Are Duping Trump Supporters With Fake News

A qui la faute ? Au modèle d’affaires de Facebook

A qui la faute ? Aux méchants spammeurs ou bien à leur manditaires ? Selon Business Insider, les responsables de la comm’ de Trump ont directement acheté presque 60% des followers de sa page Facebook. Ces fans et la vaste majorité de ses likes proviennent de fermes à clic situées aux Philippines, en Malaysie, en Inde, en Afrique du Sud, en Indonesie, en Colombie… et au Méxique. (Avant de vous insurger, sachez que ceci est un classique du fonctionnement actuel de Facebook. Si vous n’êtes pas au fait de la façon dont la plateforme de Zuckerberg limite la circulation de vos posts pour ensuite vous pousser à acheter des likes, cette petite vidéo vous l’explique. Prenez 5 minutes pour finaliser votre instruction.)

Bien sûr, le travail dissimulé du clic concerne tout le monde. Facebook, présenté comme un service gratuit, se révèle aussi être un énorme marché de nos contacts et de notre engagement actif dans la vie de notre réseau. Aujourd’hui, Facebook opère une restriction artificielle de la portée organique des posts partagés par les utilisateurs : vous avez 1000 « amis », par exemple, mais moins de 10% lit vos messages hilarants ou regarde vos photos de chatons. Officiellement, Facebook prétend qu’il s’agit ainsi de limiter les spams. Mais en fait, la plateforme invente un nouveau modèle économique visant à faire payer pour une visibilité plus vaste ce que l’usager partage aujourd’hui via le sponsoring. Ce modèle concerne moins les particuliers que les entreprises ou les hommes politiques à la chevelure improbable qui fondent leur stratégies marketing sur ce réseau social : ces derniers ont en effet intérêt à ce que des centaines de milliers de personnes lisent leurs messages, et ils paieront pour obtenir plus de clics. Or ce système repose sur des « fermes à clics », qui exploitent des travailleurs installés dans des pays émergents ou en voie de développement. Cet énorme marché dévoile l’illusion d’une participation volontaire de l’usager, qui est aujourd’hui écrasée par un système de production de clics fondé sur du travail caché—parce que, littéralement, délocalisé à l’autre bout du monde.

Flux de digital labor entre pays du Sud et pays du Nord

Une étude récente de l’Oxford Internet Institute montre l’existence de flux de travail importants entre le sud et le nord de la planète : les pays du Sud deviennent les producteurs de micro-tâches pour les pays du Nord. Aujourd’hui, les plus grands réalisateurs de micro-taches se trouvent aux Philippines, au Pakistan, en Inde, au Népal, à Hong-Kong, en Ukraine et en Russie, et les plus grands acheteurs de leurs clics se situent aux Etats-Unis, au Canada, en Australie et au Royaume-Uni. Les inégalités classiques Nord/Sud se reproduisent à une échelle planétaire. D’autant qu’il ne s’agit pas d’un phénomène résiduel mais d’un véritable marché du travail : UpWork compte 10 millions d’utilisateurs, Freelancers.com, 18 millions, etc.

odesk_net_4_no-numbers

Micro-travailleurs d’Asie, et recruteurs en Europe, Australie et Amérique du Nord sur une plateforme de digital labor.

Nouvel “i-sclavagisme” ? Nouvel impérialisme numérique ? Je me suis efforcé d’expliquer que les nouvelles inégalités planétaires relèvent d’une marginalisation des travailleurs qui les expose à devoir accepter les tâches les plus affreuses et les plus moralement indéfendables (comme par exemple aider un candidat à l’idéologie clairement fasciste à remporter les élections). Je l’explique dans une contribution récente sur la structuration du digital labor en tant que phénomène global (attention : le document est en anglais et fait 42 pages).  Que se serait-il passé si les droits de ces travailleurs du clics avaient été protégés, s’ils avaient eu la possibilité de résister au chantage au micro-travail, s’il avaient eu une voix pour protester contre et pour refuser de contribuer aux rêves impériaux d’un homme politique clairement dérangé, suivi par une cour de parasites corrompus ? Reconnaître ce travail invisible du clic, et le doter de méthodes de se protéger, est aussi – et avant tout – un enjeux de citoyenneté globale. Voilà quelques extraits de mon texte :

dllong1 dllong2 dllong3

Extrait de “Is There a Global Digital Labor Culture?” (Antonio Casilli, 2016)

Conclusions:

  1. Pour être plus clair : ce ne sont pas ‘les algorithmes’ ni les ‘fake news’, mais la structure actuelle de l’économie du clic et du digital labor global qui ont aidé la victoire de Trump.
  2. Pour être ENCORE plus clair : la montée des fascismes et l’exploitation du digital labor s’entendent comme larrons en foire. Comme je le rappelais dans un billet récent de ce même blog :

L’oppression des citoyens des démocraties occidentales, écrasés par une offre politique constamment revue à la baisse depuis vingt ans, qui in fine a atteint l’alignement à l’extrême droite de tous les partis dans l’éventail constitutionnel, qui ne propose qu’un seul fascisme mais disponible en différents coloris, va de pair avec l’oppression des usagers de technologies numériques, marginalisés, forcés d’accepter une seule offre de sociabilité, centralisée, normalisée, policée, exploitée par le capitalisme des plateformes qui ne proposent qu’une seule modalité de gouvernance opaque et asymétrique, mais disponible via différents applications.

Entretien : algorithmes et vie privée (Radio Nova, 16 nov. 2016)

Ce matin à 7h15 j’ai pris le premier café de la journée en compagnie d’Edouard Baer et de sa joyeuse bande de lurons sur Radio Nova, dans l’émission Plus Près De Toi. On a parlé algorithmes de recommandation, traçage sur internet, vie privée et données personnelles. Et on s’est demandé pourquoi Edouard reçois toujours des pubs d’actrices qui ont mal vieilli, alors que moi je ne reçois que des pubs pour baignoires pour séniors…

Bref, voilà le lien du podcast : Plus Près De Toi 16/11 | NOVAPLANET Mon entretien commence à 14′.