censure

[Séminaire #ecnEHESS] “Communiquer avec modération” avec Sarah T. Roberts (Gaité Lyrique, 9 janv. 2020, 19h)

Le prochain rendez-vous de notre séminaire Étudier les cultures du numérique inaugure une collaboration avec la Gaîté Lyrique. De janvier à mai 2020, le lieu de culture parisien nous fait l’honneur d’accueillir en ses murs les séances du séminaire #ecnEHESS ouvertes aux auditeurs libres. Quatre rencontres où chercheur•ses et artistes se penchent sur “le côté obscur du futur du travail”.

Enseignement ouvert aux auditeurs libres (dans la limite des places disponibles). Pour s’inscrire, merci de renseigner le formulaire.

N’hésitez pas à faire circuler cette information au sein de vos propres contacts et sur les réseaux.


“Communiquer avec modération”
Sarah T. Roberts (UCLA)

avec Lauren Huret

jeudi 9 janvier 2020 à 19h00
Gaîté Lyrique
Auditorium
3bis, rue Papin
75003 – Paris

Nous avons tendance à penser que ce sont les algorithmes qui filtrent les contenus illicites, qui nous servent de bouclier contre le langage haineux et les vidéos violentes en ligne. Mais en réalité, ce sont des humains. Plus de 100 000 modérateurs de contenus commerciaux évaluent les publications sur les plateformes des médias sociaux, filtrent et suppriment les contenus choquants. Un travail largement invisible.

Avec son livre Behind The Screen, Content Moderation in the Shadows of Social Media (Yale University Press, 2019), Sarah T. Roberts, professeure en sciences de l’information à UCLA et lauréate 2018 du prix EFF Pioneer, offre la première étude ethnographique approfondie sur l’industrie de la modération du contenu commercial. S’appuyant sur des entretiens avec des travailleurs de la Silicon Valley jusqu’aux Philippines, elle contextualise cette industrie cachée et examine le poids émotionnel porté par ses travailleurs. Cette enquête sur les personnes qui officient “derrière l’écran” offre un aperçu d’un travail de plus en plus mondialisé et du pouvoir politique des plateformes qui s’érigent en juges de la communication planétaire à l’ère numérique.

Le travail de l’artiste franco-suisse Lauren Huret porte sur l’activité des modérateurs et modératrices de contenu, exposés à des milliers d’images traumatisantes chaque jour, et interroge les conséquences psychiques et physiques de ces tâches, ainsi que leurs effets à long terme pour nos sociétés.

Dans les médias :

(05 janv. 2020) Sarah T. Roberts: «La liberté d’expression sur Internet n’a jamais existé», Mediapart.

(11 janv. 2020) Sarah T. Roberts : « Les géants du Web ont choisi de rendre le processus de modération invisible », Le Monde.

Interview pour l’Institut Français (14 mai 2019)

RencontreDébat d’idées

Antonio Casilli
Les géants du Net ont le pouvoir de décider ce que nous regardons et apprenons

Au lendemain de l’adoption de la directive portant sur le droit d’auteur en mars 2019, le sociologue français Antonio Casilli, spécialiste des réseaux sociaux et auteur de En attendant les robots, Enquête sur le travail du clic (Seuil, 2019), nous livre son regard sur les géants du Net, l’Intelligence Artificielle et les désillusions provoquées par la transformation digitale globalisée.

Antonio Casilli est maître de conférences en humanités numériques à Télécom ParisTech et chercheur associé au LACI-IIAC de l’EHESS.

Antonio Casilli

Quelle place occupent les géants du Net à l’heure actuelle ?

Il faut bien s’entendre sur ce que l’on appelle les géants du net. En plus des GAFAM (Google, Amazon, Facebook, Apple, Microsoft), il faut inclure d’autres grandes entreprises comme IBM, Baidu et Alibaba côté chinois, Naver – l’équivalent de Google en Corée… Ce sont des plateformes oligopolistiques, c’est-à-dire relativement peu nombreuses et qui ont tendance à phagocyter les concurrents plus petits : elles occupent sur leur marché une position d’hégémonie, avec une concentration des pouvoirs dangereuse d’un point de vue économique et qui menace également les libertés publiques. Qui dit pouvoir économique dit aussi pouvoir sur les imaginaires et sur la production culturelle : ces entreprises ont en effet tendance à standardiser la production culturelle. Elles y parviennent moins en soutenant directement des contenus qu’en mettant en place des pratiques indirectes de sélection « algorithmique », de modération « automatique » et de distribution des œuvres…Ces entreprises ont en effet tendance à standardiser la production culturelle

Comment limiter leur puissance ? La voie législative est-elle une réponse ? 

L’approche par la règlementation ne suffit pas et peut même s’avérer contreproductive, comme l’attestent deux initiatives récentes au niveau européen. La directive dite « copyright » adoptée le 26 mars 2019, qui réglemente le droit d’auteur sur internet ; et le règlement européen pour la prévention de la diffusion de contenus à caractère terroriste en ligne adoptée en première lecture par le Parlement européen le 17 avril 2019. La première donne aux plateformes un pouvoir de censure sur le contenu qu’elles hébergent. Il ne sera ainsi théoriquement plus possible de partager ne serait-ce qu’une citation sur Facebook, au nom de la protection du droit d’auteur. Que cette crainte s’avère fondée ou non dépend des choix des plateformes numériques, qui ont ici une marge de manœuvre énorme… Le règlement, quant à lui, prévoit que les juges puissent demander de retirer en une heure de n’importe quelle plateforme un contenu qu’ils jugent douteux. Or, aucune plateforme ne pourra respecter cette obligation sans utiliser les outils de filtrage développés par les GAFAM. La censure en ligne se verrait alors massivement gérée par les géants du Net, les sites les plus petits n’ayant pas la capacité de modérer leur contenu eux-mêmes 24 heures sur 24.

La directive a fait couler beaucoup d’encre dans les médias, alors que le règlement est passé quasi inaperçu, ce qui est particulièrement grave considérant que ces nouvelles règles ont toutes deux des conséquences importantes sur ce que l’on peut dire et faire sur internet. Elles donnent aux géants du Net le pouvoir de décider ce que nous allons regarder et apprendre. C’est une démarche qui aurait mérité plus de réflexion de la part de nos hommes politiques : ils viennent d’offrir à ces plateformes un immense pouvoir sur notre culture.Elles donnent aux géants du Net le pouvoir de décider ce que nous allons regarder et apprendre

L’Europe cherchait cependant à contrer les géants américains…

En réalité, la France et les États-Unis vont hélas dans le même sens. Malgré les textes de loi et une posture affichée d’opposition à la Silicon Valley, l’Europe reproduit les mêmes mécanismes oligopolistiques, sans offrir d’alternative. Les initiatives nationales n’ont pas une meilleure éthique que les géants du Net : les startups et les « pépites » du secteur technologique français auront probablement elles aussi recours à des travailleurs sous-payés aux Philippines ou à Madagascar… N’est-on pas  en train de s’inventer une virginité éthique alors qu’au fond, on se heurte aux mêmes contradictions morales, voire politiques – puisque cela touche au droit du travail ?

Ces travailleurs sous-payés font partie de ces « travailleurs du clic » que vous évoquez dans votre dernier ouvrage, En attendant les robots… 

Les travailleurs du clic vont de l’utilisateur lambda qui signale un contenu jugé illégal au modérateur bénévole payé en nature ou micropayé quelques centimes et délocalisé aux Philippines… Ils permettent d’améliorer la qualité des contenus, à l’image de ce que fait YouTube, qui identifie et supprime les contenus vidéos les plus controversés, mais se fait aussi police et juge de la propriété intellectuelle quand elle fait supprimer des contenus dont le droit d’auteur n’est pas respecté. Or les plateformes prétendent effectuer ce travail à l’aide de robots intelligents – les fameux « bots ». Il s’agit en réalité d’une exploitation du travail humain.

Le droit d’auteur peut-il s’appliquer à l’Intelligence Artificielle ?

Croire qu’une Intelligence Artificielle puisse ressembler à l’intelligence humaine et développer une capacité créative est un pur fantasme. La création vient exclusivement de l’inventeur de cette Intelligence artificielle, et c’est donc cette personne, humaine, qui en est l’auteur. Si l’on pousse la réflexion encore un peu plus loin, on peut dire que ce n’est pas seulement l’ingénieur ou le propriétaire qui en est l’auteur mais que ce sont tous les collectifs, voire les foules de travailleurs du clic qui permettent à l’IA de fonctionner en lui fournissant des données en permanence. D’ailleurs, le terme Intelligence artificielle devrait être remplacé par celui de machine learning qui décrit mieux le phénomène.Le terme Intelligence artificielle devrait être remplacé par celui de machine learning

Quel conseil donneriez-vous aux dernières générations d’internautes ?

Il y a un travail d’information et d’éducation à mener, pour les plus jeunes mais aussi pour les enseignants et les parents. Le numérique doit être enseigné car personne n’est en réalité « natif du numérique ». Ma recommandation : éduquez-vous, et renseignez-vous.

Une tribune dans Libération (3 janv. 2016)

Avec Paola Tubaro, je co-signe une tribune dans Libération, à partir de notre ouvrage Le phénomène “pro-ana”, paru aux Presses des Mines. Ce texte est publié en partenariat avec CNRS Le Journal.

Deux sociologues spécialistes des communautés en ligne expliquent pourquoi interdire les sites accusés de promouvoir l’anorexie ne ferait qu’isoler davantage les patients. Ils dénoncent la tendance …

Source: (20+) Réprimer les sites «pro-anorexie» : une fausse bonne idée – Libération

[Slides séminaire #ecnEHESS] Christophe Benavent : Plateformes et gouvernementalité algorithmique (21 nov. 2016, 17h)

Pour la première séance de mon séminaire EHESS Étudier les cultures du numérique : approches théoriques et empiriques nous avons eu le plaisir d’accueillir Christophe Benavent, professeur à l’Université Paris Ouest, et auteur de l’ouvrage “Plateformes. Sites collaboratifs, marketplaces, réseaux sociaux” (FyP Editions, 2016).

Le séminaire a eu lieu le lundi 21 novembre 2016, de 17h à 20h, à l’EHESS.

 

—–

Titre : D’un versant à l’autre : gouvernementalité algorithmique des plateformes.

Intervenant : Christophe Benavent

[pdfjs-viewer url=”http%3A%2F%2Fwww.casilli.fr%2Fwp-content%2Fuploads%2F2016%2F11%2FBenaventEhess211116.pdf” viewer_width=100% viewer_height=460px fullscreen=true download=true print=true]

Résumé : “Si la notion de marché multi-versants fournit un cadre utile pour penser l’émergence, la croissance et la compétition de l’économie des plateformes, sa limite est d’ignorer les modalités pratiques de leur gestion. Ces dernières passent essentiellement par une propagation algorithmique de dispositifs (architecture des capacitations et des restrictions, surveillance et police, mécanismes d’incitation et de motivation) destinés in fine à orienter et conditionner les conduites des individus de telle sorte à obtenir des propriétés particulières des populations qui caractérisent ces versants et se constituent en ressources. L’imperfection des  algorithmes, qu’elle soit intrinsèque (défaut de conception, données inappropriées..) ou extrinsèque (dépendance des données ou computation sociale), nécessite qu’on leur attribue une politique propre, qui impliquerait une exigence de redevabilité dont on devra aussi et surtout évaluer les conditions politiques.”

—–

Dernier ouvrage : “Le phénomène “pro-ana’. Troubles alimentaires et réseaux sociaux” (Oct. 2016)

Mon dernier ouvrage (co-écrit avec Paola Tubaro) est Le phénomène “pro-ana”. Troubles alimentaires et réseaux sociaux, paru aux Presses des Mines. Ce livre représente l’aboutissement de 5 ans de recherches menées avec nos collègues et amis du projet ANAMIA. Il documente aussi notre lutte pour la liberté d’expression sur Internet et pour le respect de la dignité des personnes atteintes de troubles alimentaires contre des politiques de santé publique, comment dire… malavisées.

Bref, si vous avez suivi notre travail ces dernières années, ce livre raconte notre histoire et les histoires de vie des personnes qui lisent, contribuent et participent aux communautés en ligne dites “pro-ana”…

PS. Le livre est aussi disponible en version électronique sur le portail Open Edition.

Antonio A. Casilli et Paola Tubaro

LE PHENOMENE « PRO-ANA »
Troubles alimentaires et réseaux sociaux

Postface de Cécile Méadel

Paris, Presses des Mines
Collection « i3 »
pp. 209

couvertureproana

Consultés et administrés par des personnes atteintes d’anorexie ou d’autres troubles alimentaires, les sites web dits « pro-ana » sont accusés d’inspirer à la maigreur extrême. Depuis le début des années 2000, des vagues de polémiques amplifiées par les médias ont entouré ces blogs et forums, si bien que les pouvoirs publics ont essayé à maintes reprises de les réglementer.

Mais qui sont leurs auteurs, commentateurs et lecteurs ? Que recherchent-ils vraiment, avec qui communiquent-ils ? Ce livre lève le voile sur cette communauté qui a longtemps échappé au regard. Au-delà de tout propos provocateur, il interroge les usagers de ces sites internet et met au jour leurs réseaux de relations.
Et si le « pro-ana » était moins un effet indésirable de la parole libérée sur internet que le symptôme de transformations profondes de notre manière de vivre la santé ? Face au ralentissement des dépenses de santé publique en raison des coupes budgétaires de l’Etat, les patients sont aujourd’hui confrontés à l’injonction croissante d’être actifs, informés, équipés. Mais la pression sociale qui en dérive peut conduire à des comportements paradoxaux et à des prises de risque.

Les résultats de cette étude défient les idées reçues et restituent une image ambivalente du web des troubles des conduites alimentaires. La valorisation de la maigreur et de l’anorexie est loin d’y faire l’unanimité. En revanche, on voit apparaître des réseaux d’entraide et d’information, dans un effort de combattre l’isolement et de pallier aux manques ressentis des services de soins.

>> Lire un extrait en pdf.

A propos des auteurs :
Antonio A. Casilli, enseignant-chercheur à Télécom ParisTech et à l’EHESS, membre de l’Institut interdisciplinaire de l’innovation (i3 CNRS). Parmi ses ouvrages : Les liaisons numériques (Seuil 2010) et Qu’est-ce que le digital labor ? (INA 2015).

Paola Tubaro, chargée de recherche au LRI, Laboratoire de Recherche Informatique du CNRS. Elle enseigne la sociologie des réseaux sociaux à l’ENS et a publié dans des revues comme Social Networks, Revue Française de Sociologie, Sociological Research Online, Sociology.

Google censure les gros mots : une non-nouvelle [Updated 02.12.13]

Depuis quelques jours cette nouvelle fait le tour des Internets.

Mystère du journalisme, l’angle choisi est “après le porno, Google censure les gros mots”. Personnellement, cela me surprend. Et c’est à peu près la seule chose surprenante de toute cette histoire. En effet, le brevet déposé par la firme de Mountain View concerne un système de détection automatique de contenus multimédias “non autorisés, tel qu’un contenu protégé par le droit d’auteur ou des violations de nudité, de violence, de langue”.

Malgré les affirmations pseudo-libertaires d’Eric Schmidt, Google a une longue histoire de filtrage et de bricolage algorithmique du référencement des pages via son moteur de recherche. Ces formes de censure concernent (selon les occasions) des contenus dérageants pour certains gouvernements, lobbies industriels ou porteurs d’intérêts diverses et variés. Donc là, rien de nouveau.

Que les contenus visés soient les “flux multimédia composites multiutilisateur” des Google Hangouts n’a rien d’étonnant non plus. Youtube, autre fer de lance de l’entreprise de Larry Page, pratique depuis longtemps cette chasse à l’audiovisuel protégé par le copyright, grâce à son système d’identification de contenu. Le filtrage des contenus de transmissions du type chat ou vidéoconférences, quant a lui, est coutumier dans nos sociétés (voir cet exemple récent de surveillance de masse des utilisateurs de TOM-Skype et censure de contenus non appropriés pour le régime chinois : scandales politiques, mouvements indépendantistes, sectes).

Rien d’épatant, donc, sauf justement le fait de vouloir lire, derrière les “language violations” auxquelles fait allusion le brevet, l’interdiction de tout langage vulgaire – écho peut-être de la diatribe publique autour du rôle des “fauteurs d’incivilité numérique” (trolls, vandales et anonymes assortis). En fait les gros mots en soi n’ont jamais représenté un risque pour les services en ligne. Au contraire, ils peuvent représenter un gage de liberté d’expression dans des contextes d’interaction numérisée extrêmement contraignants et répressifs. C’est le cas de la plateforme sociale VKontakte (l’homologue de Facebook en Russie), où l’usage de l’argot grossier (мат) est autant répandu qu’y sont sanctionnés les propos contraires au gouvernement de Poutine.

Quantité moyenne de gros mots par post sur VK.com. Axe Y: nombre de gros mots. Axe X: âge des membres. Ligne rouge: seulement profils actifs. Ligne bleue: tous. Source: Habrahabr.ru

Comme pour d’autres inventions de Google aux possibles conséquences disruptives, et par delà la réalisation effective du système qui en fait l’objet, ce brevet est plus important pour ce qu’il révèle de l’idéologie sous-jacente du modus operandi de la firme américaine. Même s’il a alimenté une non-actualité, le dépôt de demande de brevet est certes un événement.

[Podcast] La vie et l'oeuvre d'Aaron Swartz (France Culture, Place de la Toile, 19 janv. 2013)

Podcast de l’émission Place de la Toile, le magazine des cultures numériques de France Culture. Le journaliste Xavier de la Porte et le sociologue Antonio Casilli, auteur de Les liaisons numériques. Vers une nouvelle sociabilité ? (Ed. du Seuil) analysent la vie, l’héritage et les tragiques événements ayant porté au suicide de l’activiste des libertés numériques Aaron Swartz.

» La vie et l’oeuvre d’Aaron Swartz / Peut-on critiquer la neutralité du net ? 19.01.2013 – 45 minutes

Pour écouter d’autres podcast d’Antonio Casilli sur France Culture.