An open letter to tell Google to commit to not weaponizing its technology (May 17, 2018)

Following an invitation by Prof. Lilly Irani (UCSD), I was among the first signatories of this ICRAC “Open Letter in Support of Google Employees and Tech Workers”. The letter is a petition in solidarity with the 3100+ Google employees, joined by other technology workers, who have opposed Google’s participation in Project Maven.

Following our joint action, on June 7 2017 Google has released a set of principles to guide its work in AI in a document titled “Artificial Intelligence at Google: our principles,”. Although the company pledges not to develop AI weapons, it does says it will still work with the military.

Open Letter in Support of Google Employees and Tech Workers

Researchers in Support of Google Employees: Google should withdraw from Project Maven and commit to not weaponizing its technology.

An Open Letter To:

Larry Page, CEO of Alphabet;
Sundar Pichai, CEO of Google;
Diane Greene, CEO of Google Cloud;
and Fei-Fei Li, Chief Scientist of AI/ML and Vice President, Google Cloud,

As scholars, academics, and researchers who study, teach about, and develop information technology, we write in solidarity with the 3100+ Google employees, joined by other technology workers, who oppose Google’s participation in Project Maven. We wholeheartedly support their demand that Google terminate its contract with the DoD, and that Google and its parent company Alphabet commit not to develop military technologies and not to use the personal data that they collect for military purposes. The extent to which military funding has been a driver of research and development in computing historically should not determine the field’s path going forward. We also urge Google and Alphabet’s executives to join other AI and robotics researchers and technology executives in calling for an international treaty to prohibit autonomous weapon systems.

Google has long sought to organize and enhance the usefulness of the world’s information. Beyond searching for relevant webpages on the internet, Google has become responsible for compiling our email, videos, calendars, and photographs, and guiding us to physical destinations. Like many other digital technology companies, Google has collected vast amounts of data on the behaviors, activities and interests of their users. The private data collected by Google comes with a responsibility not only to use that data to improve its own technologies and expand its business, but also to benefit society. The company’s motto “Don’t Be Evil” famously embraces this responsibility.

Project Maven is a United States military program aimed at using machine learning to analyze massive amounts of drone surveillance footage and to label objects of interest for human analysts. Google is supplying not only the open source ‘deep learning’ technology, but also engineering expertise and assistance to the Department of Defense.

According to Defense One, Joint Special Operations Forces “in the Middle East” have conducted initial trials using video footage from a small ScanEagle surveillance drone. The project is slated to expand “to larger, medium-altitude Predator and Reaper drones by next summer” and eventually to Gorgon Stare, “a sophisticated, high-tech series of cameras…that can view entire towns.” With Project Maven, Google becomes implicated in the questionable practice of targeted killings. These include so-called signature strikes and pattern-of-life strikes that target people based not on known activities but on probabilities drawn from long range surveillance footage. The legality of these operations has come into question under international[1] and U.S. law.[2] These operations also have raised significant questions of racial and gender bias (most notoriously, the blanket categorization of adult males as militants) in target identification and strike analysis.[3] These problems cannot be reduced to the accuracy of image analysis algorithms, but can only be addressed through greater accountability to international institutions and deeper understanding of geopolitical situations on the ground.

While the reports on Project Maven currently emphasize the role of human analysts, these technologies are poised to become a basis for automated target recognition and autonomous weapon systems. As military commanders come to see the object recognition algorithms as reliable, it will be tempting to attenuate or even remove human review and oversight for these systems. According to Defense One, the DoD already plans to install image analysis technologies on-board the drones themselves, including armed drones. We are then just a short step away from authorizing autonomous drones to kill automatically, without human supervision or meaningful human control. If ethical action on the part of tech companies requires consideration of who might benefit from a technology and who might be harmed, then we can say with certainty that no topic deserves more sober reflection – no technology has higher stakes – than algorithms meant to target and kill at a distance and without public accountability.

We are also deeply concerned about the possible integration of Google’s data on people’s everyday lives with military surveillance data, and its combined application to targeted killing. Google has moved into military work without subjecting itself to public debate or deliberation, either domestically or internationally. While Google regularly decides the future of technology without democratic public engagement, its entry into military technologies casts the problems of private control of information infrastructure into high relief.

Should Google decide to use global internet users’ personal data for military purposes, it would violate the public trust that is fundamental to its business by putting its users’ lives and human rights in jeopardy. The responsibilities of global companies like Google must be commensurate with the transnational makeup of their users. The DoD contracts under consideration by Google, and similar contracts already in place at Microsoft and Amazon, signal a dangerous alliance between the private tech industry, currently in possession of vast quantities of sensitive personal data collected from people across the globe, and one country’s military. They also signal a failure to engage with global civil society and diplomatic institutions that have already highlighted the ethical stakes of these technologies.

We are at a critical moment. The Cambridge Analytica scandal demonstrates growing public concern over allowing the tech industries to wield so much power. This has shone only one spotlight on the increasingly high stakes of information technology infrastructures, and the inadequacy of current national and international governance frameworks to safeguard public trust. Nowhere is this more true than in the case of systems engaged in adjudicating who lives and who dies.
We thus ask Google, and its parent company Alphabet, to:

  • Terminate its Project Maven contract with the DoD.
  • Commit not to develop military technologies, nor to allow the personal data it has collected to be used for military operations.
  • Pledge to neither participate in nor support the development, manufacture, trade or use of autonomous weapons; and to support efforts to ban autonomous weapons.

[1] See statements by Ben Emmerson, UN Special Rapporteur on Counter-Terrorism and Human Rights and by Christof Heyns, UN Special Rapporteur on Extrajudicial, Summary and Arbitrary Executions.

[2] See for example Murphy & Radsan 2009.

[3] See analyses by Reaching Critical Will 2014, and Wilke 2014.

[Séminaire #ecnEHESS] Nikos Smyrnaios “Les GAFAM : notre oligopole quotidien” (20 mars 2017, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Dans le cadre de notre séminaire EHESS Etudier les cultures du numérique, nous avons le plaisir d’accueillir Nikos Smyrnaios (Université Toulouse 3) et auteur de l’ouvrage Les GAFAM contre l’internet : une économie politique du numérique (INA Editions, 2017).

Pour suivre le séminaire sur Twitter : hashtag #ecnEHESS.

ATTENTION : CHANGEMENT DE SALLE : La séance se déroulera le lundi 20 mars 2017, de 17h à 20h, salle 13, 6e étage, EHESS, 105 bd. Raspail, Paris 6e arr.

Titre : GAFAM: logiques et stratégies de l’oligopole qui a pris le contrôle de nos outils numériques

Intervenant : Nikos Smyrnaios
Résumé : “Quelques startups autrefois ‘sympathiques’ ont donné naissance à des multinationales oligopolistiques qui régissent le cœur informationnel de nos sociétés au point qu’un acronyme, GAFAM, leur soit dédié. Google, Apple, Facebook, Amazon et Microsoft sont les produits emblématiques d’un ordre capitaliste nouveau qu’ils contribuent eux mêmes à forger, légitimer et renforcer. Cet ordre néolibéral s’inscrit résolument contre le projet originel de l’internet. La conférence s’intéressera précisément aux conditions qui ont permis l’émergence de cet oligopole et aux stratégies que celui-ci met en œuvre pour  contrôler nos outils de communication quotidiens et les plateformes qui nous utilisons pour accéder à l’information et aux contenus en ligne (exploitation du travail, évitement de l’impôt, concentration horizontale et verticale, infomédiation, exploitation des données personnelles etc.).”

Prochaines séances

mturk 10 avril 2017
Mary Gray (Microsoft Research)
Behind the API: Work in On-Demand Digital Labor Markets
datanomix 15 mai 2017
Louis-David Benyayer (Without Model) et Simon Chignard (Etalab)
Les nouveaux business models des données
magna 19 juin 2017
Juan Carlos De Martin (NEXA Center for Internet & Society)
Looking back at the 2015 ‘Declaration of Internet Rights’

Sur France Inter (3 août, 2016)

» Ecouter “Le téléphone sonne – Notre rapport au virtuel” (41 min.)

Pokemon Go, réseaux sociaux… Quel rapport entretenons-nous avec le virtuel dans nos sociétés qui se numérisent ?

Invités :

Antonio A. Casilli – Sociologue, maître de conférences en humanités numériques à Telecom ParisTech et chercheur au Centre Edgar-Morin de l’EHESS

Vanessa Lalo – Psychologue clinicienne, spécialiste des usages numériques

Bernard Stiegler – Philosophe, auteur de « Dans la Disruption, comment ne pas devenir fou ? » [Les Liens qui libèrent / Mai 2016] (par téléphone)

Source: Notre rapport au virtuel du 03 août 2016 – France Inter

Privacy is not dying, it is being killed. And those who are killing it have names and addresses

Quite often, while discussing the role of web giants in enforcing mass digital surveillance (and while insisting that there is a cultural and political war going on around privacy and technology), I am asked this question: “If people are not willing to be spied upon, how come they aren’t out in the streets protesting tech companies’ privacy invasions?”. To which I reply: “Sure they are!”

Case in point: as part of a larger San Francisco Bay Area anti-Google campaign, protesters have started organizing rallies outside houses of Google Street View developers.

I’m not endorsing these protest tactics (they display deontological ambiguity, plus the flyer they distributed is pure rambling). I’m just pointing them out as examples of ongoing struggles. To paraphrase Utah Phillips: “Privacy is not dying, it is being killed. And those who are killing it have names and addresses.” Activists know these addresses, and protest outside them.

Further reading: my latest book Against the hypothesis of the « end of privacy » in social media: An agent-based modeling approach, co-authored with Paola Tubaro and Yasaman Sarabi, just published by Springer.

Google censure les gros mots : une non-nouvelle [Updated 02.12.13]

Depuis quelques jours cette nouvelle fait le tour des Internets.

Mystère du journalisme, l’angle choisi est “après le porno, Google censure les gros mots”. Personnellement, cela me surprend. Et c’est à peu près la seule chose surprenante de toute cette histoire. En effet, le brevet déposé par la firme de Mountain View concerne un système de détection automatique de contenus multimédias “non autorisés, tel qu’un contenu protégé par le droit d’auteur ou des violations de nudité, de violence, de langue”.

Malgré les affirmations pseudo-libertaires d’Eric Schmidt, Google a une longue histoire de filtrage et de bricolage algorithmique du référencement des pages via son moteur de recherche. Ces formes de censure concernent (selon les occasions) des contenus dérageants pour certains gouvernements, lobbies industriels ou porteurs d’intérêts diverses et variés. Donc là, rien de nouveau.

Que les contenus visés soient les “flux multimédia composites multiutilisateur” des Google Hangouts n’a rien d’étonnant non plus. Youtube, autre fer de lance de l’entreprise de Larry Page, pratique depuis longtemps cette chasse à l’audiovisuel protégé par le copyright, grâce à son système d’identification de contenu. Le filtrage des contenus de transmissions du type chat ou vidéoconférences, quant a lui, est coutumier dans nos sociétés (voir cet exemple récent de surveillance de masse des utilisateurs de TOM-Skype et censure de contenus non appropriés pour le régime chinois : scandales politiques, mouvements indépendantistes, sectes).

Rien d’épatant, donc, sauf justement le fait de vouloir lire, derrière les “language violations” auxquelles fait allusion le brevet, l’interdiction de tout langage vulgaire – écho peut-être de la diatribe publique autour du rôle des “fauteurs d’incivilité numérique” (trolls, vandales et anonymes assortis). En fait les gros mots en soi n’ont jamais représenté un risque pour les services en ligne. Au contraire, ils peuvent représenter un gage de liberté d’expression dans des contextes d’interaction numérisée extrêmement contraignants et répressifs. C’est le cas de la plateforme sociale VKontakte (l’homologue de Facebook en Russie), où l’usage de l’argot grossier (мат) est autant répandu qu’y sont sanctionnés les propos contraires au gouvernement de Poutine.

Quantité moyenne de gros mots par post sur Axe Y: nombre de gros mots. Axe X: âge des membres. Ligne rouge: seulement profils actifs. Ligne bleue: tous. Source:

Comme pour d’autres inventions de Google aux possibles conséquences disruptives, et par delà la réalisation effective du système qui en fait l’objet, ce brevet est plus important pour ce qu’il révèle de l’idéologie sous-jacente du modus operandi de la firme américaine. Même s’il a alimenté une non-actualité, le dépôt de demande de brevet est certes un événement.

Google et son 'data center pirate' : vers une extraterritorialité fiscalement optimisée ? [Updated 01.11.2013]

Aux dernières nouvelles, Google serait en train de construire un datacenter flottant ! CNET a publié un article, amplement repris dans la presse internationale, à propos de ce projet top secret hébergé dans un mystérieux hangar de l’inaccessible Treasure Island. Le site étasunien n’y va pas par quatre chemins :

Google did not respond to multiple requests for comment. But after going through lease agreements, tracking a contact tied to the project on LinkedIn, talking to locals on Treasure Island, and consulting with experts, it’s all but certain that Google is the entity that is building the massive structure that’s in plain sight, but behind tight security. Could the structure be a sea-faring data center? One expert who was shown pictures of the structure thinks so…

Cela pourrait ressembler au début d’un roman de Robert Reed, mais l’idée est tout sauf anecdotique. Certes, le hangar en question n’est qu’un bâtiment jusque là utilisé pour tourner des films, sur une petite île artificielle dans la baie de San Francisco, anciennement de propriété de la marine militaire américaine. En revanche, il est vrai qu’en 2009 Google a obtenu un brevet pour un datacenter aquatique.

Brevet US7525207 – Water-based data center – Google Brevets

Le journaliste de CNET, Daniel Terdiman, déploie des efforts considérables pour analyser les aspects logistiques de l’opération immobilière sous-jacente à ce projet aux implications multiples. Une structure flottante de ce type, représenterait avant tout une prouesse technologique, une solution avancée pour alimenter et refroidir, grâce à l’eau de mer, les serveurs hébergeant les données.

Paradis (fiscaux) de données

Même si, à la fin de la lecture on peut rester assez sceptique sur toute cette histoire, on ne peut pas s’empêcher de constater qu’un aspect significatif a été passé sous silence autant par la presse américaine que par celle française : celui du statut légal et fiscal d’une telle structure. Pourtant, au lendemain du dépôt de brevet par la firme de Mountain View, une analyse détaillée avait été publiée sur le Journal of Law, Technology & Policy de la University of Illinois. Le titre de cette note, “Paradis de données maritimes: Le navire pirate breveté par Google”, ne laisse pas de doutes quant à son orientation critique.

Voilà un extrait, assez représentatif :

The prospect that offshore data havens will undermine regulatory regimes is of such concern that, even a decade ago, the European Council outlawed “transborder flows of personally identifiable data” between the European Union and jurisdictions having “inadequate” data protection standards. The potential for wily entrepreneurs to misuse such transborder informational flows has again been increased by the capacities of Google’s ocean-going data center. (p. 364-365)

Le texte se penche tout particulièrement sur les cas d’infractions au code de la propriété intellectuelle ou sur les situations plus extrêmes de violation de la législation nationale des Etats-Unis. Selon la Convention des Nations Unies sur le Droit de la Mer de 1994, les Etats peuvent appliquer leur législation seulement dans la limite de la mer territoriale et zone contiguë. Mais force est d’admettre que l’exercice de la législation extraterritoriale doit toujours s’accorder avec les principes du droit international. Outre cela, le fait même d’entretenir des échanges commerciaux avec les résidents d’une nation oblige les entreprises à respecter les lois de cette juridiction. Bref, les Etats-Unis peuvent continuer à se fier de leur géant du Web préféré : Google ne risque pas de devenir une autre Pirate Bay ou une autre Silk Road.

In general, U.S. Courts have held that “different results should not be reached simply because business is conducted over the Internet” even if the source of the electronic data is outside of the end user’s or the court’s jurisdiction. Conducting electronic commerce with residents of a jurisdiction constitutes availment of that government’s benefits and so empowers its courts to reach beyond their customary jurisdictions to grasp accused offenders in other regions. (p. 371)

Mais la question de la fiscalité d’un “paradis de données” offshore est quelque peu différente, surtout si l’on adopte une prospective moins américanocentrique. Le marché des datacenters extraterritoriaux n’est pas une découverte récente. Déjà à la fin des années 1990, le service britannique de stockage supersécurisé de données, HavenCo, s’était brièvement installée dans la micro-nation de Sealand (une plateforme au large du Royaume-Uni). D’autres datacenters prospèrent dans des nations comme Anguilla (un territoire britannique d’outre-mer situé dans la Caraïbe Orientale), qui en plus d’offrir un traitement fiscal avantageux n’adhèrent pas à la Convention de Berne ni à l’accord sur les ADPIC, qui règle l’utilisation commerciale des bases de données. Des expériences de ce type ont aussi été menés dans d’autres pays sans extradition vers les Etats-Unis : à Antigua-et-Barbuda, à Curaçao, à la Grenade et en République dominicaine (Antilles), ainsi qu’au Bélize et au Costa Rica. Pour la petite histoire, et sans vouloir forcément y voir un lien, ces pays se situent à quelques heures d’avion d’un autre territoire britannique d’outre-mer : l’archipel des Bermudes, où ces derniers années Google a activement optimisé sa situation fiscale

Grâce à un arrangement connu comme le « double irlandais », en orchestrant des payements entre filiales dans divers pays, Google a réussi a tenir son taux d’imposition entre 2,4% et 3,2% dans les années passées. Les britanniques ne sont pas contents, les irlandais sont sur le pied de guerre et les français sont à la tête d’un mouvement international pour la fiscalité numérique.

Reconnaître le digital labor pour ramener sur terre les géants du web

Or, s’il vous est arrivé de jeter un œil sur le rapport sur la fiscalité de l’économie numérique que Pierre Collin et Nicolas Colin ont rendu à Bercy en janvier 2013, vous savez que la limite principale à laquelle se heurte un projet de taxation des entreprises du numérique qui soit cohérent avec leur chiffre d’affaires réel est la difficulté d’identifier leur “établissement stable”. L’établissement stable n’est pas le siège de ces entreprises, mais une permanence au moyen de laquelle des bénéfices sont réalisés. Si cette permanence se trouve sur le territoire d’un pays, on dira alors que l’entreprise “est exploitée” dans ledit pays, et que là son impôt sur les sociétés est dû.

Le principe de territorialité, qui se trouvait déjà mis à mal, tombe à l’eau (c’est une façon de parler) si on imagine un scénario d’ “établissements aquatiques” où les données sont traitées et commercialisées. En effet la notion d’établissement stable, nous le rappellent les rédacteurs du rapport, “est marquée par les concepts économiques de l’après‐guerre et s’avère inadaptée à l’économie  numérique” (p. 3). Comme les entreprises du secteur numérique découplent méthodiquement le lieu d’établissement du lieu de consommation, il devient quasi impossible de localiser la place de création de valeur. Si, par surcroît, cette place devient flottante, la situation se complique terriblement…

Pour remédier à cela, le rapport Collin/Colin fait une proposition assez révolutionnaire : il prend le parti de déclarer que l’établissement stable se situera conventionnellement sur le territoire d’un Etat lorsque l’entreprise en question exerce une activité au moyen de données extraites du suivi régulier et systématique des internautes sur ce même territoire.

Les informations personnelles révélées par les utilisateurs sont la ressource principale des géants du Web, extraites et traitées algorithmiquement pour être monétisées sur le marché international. Reconnaître la stabilité de l’établissement des entreprises du numérique sur la base des données produites par ses utilisateurs, revient à reconnaître le digital labor de ces derniers. Si vous lisez ce blog, cette notion ne vous est pas étrangère : elle consiste à assimiler toute activité en ligne, de la plus spécialisée et orientée professionnellement à la plus banale et ludique, à du travail fourni par les utilisateurs aux propriétaires des plateformes d’Internet. Selon certains, ce travail invisible et quotidien devrait apporter une véritable rémunération, à verser aux usagers sous forme de salaire (c’est la position plus marquée à gauche, défendue par Andrew Ross en 2012), voire de royalties (c’est la proposition d’orientation néo-libérale faite par Jaron Lanier l’année suivante).

La solution fiscale française serait, une troisième voie : une manière de faire revenir, quoique indirectement, la valeur extraite d’une collectivité à la collectivité même qui l’a faite émerger. Si cette nouvelle acception du concept était adoptée, la question de l’extraterritorialité (flottante ou bien de terre ferme) serait écartée de l’équation.

Post-script 01 nov. 2013 : Le site web Ars Technica publie un article dans lequel une hypothèse alternative est proposée : le mystérieux projet aquatique ne serait qu’un énorme navire-showroom pour la promotion de Google Glass. A suivre…

Qu’est-ce que le Digital Labor ? [Audio + slides + biblio]

UPDATE : Qu’est-ce que le digital labor ? est désormais un ouvrage, paru aux Editions de l’INA en 2015. Dans cet ouvrage je passe en revue les études sur le travail des internautes en compagnie de Dominique Cardon.

Audio :

La notion de digital labor fait désormais l’objet de plusieurs publications et colloques de part et d’autre de l’Atlantique. Mais elle reste encore méconnue en France. Le 12 mars 2012, j’ai assuré une intervention lors de la journée co-organisée par la DGT, la DIRECCTE et la Fing Risques et opportunités des transformations du travail à l’ère du numérique.  Voilà l’enregistrement audio :

Digital labor via Réseau FING

Pour aller plus loin, lien vers Digital labor : portrait de l’internaute en travailleur exploité, l’émission du 8 décembre 2012 de Place de la Toile sur France Culture, que nous avons concoctée avec Xavier de la Porte, Yann Moulier-Boutang et Thibault Henneton.

Slides :

Le 26 mars, à l’invitation d’Alexandra Bidet (CNRS), je suis intervenu sur le même sujet au Collège des Bernardins dans le cadre des travaux du séminaire L’entreprise: propriété, création collective, monde commun (Département EHS).

TITRE : Qu’est-ce que le Digital labor ?

INTERVENANT : Antonio A. CASILLI (Telecom ParisTech / EHESS)

RESUME : La parution récente de l’ouvrage ‘Digital Labor. The Internet as playground and factory’, dirigé par Trebor Scholz couronne plusieurs années de recherches et fait connaître au public international un domaine émergent de réflexion autour de l’économie de la contribution d’Internet. Face aux exaltations du “don et contre-don hi-tech” et du rôle des amateurs (qui avaient marqué les études des usages TIC respectivement de la première et de la deuxième partie des années 2000), les théoriciens du digital labor pointent l’apparition d’activités sur les réseaux socio-numériques lesquelles, en tant que productrices de valeur, peuvent s’assimiler à du travail. C’est un travail banal, non spécialisé et à faible valeur marginale, comme effectuer des recherches sur Google, poster un lien sur Twitter, évaluer un produit. Mais c’est bien l’activité qui permet la création d’énormes bases de données exploitables par les géants du Web comme Facebook, ou fait vivre des plateformes d’externalisation massive du travail (crowdsourcing) comme Amazon MTurk. A partir de ce constat, bien des questions se posent : comment ce “travail numérique” réinterroge la notion même du travail et de la (co)production de la valeur ? peut-on parler d’exploitation ? nos vieux cadres d’analyse, nous permettent-ils de penser ce qui se joue là, voire de définir les contours d’un “capitalisme cognitif” ?


La BnF, Guy Debord et le spectacle schizophrène du droit d'auteur

[Mise à jour du 01 avril 2013 10h29. Ce billet a été republié sur le Huffingtonpost et traduit en anglais sur le site Web Parmi les blogs ayant repris l’information, je signale celui d’Olivier Ertzscheid (Affordanceinfo) et celui d’Olivier Beuvelet (Mediapart). A lire aussi, le blog de la section FSU de la BnFà propos du “rayonnement en interne” de mon texte…]

Il y a quelques jours je me suis rendu – avec une petite délégation de France Culture – à la Bibliothèque Nationale de France pour visiter l’exposition Guy Debord : Un art de la Guerre. L’ouverture officielle n’étant que le 27 mars 2013, l’idée était de jeter un œil à cette collection en cours de montage de notes, photos, films et textes du père du Situationnisme, afin de préparer cette émission de La Grande Table avec Caroline Broué consacrée à l’héritage de Guy Debord.

Seul hic : nous avons été accueillis par des responsables de la communication externe de la BnF, qui n’ont visiblement pas apprécié mon initiative de prendre quelques photos pour les publier éventuellement sur mon fil Twitter et sur mon blog. Peur du (mauvais) buzz ? Difficulté à saisir les logiques des médias numériques ? Pas du tout : la raison invoqué est – un roulement de tambour, s’il vous plait ! – le droit d’auteur. Ma requête s’est donc heurtée à un refus catégorique une première fois en face-à-face, ensuite par téléphone. Le reste de la dispute s’est déroulé par mail 48 heures durant.

L’essentiel de nos échanges, dont je ne reproduis pas ici le verbatim pour d’évidentes raisons de respect de mes interlocuteurs, mérite d’être consigné dans ce blog. Il nous aide à comprendre le fonctionnement d’une grande institution étatique comme la BnF à l’heure des enclosures des biens communs de la connaissance, et jette une lumière crue sur sa schizophrénie manifeste à l’égard de la question du droit d’auteur : sur-protégé quand il s’agit de ses œuvres ; dédaigné quand il s’agit de celles des autres.


Séminaire EHESS de Dominique Cardon “Anthropologie de l’algorithme de Google” (16 mai 2012, 17h)

[UPDATE 20.05.2012 : un compte rendu très détaillé, proposant une discussion des sujets traités dans ce séminaire, est désormais disponible en ligne sur le blog Odyssée de Philippe Ameline.]

Dans le cadre du séminaire EHESS Étudier les cultures du numérique : approches théoriques et empiriques nous avons eu le plaisir et l’honneur d’accueillir Dominique Cardon, sociologue au Laboratoire SENSE (Orange Labs), chercheur associé au Centre d’études des mouvements sociaux (CEMS/EHESS), animateur de la revue Réseaux et auteur de La Démocratie Internet. Promesses et limites (Seuil, 2010).

Le séminaire a eu lieu le mercredi 16 mai 2012, de 17 h à 19 h (salle 587, salle du conseil A, R -1, bât. Le France, 190-198 av de France 75013 Paris).

Dans l’esprit du PageRank. Un essai d’anthropologie de l’algorithme de Google

Dans cette communication, on proposera une réflexion sur les propriétés organisationnelles, et notamment algorithmiques, de l’espace public numérique. En adaptant au contexte de l’Internet le débat posé par Jürgen Habermas sur les caractéristiques d’une discussion publique argumentée et rationnelle, on s’attachera à décrire les différents formats d’organisation de l’expression et de la discussion sur Internet, en portant une attention particulière aux algorithmes permettant de hiérarchiser les informations. Les pionniers de l’Internet ont donné au réseau des réseaux une utopie fondatrice : celle de remplacer le classement a priori des informations par un cercle restreint de gatekeepers (journalistes et éditeurs) par une hiérarchisation a posteriori des informations par les internautes eux-mêmes. Parfois entendue sous le nom de “sagesse des foules” ou de “miracle de l’agrégation”, cette idée d’une auto-organisation des jugements des internautes permettant de trier et de hiérarchiser le web ne peut se réaliser que grâce à un ensemble d’artefacts permettant de calculer, trier et représenter les informations selon un ordre propre. On fera l’hypothèse que cinq principes différents de classement des informations sont aujourd’hui en compétition sur le web : l’éditorialisation, l’autorité, l’audience, l’affinité et la vitesse. En développant l’exemple du PageRank de Google, on s’attachera à rendre compte de la mise en place d’une métrique particulière de l’autorité sur le web, avant de s’interroger sur les tensions que lui font aujourd’hui subir d’autres principes d’organisation de l’information, comme l’affinité et la vitesse.

Quelques lectures :

– Diaz, Alejandro M., Through the Google Goggles: Sociopolitical Bias in Search Engine Design, Thesis, Stanford University, May 2005.

– Hindman, Matthews, The Myth of Digital Democracy, Princeton, Princeton University Press, 2009.

– Introna, Lucas D. & Helen Nissenbaum, “Shaping the Web: Why the politics of search engines matters”, The Information Society, vol. 16, 2000, pp. 169-185.