data

Le RGPD, un premier pas dans la bonne direction (grand entretien Libération, 25 mai 2018)

Pour le sociologue Antonio Casilli, le RGPD est un premier pas pour assainir la relation que citoyens et entreprises ont établie autour des données fournies par les premiers aux secondes.

Sociologue, Antonio Casilli est enseignant-chercheur à Télécom ParisTech et chercheur associé à l’EHESS. Pour lui, l’enjeu du règlement général sur la protection des données (RGPD) est de permettre au «travailleur de la donnée» qu’est devenu homo numericus de se réapproprier un capital social numérique que les grandes plateformes avaient jusqu’ici confisqué à leur avantage.

Que représente le règlement européen à l’aune du combat déjà ancien pour la maîtrise de nos données personnelles ?

La question du contrôle de nos vies privées a radicalement changé de nature à l’ère des réseaux. Alors qu’il s’agissait auparavant d’un droit individuel à être «laissé en paix», cette vision très exclusive n’a plus guère de sens aujourd’hui pour les milliards d’usagers connectés en permanence, avides de partager leurs expériences. Nos données personnelles sont en quelque sorte devenues des données sociales et collectives, ce qui ne signifie évidemment pas qu’il faille faire une croix sur l’exploitation qui en est faite. C’est même tout le contraire.

Comment le RGPD s’inscrit-il dans ce mouvement ?

Ce texte est l’aboutissement d’un processus d’adaptation à l’omniprésence des grandes plateformes numériques dans notre quotidien. Dans le Far West réglementaire qui a prévalu ces dernières années, leurs marges de manœuvre étaient considérables pour utiliser et valoriser les données personnelles comme bon leur semblait. Avec le RGPD, il devient possible de défendre collectivement nos données. Le fait que le règlement ouvre la possibilité de recours collectifs en justice est très révélateur de cette nouvelle approche.

En quoi le RGPD peut-il faciliter nos vies d’usagers et de «travailleurs» de la donnée ?

En actant le fait que nos données ne sont plus «chez nous» mais disséminées sur une pluralité de plateformes, dans les profils de nos proches, les bases de données des commerçants ou des «boîtes noires» algorithmiques, le RGPD cherche à harmoniser les pratiques de tous les acteurs, privés mais aussi publics, qui veulent y accéder. D’où l’idée d’un «guichet unique» pour les usagers, qui établit que c’est le pays de résidence qui est compétent pour gérer les litiges, et non le lieu d’implantation de l’entreprise qui a accès aux données. Cela n’aurait aucun sens alors que celles-ci circulent partout.

Si ces données sont le résultat de notre propre production en ligne, ne devrait-on pas disposer d’un droit à les monétiser ?

Ce n’est pas la philosophie du RGPD, qui ne conçoit pas la donnée dite personnelle comme un objet privatisable, mais plutôt comme un objet social collectif dont nous pouvons désormais contrôler l’usage. Les données sont devenues un enjeu de négociation collective, non pas au sens commercial du terme comme l’imaginent certains, mais plutôt syndical : il y a là l’idée d’un consentement sous conditions dans lequel les deux parties fixent des obligations réciproques. C’est très différent d’une vision marchande qui risquerait d’instituer ce que l’on appelle un «marché répugnant», dans lequel on monétiserait des aspects inaliénables de ce qui fonde notre identité.

Le diable ne se situe-t-il pas dans les fameuses «conditions générales d’utilisation» (CGU) que tous les services s’empressent de modifier, mais que personne ne lit ?

C’est une des limites actuelles du RGPD. Les «Gafa» [Google, Apple, Facebook et Amazon, ndlr] restent en position ultradominante, et nous bombardent de CGU qui pour l’instant ne modifient pas l’équilibre des pouvoirs. Il existe un vrai flou sur notre consentement présupposé à ces «contrats» que l’on nous somme d’approuver.

Pouvez-vous donner des exemples ?

Lorsque Facebook explique que la reconnaissance faciale de nos photos est utile pour lutter contre le revenge porn [la publication en ligne de photos sexuellement explicites d’une personne sans son accord], il s’abstient de préciser que dans certains contextes, elle peut également servir à certains régimes politiques pour identifier des personnes. Il circule actuellement une pétition dénonçant le projet «Maven», que Google mène en collaboration avec l’armée américaine afin que ses technologies d’intelligence artificielle servent à de la reconnaissance d’images filmées par des drones. Le problème, c’est que les mêmes technologies sont utilisées pour améliorer nos usages. Mais on n’a pas signé pour que nos données servent à améliorer les outils du Pentagone.

Le RGPD va-t-il aider à un rééquilibrage entre petits et très gros acteurs d’Internet, comme le dit la Commission européenne ?

Il serait illusoire de croire que la régulation de nos données personnelles pourra faire ce que d’autres lois devraient faire. Les grandes plateformes du numérique vont appliquer ou faire semblant d’appliquer le RGPD, parce qu’il est vital pour elles de continuer à accéder au marché européen, mais les petits vont continuer à souffrir de leur concurrence. Pour parvenir à un rééquilibrage économique, il vaut mieux se concentrer sur la réforme de la fiscalité du numérique, qui jusqu’ici n’a pas vraiment avancé malgré toutes les promesses des politiques.

Why Facebook users’ “strikes” don’t work (and how can we fix them)?

Another day, another call for a Facebook “users’ strike”. This one would allegedly run from May 25 to June 1, 2018. It seems to be a one-man stunt, though (“As a collective, I propose we log out of our Facebook…”). Also, it claims to be “the first ever” strike of this kind.

Yet, since the Cambridge Analytica scandal, new calls for strikes have been popping up every few days. As far as I know, the first one dates back to March 21 (although the actual strike is scheduled on May 18, 2018). The organizer is a seasoned Boston Globe journo, who likely just discovered what digital labor is and is SO excited to tell you:

“I like the idea of a strike, because we users are the company’s real labor force. We crank out the millions of posts and photos and likes and links that keep people coming back for more.”

On April 9, 2018 an an obscure Sicilian newspaper called a strike action (which, in Italian, sounds like “sciopero degli utenti di Facebook”). It actually turned out to be an article about the “Faceblock” which did take place on April 11, 2018. It was a 24-hour boycott against Instagram, FB and WhatsApp organized by someone who describe themselves as “a couple of friends with roots in Belgium, Denmark, Ireland, Italy, Malta, Mexico, the UK and the US” (a tad confusing, if you ask me).

Of course, May 1st was a perfect time to call for other Facebook strikes. This one, for instance, is organized by a pseudonymous “Odd Bert”, who also mentions a fictional Internet User Union (which seems to be banned by Facebook). This other one looked a bit like some kind of e-commerce/email scam, but produced three sets of grievances.

“On May 1st, 2018, Facebook users are going on strike unless the company agrees to the following terms:

A. Full Transparency for American and British Voters

  1. Facebook shares the exact date it discovered Russian operatives had purchased ads.
  2. Facebook shares the exact dollar amount Russian operatives spent on political ads.
  3. Facebook shares the 3,000+ ads that Russian operatives ran during 2016.
  4. Facebook reveals how many users saw the fake news stories highlighted by BuzzFeed.
  5. Facebook lets an independent organization audit all political ads run during 2016.
  6. Facebook gives investigators all “Custom Lists” used for targeting 2016 political ads.
  7. Facebook stops running paid political ads until January 1st, 2019.
  8. Mark Zuckerberg (CEO) and Sheryl Sandberg (COO) testify before Congress in an open-door (televised) session.
  9. Mark Zuckerberg and Sheryl Sandberg testify before the UK parliament.

B. Full Transparency and Increased Privacy for Facebook Users

  1. Facebook explains to users exactly what personal data is being used for advertising.
  2. Facebook asks users for itemized consent to use photos, messages, etc. for advertising.
  3. Facebook gives users the ability to see a “history” of all the ads they have viewed.
  4. Facebook lets an independent organization investigate all data breaches since 2007.
  5. Facebook agrees to be audited monthly to make sure it is complying with local laws.
  6. Facebook allows users to easily delete their “history” on the platform.

C. Better Safety for Children on Facebook

  1. Facebook increases the minimum age for Facebook users from 13 to 16.
  2. Facebook shuts down the Messenger Kids product.”

Users’ strikes are hardly new. In 2009, the Spanish social media Tuenti was concerned by a huelga de los usuarios against their terms of service. In 2015, Reddit users disrupted the platform when they revolted en masse in solidarity with a wrongly terminated employee. On Facebook, users’ collective action is inherent to the life of the platform, whose history is replete with examples of petitions, lawsuits, and class actions. After the introduction of Beacon in 2007, a 50,000-strong petition led to its discontinuation. In 2010 several users’ groups organized and lobbied US senators and the Federal Trade Commission (FTC) to oppose the introduction of the ‘like’ button social plugin on external websites. In 2011, the association Europe versus Facebook filed numerous complaints with the Irish Data Protection Commissioner (DPC) and a class action which is presently discussed by the Court of Justice of the European Union. In 2016, the real-life protests and general mobilization against the introduction of Free Basics in India led to its successful ban by the telecommunication authority TRAI, over net neutrality and privacy concerns.

As my co-authors and I argued in our 2014 book Against the Hypothesis of the ‘End of Privacy’, the adoption of pervasive data collection practices by social platforms has been highly contentious, with frequent and cyclical privacy incidents followed by strong mass reactions. What these reactions have in common is that they are strategic, organized, collectives actions that rely on existing communities. Which could provide essential clues as to why the 2018 Facebook strikes are so ineffective. Their do not seem to be organized by active members of existing communities and they certainly do not engage with elected officials or institutional bodies. They are launched by journalists, startup bros, anonymous users trying to get noticed. These persons’ idea of grassroots is a naive one: one heroic individual (or a nonexistent “union”) sparks a revolt, hence the masses follow.

Importantly, they seem to put excessive faith in strikes seen as their only available tactic. A recent article published by a group of Stanford and Microsoft computer scientists captures this romanticized vision of “powerful” industrial actions where users stand hand in hand and nobody crosses the picket line:

“Data laborers could organize a “data labor union” that would collectively bargain with siren servers. While no individual user has much bargaining power, a union that filters platform access to user data could credibly call a powerful strike. Such a union could be an access gateway, making a strike easy to enforce and on a social network, where users would be pressured by friends not to break a strike, this might be particularly effective.”

Nevertheless, as past experiences on social platforms have taught us, successful actions adopt a specific repertoire of contention dominated not by strikes (which are usually costly and difficult to coordinate) but by lobbying and litigation. If we expect Facebook users grievances to be heard, a comprehensive and wide-ranging strategy is necessary to boost their rights. Community, organization, and the selection of effective tools are the three pillars of collective action.

Pourquoi la vente de nos données personnelles (contre un plat de lentilles) est une très mauvaise idée

Jacob dit : ‘Vends-moi aujourd’hui tes données”.
“Voici”, s’exclama Esaü, “je m’en vais mourir de faim !
A quoi me servent ces données ?” (…) Alors Jacob donna
à Esaü du pain et du potage de lentilles. Il mangea et but,
puis se leva et s’en alla. C’est ainsi qu’Esaü méprisa le droit
de disposer des fruits de son travail numérique. (Génèse 25:31-34 ?)

The Economist (ou du moins le journaliste Ryan Avent qui a écrit l’article paru sous le titre “The digital proletariat” dans la première livraison de 2018 du magazine britannique) découvre avec une décennie de retard l’existence du digital labor, au hasard de la lecture d’un “fascinating new economics paper”.  Pour la petite histoire, le papier en question vient tout juste d’être publié sur ArXiv et s’intitule “Should we treat data as labor?”. Il s’agit d’un résumé en clé économiciste des études existantes dans le domaine, mais avec un twist très Jaron Lanier (qui est par ailleurs l’un des co-auteurs) : “les données sont le fruit du travail des usagers, sauf si ces derniers les revendent DE MANIERE TOUT A FAIT TRANSPARENTE ET EQUITABLE HEIN à des multinationales qui ne veulent que leur bonheur.”.

Et si cela résonne avec les propositions ultra-libérales de certains think tanks bien de chez nous, qui vous proposent de vendre vos données en échange du proverbial “plat de lentilles” (v. le récent rapport de Génération Libre), et bien… c’est parce que c’est la même chose. Sachez quand même que celle-ci est une position très minoritaire au sein des études sur le digital labor, qui revendiquent en général une approche plutôt “commoniste” des données. Comme je le disais ailleurs (2016), “il n’y a rien de plus collectif qu’une donnée personnelle”. Et, comme je le répète depuis 2015 :

“[La proposition de revendre les données issues du digital labor] pose d’abord un problème éthique: de fait, la commercialisation des données personnelles créerait un énième « marché répugnant », formule parfois utilisée pour définir les marchés (comme l’achat d’organes, ou les paris en bourse sur les attentats terroristes) qui sont problématiques et intrinsèquement imprudents. A-t-on le droit de vendre un bras ou un œil? Le fait de vendre les données pose le même type de difficultés car ce marché présupposerait un droit de propriété privée sur les données personnelles. C’est une dérive très dangereuse vers la « privatisation de la privacy », que j’ai dénoncée ailleurs. Ces considérations s’appliquent à plus forte raison au digital labor, qui produit de la valeur en s’appuyant sur un contexte collectif – les sociabilités ordinaires, le partage au sein de communautés d’utilisateurs. Quoique personnelles, ces données, ces productions digitales, ne sont pas du ressort de la propriété privée, mais le produit d’un commun, d’une collectivité. Par conséquent, la rémunération devrait chercher à redonner aux commons ce qui a été extrait des commons.”

La solution n’est pas, AMHA, une rémunération individuelle des données, sous forme de royalties ou de micro-paie. La rémunération à la pièce est déjà en vigueur sur les plateformes de micro-travail–et cela se solde par un nivellement par le bas des rémunérations de ceux qui y travaillent, surtout dans le cas des fermes à clic installées aux Philippines, au Madagascar, au Kenya, etc. Au vu des asymétries d’information et de pouvoir entre les grands oligopoles numériques et les usagers, cette situation est destinée à se reproduire dans les négociations avec les publics généralistes. Une contractualisation sur base individuelle de la valeur de la donnée n’entraînerait qu’une généralisation de la condition de sous-prolétaire numérique. Pour en sortir, j’ai à plusieurs reprises prôné un revenu universel numérique financé par des impôts sur les profits des plateformes. Dans une interview récente, je résumais ma position de la manière suivante :

“[A universal basic income would protect the digital labor workforce] by recognizing the data labor that flows through the platforms. This has already been argued by a report by the French Ministry of Finance in 2013, and in a report by the Rockefeller Foundation last year. The digital giants should not be taxed on the basis of how many data centers or offices they have in a country, but on the basis of the data produced by the users of the platforms. If there are 30 million Google users in Italy, it is fair to tax Google based on the profits they made from these users’ activities. In this way, one could fund a basic income, arising from the digital labor that each of us carries out on the internet or on the mobile apps we use.”

PS. Pour aller plus loin, n’hésitez pas à consulter ces quelques articles, ouvrages ou chapitres que j’ai publié entre 2013 et 2017 :

Economie et politique des plateformes numériques : le programme de mon séminaire #ecnEHESS 2016-17

FINALLY ! Pour la neuvième année consécutive, mon séminaire Étudier les cultures du numérique : approches théoriques et empiriques (#ecnEHESS) ouvre ses portes le 21 novembre 2016 à l’EHESS de Paris. Pour récompenser votre patience, le programme de cette année réserve plus d’une surprise : des intervenants internationaux pour une réflexion sur l’impact politique du numérique, avec des séances spéciales sur la surveillance de masse, sur l’économie et l’idéologie des plateformes, sur les libertés fondamentales à l’heure d’internet.

Comme toujours, les inscriptions sont ouvertes aux auditeurs libres : il suffit d’envoyer un petit mail gentil via ce formulaire. La première séance aura lieu le lundi 21 novembre 2016, EHESS. Les séances successives, le troisième lundi de chaque mois de 17h à 20h.

ATTENTION : changement d’adresse. Cette année le séminaire se déroulera au 96 bd Raspail 75006 Paris, salle M. & D. Lombard. NB: la séance de fin d’année aura lieu le mercredi 14 décembre 2016. Pour plus de précisions sur les dates et les salles (et pour d’éventuels changements), se référer à la page de l’enseignement.

Programme

 platform 21 novembre 2016
Christophe Benavent (Paris Nanterre)
Gouvernementalité algorithmique des plateformes
 lloirns 14 décembre 2016
Isabelle Attard (députée citoyenne du Calvados) et Adrienne Charmet (La Quadrature du Net)
Internet, surveillance et libertés fondamentales en France
 ideology 16 janvier 2017
Benjamin Loveluck (Télécom ParisTech)
Idéologies et utopies du numérique
 workfutur 20 février 2017
Mark Graham (Oxford Internet Institute) et Karen Gregory (University of Edinbugh)
Global platforms and the future of work
 gafa 20 mars 2017
Nikos Smyrnaios (Université Toulouse 3)
Stratégies et logique des GAFAM
 mturk 10 avril 2017
Mary Gray (Microsoft Research)
Behind the API: Work in On-Demand Digital Labor Markets
 datanomix 15 mai 2017
Louis-David Benyayer (Without Model) et Simon Chignard (Etalab)
Les nouveaux business models des données
 magna 19 juin 2017
Juan Carlos De Martin (NEXA Center for Internet & Society)
Looking back at the 2015 ‘Declaration of Internet Rights’

[Slides séminaire #ecnEHESS] Mechanical Turk et le travail invisible des données (7 mars 2016)

Pour la séance du 7 mars 2016 de mon séminaire EHESS Etudier le cultures du numérique, j’ai eu le plaisir d’accueillir Jérôme Denis (Télécom ParisTech, co-auteur de Petite sociologie de la signalétique, 2010) et Karën Fort (Université Paris-Sorbonne, porteuse du projet ZombiLingo). Une intervention d’Elinor Wahal (Université de Trento) a complété leurs exposés.

Résumé : Les plus fervents avocats et les plus féroces critiques des projets de big data ou d’open data partagent l’idée que les données sont des entités informationnelles solides et puissantes. Qu’elles soient décrites comme un pétrole, comme un déluge, ou comme une technologie de gouvernance, celles-ci semblent toujours appréhendées dans un cadre positiviste, qui fait de leur existence et de leurs propriétés des évidences. Pourtant, celles et ceux qui « produisent, » «  saisissent »  ou « nettoient » des données savent que leur existence et leur circulation passent par des opérations délicates et coûteuses. Je propose d’explorer cet aspect méconnu des données en montrant d’abord que l’histoire de l’émergence des données dans les organisations est étroitement liée à la mécanisation et à l’invisibilisation du travail de l’information. À partir de deux études ethnographiques (dans une banque et dans une start-up), je mettrais ensuite en lumière quelques dimensions de ce travail et des conditions de son invisibilisation. À travers ce parcours, je tâcherai de donner à comprendre l’écologie du visible et de l’invisible qui est en jeu dans le processus fragile et incertain par lequel des choses très différentes, souvent indéfinies, deviennent progressivement et temporairement des données.

Résumé : Dans le cadre des travaux des étudiants du séminaire, une intervention sur les plateformes de micro-travail a été assurée par Elinor Wahal (EHESS/Univ. Trento).

Capture d’écran 2016-03-13 à 11.09.51

Karën Fort – Ce qu’Amazon Mechanical Turk fait à la recherche : l’exemple du Traitement Automatique des Langues

Résumé : La plateforme de myriadisation du travail parcellisé (microworking crowdsourcing) Amazon Mechanical Turk permet aux chercheurs de déposer des micro tâches (Human Intelligence Tasks) pour les faire réaliser par des travailleurs (des Turkers) pour une micro-rémunération. Le traitement automatique des langues (TAL) étant très gourmand en ressources langagières (lexiques, corpus annotés, etc), les chercheurs du domaine se sont rapidement emparés de cette plateforme pour produire des données à bas coût. Nous montrerons que cette évolution n’est pas sans conséquence sur la recherche, en termes de qualité et d’éthique. Enfin, nous présenterons les réactions et les alternatives proposées, notamment par le biais des sciences participatives et nous vous présenterons le projet Zombilingo.

 

Dans le Cahier IP – CNIL (17 nov. 2015)

Dans le Cahier Innovation CNIL “Les Données, Muses & Frontières de la Création” j’ai le plaisir d’être interviewé avec le collègue Dominique Cardon au sujet d’algorithmes, big data, et digital labor.

CahiersIP_CNILClick to enlarge

Lire, écouter, regarder et jouer en ligne à l’heure de la personnalisation : découvrez le nouveau cahier IP

17 novembre 2015

Nos consommations de contenus culturels dématérialisés deviennent massivement productrices de données. Ce nouveau cahier IP alimente le débat sur la place des algorithmes dans nos choix et sur les manières de redonner du contrôle aux utilisateurs.

Les industries culturelles et créatives ont été les premières à connaître de profondes mutations sous l’impulsion des usages numériques et de la dématérialisation des contenus. Elles constituent ainsi un formidable laboratoire de la mise en données du monde, au-delà de l’image réductrice des données comme « pétrole de l’économie numérique ».

Aujourd’hui, la plus-value des services de distribution de contenus culturels et ludiques dématérialisés se concentre dans leur capacité à analyser les habitudes de consommation des utilisateurs à des fins de personnalisation.

  • 2/3 tiers des utilisateurs de services de streaming musical ou de vidéo à la demande sur abonnement (dite « SVOD ») utilisent et apprécient les recommandations (étude Médiamétrie réalisée pour la CNIL, octobre 2015).

Pour Isabelle Falque-Pierrotin, Présidente de la CNIL :

« la lecture, la musique, les films et les séries mais aussi sans doute les jeux vidéo, bien au-delà du divertissement qu’ils nous procurent, ne sont-ils pas les lieux par excellence où ne cesse de s’élaborer et de se réinventer notre identité ? Les œuvres se situent au carrefour du plus collectif et du plus intime, au cœur de nos destins publics autant que personnels ».

Extrait de la page 23 du cahier IP

La « magie » des algorithmes ?

Indispensables pour naviguer dans l’immensité des catalogues de contenus, les algorithmes peuvent tout autant favoriser la découverte qu’enfermer les individus dans des goûts stéréotypés ou des horizons limités.

  • Près d’un utilisateur sur deux s’est d’ailleurs déjà demandé sur quelle base étaient produites ces recommandations.

Le 3ème cahier IP explore cette utilisation intensive des données personnelles au travers de tendances clefs et émergentes, d’interviews d’experts (Nicolas Curien, Eric Schérer, Olivier Ertzscheid, Dominique Cardon, Antonio Casilli) et de scénarios exploratoires.

Il analyse en particulier:

  • la diversité des modèles économiques  et le rôle croissant que les données y tiennent
    • Partie 1 INDUSTRIES CRÉATIVES, CONTENUS NUMÉRIQUES ET DONNÉES
  • la nature des données utilisées dans les usages actuels et émergents pour chacun des secteurs
    • Partie 2 LES CONTENUS CULTURELS VUS AU TRAVERS DU PRISME DES DONNÉES
  • les mythes et réalités de la recommandation et « fact-check » sur la « magie » des algorithmes
    • Partie 3 LE GRAAL DE LA RECOMMANDATION ET DE LA PERSONNALISATION
  • 4 scénarios explorant les futurs possibles du couple « données + culture » => Partie 4 DEMAIN, QUELLES CRÉATIONS ET QUELS USAGES DATA-DRIVEN ?

Outiller l’individu pour innover dans l’expérience utilisateur

Ce cahier se veut aussi un appel à l’innovation des acteurs économiques.

Pour ces entreprises qui misent tout sur l’expérience utilisateur, relever le défi de l’éthique et de la confiance passe aussi par des informations plus claires et la mise à disposition d’outils innovants (portabilité, tableaux de bord, politiques de confidentialité lisibles et illustrées).

Pour créer des expériences d’usage « sans frictions » les plateformes doivent renforcer leurs efforts de transparence et de loyauté, en particulier en ce qui concerne les algorithmes.

Privacy is not dying, it is being killed. And those who are killing it have names and addresses

Quite often, while discussing the role of web giants in enforcing mass digital surveillance (and while insisting that there is a cultural and political war going on around privacy and technology), I am asked this question: “If people are not willing to be spied upon, how come they aren’t out in the streets protesting tech companies’ privacy invasions?”. To which I reply: “Sure they are!”

Case in point: as part of a larger San Francisco Bay Area anti-Google campaign, protesters have started organizing rallies outside houses of Google Street View developers.

I’m not endorsing these protest tactics (they display deontological ambiguity, plus the flyer they distributed is pure rambling). I’m just pointing them out as examples of ongoing struggles. To paraphrase Utah Phillips: “Privacy is not dying, it is being killed. And those who are killing it have names and addresses.” Activists know these addresses, and protest outside them.

Further reading: my latest book Against the hypothesis of the « end of privacy » in social media: An agent-based modeling approach, co-authored with Paola Tubaro and Yasaman Sarabi, just published by Springer.

Google et son 'data center pirate' : vers une extraterritorialité fiscalement optimisée ? [Updated 01.11.2013]

Aux dernières nouvelles, Google serait en train de construire un datacenter flottant ! CNET a publié un article, amplement repris dans la presse internationale, à propos de ce projet top secret hébergé dans un mystérieux hangar de l’inaccessible Treasure Island. Le site étasunien n’y va pas par quatre chemins :

Google did not respond to multiple requests for comment. But after going through lease agreements, tracking a contact tied to the project on LinkedIn, talking to locals on Treasure Island, and consulting with experts, it’s all but certain that Google is the entity that is building the massive structure that’s in plain sight, but behind tight security. Could the structure be a sea-faring data center? One expert who was shown pictures of the structure thinks so…

Cela pourrait ressembler au début d’un roman de Robert Reed, mais l’idée est tout sauf anecdotique. Certes, le hangar en question n’est qu’un bâtiment jusque là utilisé pour tourner des films, sur une petite île artificielle dans la baie de San Francisco, anciennement de propriété de la marine militaire américaine. En revanche, il est vrai qu’en 2009 Google a obtenu un brevet pour un datacenter aquatique.

https://www.google.com/patents/US7525207

Brevet US7525207 – Water-based data center – Google Brevets

Le journaliste de CNET, Daniel Terdiman, déploie des efforts considérables pour analyser les aspects logistiques de l’opération immobilière sous-jacente à ce projet aux implications multiples. Une structure flottante de ce type, représenterait avant tout une prouesse technologique, une solution avancée pour alimenter et refroidir, grâce à l’eau de mer, les serveurs hébergeant les données.

Paradis (fiscaux) de données

Même si, à la fin de la lecture on peut rester assez sceptique sur toute cette histoire, on ne peut pas s’empêcher de constater qu’un aspect significatif a été passé sous silence autant par la presse américaine que par celle française : celui du statut légal et fiscal d’une telle structure. Pourtant, au lendemain du dépôt de brevet par la firme de Mountain View, une analyse détaillée avait été publiée sur le Journal of Law, Technology & Policy de la University of Illinois. Le titre de cette note, “Paradis de données maritimes: Le navire pirate breveté par Google”, ne laisse pas de doutes quant à son orientation critique.

Voilà un extrait, assez représentatif :

The prospect that offshore data havens will undermine regulatory regimes is of such concern that, even a decade ago, the European Council outlawed “transborder flows of personally identifiable data” between the European Union and jurisdictions having “inadequate” data protection standards. The potential for wily entrepreneurs to misuse such transborder informational flows has again been increased by the capacities of Google’s ocean-going data center. (p. 364-365)

Le texte se penche tout particulièrement sur les cas d’infractions au code de la propriété intellectuelle ou sur les situations plus extrêmes de violation de la législation nationale des Etats-Unis. Selon la Convention des Nations Unies sur le Droit de la Mer de 1994, les Etats peuvent appliquer leur législation seulement dans la limite de la mer territoriale et zone contiguë. Mais force est d’admettre que l’exercice de la législation extraterritoriale doit toujours s’accorder avec les principes du droit international. Outre cela, le fait même d’entretenir des échanges commerciaux avec les résidents d’une nation oblige les entreprises à respecter les lois de cette juridiction. Bref, les Etats-Unis peuvent continuer à se fier de leur géant du Web préféré : Google ne risque pas de devenir une autre Pirate Bay ou une autre Silk Road.

In general, U.S. Courts have held that “different results should not be reached simply because business is conducted over the Internet” even if the source of the electronic data is outside of the end user’s or the court’s jurisdiction. Conducting electronic commerce with residents of a jurisdiction constitutes availment of that government’s benefits and so empowers its courts to reach beyond their customary jurisdictions to grasp accused offenders in other regions. (p. 371)

Mais la question de la fiscalité d’un “paradis de données” offshore est quelque peu différente, surtout si l’on adopte une prospective moins américanocentrique. Le marché des datacenters extraterritoriaux n’est pas une découverte récente. Déjà à la fin des années 1990, le service britannique de stockage supersécurisé de données, HavenCo, s’était brièvement installée dans la micro-nation de Sealand (une plateforme au large du Royaume-Uni). D’autres datacenters prospèrent dans des nations comme Anguilla (un territoire britannique d’outre-mer situé dans la Caraïbe Orientale), qui en plus d’offrir un traitement fiscal avantageux n’adhèrent pas à la Convention de Berne ni à l’accord sur les ADPIC, qui règle l’utilisation commerciale des bases de données. Des expériences de ce type ont aussi été menés dans d’autres pays sans extradition vers les Etats-Unis : à Antigua-et-Barbuda, à Curaçao, à la Grenade et en République dominicaine (Antilles), ainsi qu’au Bélize et au Costa Rica. Pour la petite histoire, et sans vouloir forcément y voir un lien, ces pays se situent à quelques heures d’avion d’un autre territoire britannique d’outre-mer : l’archipel des Bermudes, où ces derniers années Google a activement optimisé sa situation fiscale

Grâce à un arrangement connu comme le « double irlandais », en orchestrant des payements entre filiales dans divers pays, Google a réussi a tenir son taux d’imposition entre 2,4% et 3,2% dans les années passées. Les britanniques ne sont pas contents, les irlandais sont sur le pied de guerre et les français sont à la tête d’un mouvement international pour la fiscalité numérique.

Reconnaître le digital labor pour ramener sur terre les géants du web

Or, s’il vous est arrivé de jeter un œil sur le rapport sur la fiscalité de l’économie numérique que Pierre Collin et Nicolas Colin ont rendu à Bercy en janvier 2013, vous savez que la limite principale à laquelle se heurte un projet de taxation des entreprises du numérique qui soit cohérent avec leur chiffre d’affaires réel est la difficulté d’identifier leur “établissement stable”. L’établissement stable n’est pas le siège de ces entreprises, mais une permanence au moyen de laquelle des bénéfices sont réalisés. Si cette permanence se trouve sur le territoire d’un pays, on dira alors que l’entreprise “est exploitée” dans ledit pays, et que là son impôt sur les sociétés est dû.

Le principe de territorialité, qui se trouvait déjà mis à mal, tombe à l’eau (c’est une façon de parler) si on imagine un scénario d’ “établissements aquatiques” où les données sont traitées et commercialisées. En effet la notion d’établissement stable, nous le rappellent les rédacteurs du rapport, “est marquée par les concepts économiques de l’après‐guerre et s’avère inadaptée à l’économie  numérique” (p. 3). Comme les entreprises du secteur numérique découplent méthodiquement le lieu d’établissement du lieu de consommation, il devient quasi impossible de localiser la place de création de valeur. Si, par surcroît, cette place devient flottante, la situation se complique terriblement…

Pour remédier à cela, le rapport Collin/Colin fait une proposition assez révolutionnaire : il prend le parti de déclarer que l’établissement stable se situera conventionnellement sur le territoire d’un Etat lorsque l’entreprise en question exerce une activité au moyen de données extraites du suivi régulier et systématique des internautes sur ce même territoire.

Les informations personnelles révélées par les utilisateurs sont la ressource principale des géants du Web, extraites et traitées algorithmiquement pour être monétisées sur le marché international. Reconnaître la stabilité de l’établissement des entreprises du numérique sur la base des données produites par ses utilisateurs, revient à reconnaître le digital labor de ces derniers. Si vous lisez ce blog, cette notion ne vous est pas étrangère : elle consiste à assimiler toute activité en ligne, de la plus spécialisée et orientée professionnellement à la plus banale et ludique, à du travail fourni par les utilisateurs aux propriétaires des plateformes d’Internet. Selon certains, ce travail invisible et quotidien devrait apporter une véritable rémunération, à verser aux usagers sous forme de salaire (c’est la position plus marquée à gauche, défendue par Andrew Ross en 2012), voire de royalties (c’est la proposition d’orientation néo-libérale faite par Jaron Lanier l’année suivante).

La solution fiscale française serait, une troisième voie : une manière de faire revenir, quoique indirectement, la valeur extraite d’une collectivité à la collectivité même qui l’a faite émerger. Si cette nouvelle acception du concept était adoptée, la question de l’extraterritorialité (flottante ou bien de terre ferme) serait écartée de l’équation.

Post-script 01 nov. 2013 : Le site web Ars Technica publie un article dans lequel une hypothèse alternative est proposée : le mystérieux projet aquatique ne serait qu’un énorme navire-showroom pour la promotion de Google Glass. A suivre…