admin

[Video] Intervention à la conférence “Les transformations du travail” (Sénat, 24 sept. 2018)

Le 24 septembre 2018 j’étais l’invité de la FÉP (Fondation de l’Écologie Politique) dans le cadre de la conférence “Les transformations du travail”. Voilà la vidéo de mon intervention lors de la table ronde “Les défis sociaux des transformations du travail”, animée par Sandrine Foulon (journaliste à Alternatives Économiques et chroniqueuse pour l’émission On n’arrête pas l’éco sur France Inter), avec  Thomas Coutrot et Pascal Lokiec.

 

Ailleurs dans les médias (mars 2018-oct. 2018)

» (12 oct. 2018) Dominique Méda : « Le “digital labor”, ou le travail du doigt », Le Monde

» (12 oct. 2018) Le droit comme outil d’humanisation du travail des données, S. I. Lex

» (19 août 2018) Quand l’entreprise dit : déconnectez !, Le Dauphiné

» (17 août 2018) Le pari du Privacy paradox : être vu et rester caché, Le Journal du Net

» (11 juillet 2018) Casilli: Hay trabajo humano invisibilizado detrás de la inteligencia artificial, Periódico Digital PIEB (Bolivie)

» (02 juillet 2018) Le numérique, à l’origine d’une nouvelle fracture sociale, Le Monde

» (26 juin 2018) Facebook: Bientôt une fonctionnalité pour savoir combien de temps vous passez sur le réseau, 20 Minutes

» (25 juin 2018) Facebook prépare une fonctionnalité pour lutter contre l’addiction à Facebook, Le Figaro

» (08 juin 2018) Digital labour et travail domestique : quand l’exploitation capitaliste s’étend aux hommes blancs, La Quadrature du Net

» (05 juin 2018) Décoloniser l’enseignement, Nonfiction.fr

» (21 mai 2018) Assistants vocaux: nos conversations sont écoutées par des travailleurs bien réels, BFMTV

» (15 mai 2018) Prendre en charge les troubles du comportement alimentaire, Mondes Sociaux

» (01 mai 2018) Ανθρωποι που αρνούνται να εργαστούν, Iefemerida

» (26 avril 2018) Les réseaux sociaux ont-ils fini par ériger une justice 2.0 ?, Siècle Digital

» (23 avril 2018) Comment Facebook a transformé l’amitié en donnée mesurable, Usbek & Rica

» (12 avril 2018) Comment être méchant ?, Vice

» (09 avril 2018) Dans La Tête De Jeff Bezos, La Plus Grosse Fortune Mondiale, Forbes

» (04 avril 2018) Pour une téléologie du numérique, Internetactu.net

» (02 avril 2018) Une automatisation en trompe-l’œil, Interactons UTC

» (31 mars 2018) Le Troll, un ami qui vous veut du bien (ou presque). Partie 5 : Sociologie du troll, C’est données !

» (27 mars 2018) Alors comme ça, on veut quitter Facebook?, Makery

» (22 mars 2018) Haverá proteção contra o capitalismo de vigilância?, Outras Palavras

» (14 mars 2018) Les fake news auront-elles la peau de la liberté de la presse?, Mediapart

» (13 mars 2018) Spotify va faire bosser ses utilisateurs pour compléter ses métadonnées, Mashable

» (13 mars 2018) I’m a digital worker, killing an arab. Chronique de la guerre algorithmique, Affordance.info

» (12 mars 2018) Proposition de Loi sur les “Fake News” : Nécessité impérieuse ou fausse bonne nouvelle ?, Universdoc

» (5 mars 2018) Propriété personnelle des « data » : le dernier combat de la secte libérale- Pour un Commissariat à la souveraineté numérique, Viv(r)e La Recherche

Soutenance de mon HDR (Université Paris Dauphine, 5 oct. 2018)

J’ai le plaisir d’annoncer la soutenance de mon habilitation à diriger des recherches qui aura lieu à l’Université Paris Dauphine le vendredi 5 octobre 2018 à 14h.

Le jury sera composé de Dominique Méda (Paris Dauphine, coordinatrice), Dominique Boullier (EPFL), Michel Grossetti (CNRS), Ursula Huws (Univ. Of Hertfordshire), Patricia Vendramin (Université Catholique de Louvain), Michel Wieviorka (FMSH).

La soutenance portera sur la présentation des mes travaux des dernières années, qui envisagent les technologies de l’information et de la communication dans leur rapport à la sociabilité, à la vie privée et au travail.

Le manuscrit original présenté en vue de l’obtention de l’HDR est intitulé  “Une théorie générale du digital labor”.


“Une théorie générale du digital labor”

Manuscrit original de soutenance d’habilitation à diriger des recherches de :

Antonio A. Casilli

L’analyse des effets des technologies numériques sur le travail ne peut pas se ramener aux prétendus effets de substitution entre l’humain et la machine « intelligente ». Face à la crise structurelle des marchés et à l’abdication de la mission historique des entreprises, un nouveau paradigme économique et technique s’impose, et c’est à l’aune de la notion de plateforme que nous devons appréhender le travail et ses transformations.

Il n’y a de plateformes que d’hommes et de femmes, d’usagers qui consacrent concrètement du temps et des efforts au fonctionnement de ces structures techniques. Les plateformes, dispositifs de coordination « multi-faces », captent la valeur générée par leurs utilisateurs en imposant trois types de digital labor : le travail à la demande (Uber, Deliveroo…), le micro-travail (Amazon Mechanical Turk, Clickworker…), le travail social en réseau (Youtube, Facebook…). Chacun de ces trois types est associé à des techniques distinctes, à des tâches spécifiques, ainsi qu’à des niveaux variables de conflit autour de la reconnaissance du travail même.

À l’heure de l’automation et de la plateformisation, le travail est soumis à une pression pour le remplacement qui aboutit au résultat inattendu de pousser les travailleurs à réaliser des activités, mal ou non rémunérées, de production de données et de supervision d’apprentissage de machines. Vendues aux entreprises dans le cadre de solutions d’intelligence artificielle, ces fonctions sont présentées aux personnes qui les réalisent au quotidien non pas comme du travail, mais comme des usages sans rapport avec la création de valeur par les dispositifs techniques. Les machines ont besoin du digital labor aujourd’hui pour apprendre à s’en passer demain.

La disparition du travail n’est pas une conséquence inévitable de l’automation, alors que sa dégradation est un effet non seulement possible, mais déjà bien visible, de la plateformisation. Qu’elle se réalise ou bien qu’elle demeure au stade d’une tentative inaboutie n’est pas la conséquence surdéterminée du développement technologique, mais l’issue de l’aménagement des luttes sociales qui l’entourent.

“Las desigualdades del microtrabajo siguen las tensiones del colonialismo” (entrevista La Razon, Bolivia, 22 julio 2018)

Entrevista publicada en Animal Político, suplemento del diario boliviano La Razón.

Antonio Casilli: Trabajador digital, el ‘invisible’

Interactuar en internet también es ‘trabajar’, pues se consume produciendo; tal su provocación.

El sociólogo italiano Antonio Casilli

Iván Bustillos es periodista 08/08/2018 03:45 PM

La Paz•Hace algunos días, estuvo en Bolivia el sociólogo italiano Antonio Casilli, vino a presentar el libro Trabajo, conocimiento y vigilancia. 5 ensayos sobre tecnología, texto publicado por la Agencia de Gobierno Electrónico y Tecnologías de Información y Comunicación (Agetic). Uno de los más renombrados “sociólogos de internet” en Europa, Casilli propone interesantes tesis de lo que sería el “trabajador digital”, la vigilancia masiva por internet y su conflicto con la privacidad, y la construcción del conocimiento en las redes. Con un mundo diferenciado pero global, provoca mirar internet de otro modo.

— La creencia generalizada es que los robots nos están quitando el trabajo. Parece que usted tiene otra percepción del asunto.

— Diré que es al revés, que más bien son los seres humanos los que están tomando el trabajo de los robots. La idea de que los robots van a tomar el trabajo de los humanos es muy vieja, del siglo XIX, cuando pensábamos que las primeras máquinas a vapor iban a reemplazar el trabajo humano. Eso no ha pasado. Son las máquinas las que cambian, se renuevan; cada vez que hay una nueva ola de nuevas máquinas siempre vuelve la misma profecía de que éstas nos van a reemplazar. Ahora estamos con máquinas digitales, que para poder funcionar requieren de un trabajo y entradas en el sistema; esas entradas son el trabajo digital.

— Usted dice que el trabajo digital es invisible, disperso, precario, menos solidario…

— Que quede claro que el trabajo digital no es el de los expertos, de los ingenieros que crean el software. Se trata más bien de personas, que ya se puede llamar ‘proletariado digital’, que hacen tareas muy simples, estandarizadas, a las que se paga muy poco, hasta no se les paga. Estamos ante un trabajo que no se ve, porque está invisibilizado a propósito por los creadores de las plataformas. No es invisible por su esencia, es invisibilizado por los propietarios de dichas plataformas. Es trabajo que no está reconocido como tal, porque los trabajadores están considerados consumidores; además, hay trabajadores que hacen tareas tan pequeñas que no se consideran trabajo, sino microtrabajo. Estos falsos consumidores y los microtrabajadores realizan una labor muy importante, que es entrenar a las inteligencias artificiales.

— ¿Esto es propio de los países centrales, de alta tecnología, o se despliega también en otros del Tercer Mundo, digamos?

— Es un fenómeno global, que no es solo para los países de alto ingreso; sin embargo, el valor que es generado por este microtrabajo no está repartido de manera igual. Los países centrales, del norte, son los que han comprado este microtrabajo y sacan provecho de él. Si nos fijamos dónde viven los microtrabajadores, que reciben los ingresos (más) bajos, vienen de los países en vías de desarrollo o países pobres; entonces, son ellos los que realizan este microtrabajo. Vemos que las desigualdades que reflejan este microtrabajo, en general, siguen las mismas tensiones que ha producido el colonialismo.

— Este trabajador digital, señala usted en otra parte, llega a cien millones; y si hay algo que lo distingue es que es ‘consumidor-productor’. Parece que el solo hecho de usar internet ya no es tan inocente como antes.

— En efecto. Claro que cien millones se refiere a los microtrabajadores que reciben algunos centavos para estas microtareas. Pero, si empezamos a hablar de los consumidores-trabajadores, ahí hablamos de miles de millones de personas; en realidad, cada uno de nosotros. Aparte de que tengamos un trabajo propio, realizamos estas microtareas y generamos valor.

— Parece que también ha cambiado el concepto de empresa.

— Las plataformas no son como las empresas del siglo XX. La característica de las empresas era la centralización de algunas funciones y la fidelización de los trabajadores con un salario. Fuera de la empresa era el lugar del mercado; pero hoy las plataformas son como un híbrido entre empresa y mercado: como empresa, centralizan y acumulan las ganancias; pero como mercado, allí fluctúan los precios. Por ejemplo, la plataforma Amazon es, de un lado, una empresa que centraliza las ganancias y que estructura de una manera muy jerárquica el trabajo; pero, de otro lado, es una plaza de mercado, donde fluctúan los precios, que incorpora a estos consumidores-trabajadores, a los microtrabajadores.

— ¿Hay experiencias de defensa  de este microtrabajo; que los sindicatos se estén renovando?

— En algunos países los sindicatos están cambiando y se están interesando en los trabajadores digitales. Experiencias en Francia y Alemania. Sindicatos muy importantes han creado plataformas digitales para proteger a los trabajadores del sector digital. También se apoya a trabajadores de África o de Asia, que son los que más realizan el microtrabajo. Hay esfuerzos de hacer plataformas cooperativas, basadas en el principio de hacer evolucionar las plataformas para alejarse del concepto capitalista.

— ¿Y el Estado? ¿Qué papel está jugando en esta nueva realidad?

— Es difícil, porque los Estados que yo conozco son los europeos, y éstos buscan tener alianzas con las plataformas capitalistas y no defender a los trabajadores, porque consideran que la presencia de estas plataformas en su territorio va a ser una fuente de ingresos y riqueza, y también una fuente de datos masivos de vigilancia sobre los trabajadores. Pero, sí hay una forma de cambio que puede aparecer en la relación entre Estados y plataformas, que es a través de la fiscalización. Francia, y de manera general Europa, de último están pensando cómo utilizar la fiscalización para sacar impuestos sobre la cantidad de datos producidos en cada uno de los países, y cómo utilizar estos ingresos para financiar políticas redistributivas.

— Vigilancia masiva y datos privados. ¿La sola fecha de nacimiento es un dato que puede venderse, o responder sobre gustos, colores, lo que fuera?

— Cuando hablamos de los datos personales en las plataformas, como Facebook, en realidad estamos hablando de datos realmente muy colectivos. Si usted comparte en las plataformas qué música le gusta o qué opiniones políticas tiene, en realidad está dando también información sobre todo el entorno, su familia, sus amigos. Porque los grupos en estas plataformas se conforman en base a intereses comunes. Por eso digo que no hay nada más colectivo que un dato personal. Entonces, el que la plataforma se esté apropiando de los datos de una persona en realidad significa que se está adueñando de un grupo, de una cadena de personas, que de poco en poco llega a ser la humanidad entera. Porque la estructura misma de estas plataformas hace que cada uno de nosotros esté relacionado con cualquier otra persona a través de cinco o seis grados de separación, o hasta menos. ¿Qué significa grado de separación? significa que entre yo y Putin, el presidente de Rusia, por ejemplo, hay solamente cuatro personas, que yo conozco a alguien que conoce a alguien que conoce a alguien que conoce a Putin. Lo mismo entre yo y un microtrabajador en Filipinas. Entonces, cada dato que se me roba a mí es también un dato que se roba al resto de estas personas.

— ¿Se puede vender información, tendencias, estadísticas…?

— En general, estos datos no son vendidos como tales, sino que están monetizados. Significa que se provee un acceso a estos datos, una suscripción, a otras plataformas, empresas, Estados, medios de comunicación; esta monetización de los datos provee a estas grandes empresas un gran flujo de efectivo. Pero esto no es lo único: además de vender el acceso a estos datos, también se los conserva dentro de las plataformas para poder entrenar las inteligencias artificiales, entrenar los modelos de aprendizaje automático, hacer que los robots aprendan a comportarse de la misma forma que las plataformas.

— En la construcción de conocimiento en internet, la idea básica parece: todos contribuyen, pero siempre hay alguien que monitorea, Wikipedia, Google.

— Primero hay que entender que Wikipedia no es solo una enciclopedia, sino una galaxia de enciclopedias en varios idiomas. Hasta ahora la Wikipedia con más influencia es la versión en inglés. Pero el problema no es tanto el de Wikipedia, sino de Google, esto porque Wikipedia ha regalado toda su base de conocimiento a Google, a cambio de facilitar el acceso; así, si alguien busca a Antonio Casilli en Google, el primer resultado va ser Wikipedia; entonces, quien controla Wikipedia de alguna forma controla a Google. Por esta razón, cuando alguien quiere influir, introducir un sesgo político en los resultados de Google tiene mucho interés en ir a modificar los artículos de Wikipedia. Aunque Wikipedia es una experiencia colectiva, colaborativa, muy positiva, está rodeada de empresas y plataformas depredadoras, capitalistas, que buscan cómo torcer Wikipedia para sacarle provecho. El desafío más grande en este sentido es construir una plataforma de conocimiento común que logre ser independiente, que no pueda ser apropiada por las otras plataformas (de concepto capitalista).

Antonio Casilli. Presentó el libro Trabajo, conocimiento y vigilancia. 5 ensayos sobre Tecnología (Agetic, Embajada de Francia, 2018). Ensayos del autor en los últimos diez años sobre el impacto de las nuevas tecnologías de la información y la comunicación en el mundo laboral, la privacidad y el saber.

[Video] Trabajo, conocimiento y vigilancia (La Paz, Bolivia, 11 julio 2018)

Presentación de mi libro Trabajo, conocimiento y vigilancia: 5 ensayos sobre tecnología, una antología de mis artículos, originalmente publicados en francés e inglés entre 2010 y 2018. La publicación de este libro fue dirigida por AGETIC y la Embajada de Francia en Bolivia. (Conferencia realizada en la Vicepresidencia del Estado, La Paz, Bolivia, traducida al español del inglés).

Referencia completa:

Casilli, Antonio A. (2018). Trabajo, conocimiento y vigilancia: 5 ensayos sobre tecnología. La Paz, Bolivia: Editorial del Estado.

Descarga documento PDF

Why Bolivia matters to the future of digital economies (plus three talks and one new book!)

It’s been a few months in the making, and now it’s happening: I’ll be in Bolivia to deliver a few talks, promote my new book in Spanish, meet a bunch of interesting people, and travel into the future of digital economies in the world’s largest salt flats (skip to the end of this post to know more about this specific point).

Bolivia is an effervescent nation that has embarked in an ambitious plan for digital transition, with, among many other things, the recently approved “law of digital citizenship” (ley de ciudadanía digital) and the creation of governmental bodies devoted to the implementation of data-related and digital technology-enhanced policies, such as the AGETIC (Agencia de Gobierno Electrónico y Tecnologías de Información y Comunicación) and the ADSIB (Agencia para el Desarrollo de la Sociedad de la Información). Also, there are lively cultural debates, grassroots projects, hackerspaces, tech hubs, independent ISPs, hackatons, game jams, etc. going on in the major cities of La Paz, Cochabamba, Santa Cruz, Potosì.

What I’ll be doing in Bolivia? I’ll discuss collective ownership of data and how to overcome digital labor by adopting suma irnakaña (which, in aymara language, means “knowing how to work”) with students, academics, activists, and policymakers. Here’s the schedule so far (click to enlarge):

 

 

Tue, July 10, 2018,
10AM
Universidad Mayor de San Andrés (UMSA)
Auditorio de la carrera de sociología
Piso 2, Edificio René Zavaleta
La Paz

 

 

Tue, July 10, 2018,
6:30PM
Centro cultural Simon I. Patiño
Potosi 1450
Cochabamba

 

 

Wed, July 11, 2018,
7PM
Hall de la Vicepresidencia del Estado
calle Mercado,
esquina Ayacucho
La Paz

These conferences will also allow me to say a few words about my new book, which is actually an anthology of articles and chapters that I’ve published in the last decade, plus an unpublished essay about artificial intelligence and micro-work. It is also my first book published in Spanish EVER, so I’m pretty excited. The title is Trabajo, conocimiento y vigilancia. 5 ensayos sobre tecnología (“Work, Knowledge, and Surveillance. Five essays on technology”) and it has been edited by Khantuta Muruchi, to whom goes my gratitude.

The chapters featured in this book are: A History of Virulence: The Body and Computer Culture in the 1980s (initially published in the journal Body & Society, 2010); The Wikipedian, the academic, and the vandal, (initially published in the book “Wikipédia, objet scientifique non identifié”, 2015); Four Theses on Digital Mass Surveillance and the Negotiation Of Privacy (initially presented at the 8th Annual Privacy Law Scholar Congress, Berkeley, USA, 2015); Is There a Global Digital Labor Culture? Marginalization of work, global inequalities, and coloniality (initially presented at the 2nd symposium of the PARGC, University of Pennsylvania, Philadelphia, USA, 2016);  Artificial Intelligence: will humans replace robots? (unpublished).

What else… I’ll be travelling to the Salar de Uyuni, the world’s largest salt desert and the host of one of the biggest plants for the processing of lithium. Seems pretty remote from my topics, doesn’t it? And yet it has to a lot to do with the continuities between material and immaterial economies. In an essay published in 2016 in the Monthly Review, Christian Fuchs argued that present-day international division of digital labor involves “human subjects using technologies of labor on objects of labor” produced by assembly workers building digital equipments using natural resources as inputs. Thus, “the very foundation of global digital labor” is the extraction and processing of minerals.

In particular, recent researches have highlighted the importance of Rare earth elements (REE) and critical metals in the energy transition. And this is where countries like Bolivia come into play. Such minerals are crucial parts of the digital transformation that is at the heart of my research activity. In particular, lithium impacts both automation and digital labor. Imagine a 100% electric vehicle world: lithium demand would multiply by thirty to propell the cars. When it comes to mobile phones batteries, lithium is of capital importance: users worldwide are expected to exceed five billion by next year, thus lithium’s demand is expected to increase +2898% according to a recent UBS estimate. To start looking into how REE mining influences information production, I decided to visit the plantas de industrialización de litio in the Salar de Uyuni (which, incidentally, looks pretty lunar this time of the year, with temperatures plummeting to -10 at night…).

So whish me good luck and buen viaje and stay tuned for more info from South America.

Comment se fabriquent les “fake news” ? (entretien France Inter, 8 juin 2018)

J’étais l’invité de Sonia Devillers à l’Instant M de France Inter pour parler du Projet de loi sur les fausses informations actuellement en discussion à l’Assemblée Nationale.

Le vote de “la loi contre la manipulation de l’information” s’est embourbée cette nuit à l’Assemblée. Le sociologue et spécialiste d’internet Antonio Casilli nous explique ce matin les dessous de la fabrication et diffusion des fake news. Pas d’adoption en première lecture. La majorité a sous-estimé les assauts de la France Insoumise, du Front National et des Républicains qui hurlent à la mort de la liberté d’expression. « Cette loi les empoisonnent », écrit l’Obs ce matin. Pourtant dans son édito, Le Monde la juge « délibérément inefficace pour qu’elle ne soit pas dangereuse ». Après la matinale d’Inter, ce matin, L’Instant M vous propose de creuser le sujet. Pas de discussion sur la confiance ou la vérité, mais un focus sur ces armées de l’ombre payées pour répandre des fausses nouvelles. Nous vous racontons comment ce système est complètement artificiel.

Les brèves de L’Instant M Coup d’arrêt, hier, net et brutal pour Buzzfeed France. Décision totalement inattendue de son actionnaire américain en difficulté financière. Ce site – une équipe de quatorze personnes – avait développé une ligne éditoriale très nouvelle et très remuante. Au départ, des classements rigolos et anecdotiques partagés à gogo sur les réseaux sociaux. Puis, en France comme aux Etats-Unis, un deuxième fil, d’info celui-là, recrutant des journalistes d’investigation. Scoops et révélations : le restaurant L’Avenue refusant les clients arabes, enquête sur les candidats aux législatives du Front National, actes de violence commis par Jean-Michel Baylet, ancien ministre à l’encontre d’une collaboratrice … Fin de partie.

An open letter to tell Google to commit to not weaponize its technology (May 17, 2018)

Following an invitation by Prof. Lilly Irani (UCSD), I was among the first signatories of this ICRAC “Open Letter in Support of Google Employees and Tech Workers”. The letter is a petition in solidarity with the 3100+ Google employees, joined by other technology workers, who have opposed Google’s participation in Project Maven.

Following our joint action, on June 7 2017 Google has released a set of principles to guide its work in AI in a document titled “Artificial Intelligence at Google: our principles,”. Although the company pledges not to develop AI weapons, it does says it will still work with the military.

Open Letter in Support of Google Employees and Tech Workers

Researchers in Support of Google Employees: Google should withdraw from Project Maven and commit to not weaponizing its technology.

An Open Letter To:

Larry Page, CEO of Alphabet;
Sundar Pichai, CEO of Google;
Diane Greene, CEO of Google Cloud;
and Fei-Fei Li, Chief Scientist of AI/ML and Vice President, Google Cloud,

As scholars, academics, and researchers who study, teach about, and develop information technology, we write in solidarity with the 3100+ Google employees, joined by other technology workers, who oppose Google’s participation in Project Maven. We wholeheartedly support their demand that Google terminate its contract with the DoD, and that Google and its parent company Alphabet commit not to develop military technologies and not to use the personal data that they collect for military purposes. The extent to which military funding has been a driver of research and development in computing historically should not determine the field’s path going forward. We also urge Google and Alphabet’s executives to join other AI and robotics researchers and technology executives in calling for an international treaty to prohibit autonomous weapon systems.

Google has long sought to organize and enhance the usefulness of the world’s information. Beyond searching for relevant webpages on the internet, Google has become responsible for compiling our email, videos, calendars, and photographs, and guiding us to physical destinations. Like many other digital technology companies, Google has collected vast amounts of data on the behaviors, activities and interests of their users. The private data collected by Google comes with a responsibility not only to use that data to improve its own technologies and expand its business, but also to benefit society. The company’s motto “Don’t Be Evil” famously embraces this responsibility.

Project Maven is a United States military program aimed at using machine learning to analyze massive amounts of drone surveillance footage and to label objects of interest for human analysts. Google is supplying not only the open source ‘deep learning’ technology, but also engineering expertise and assistance to the Department of Defense.

According to Defense One, Joint Special Operations Forces “in the Middle East” have conducted initial trials using video footage from a small ScanEagle surveillance drone. The project is slated to expand “to larger, medium-altitude Predator and Reaper drones by next summer” and eventually to Gorgon Stare, “a sophisticated, high-tech series of cameras…that can view entire towns.” With Project Maven, Google becomes implicated in the questionable practice of targeted killings. These include so-called signature strikes and pattern-of-life strikes that target people based not on known activities but on probabilities drawn from long range surveillance footage. The legality of these operations has come into question under international[1] and U.S. law.[2] These operations also have raised significant questions of racial and gender bias (most notoriously, the blanket categorization of adult males as militants) in target identification and strike analysis.[3] These problems cannot be reduced to the accuracy of image analysis algorithms, but can only be addressed through greater accountability to international institutions and deeper understanding of geopolitical situations on the ground.

While the reports on Project Maven currently emphasize the role of human analysts, these technologies are poised to become a basis for automated target recognition and autonomous weapon systems. As military commanders come to see the object recognition algorithms as reliable, it will be tempting to attenuate or even remove human review and oversight for these systems. According to Defense One, the DoD already plans to install image analysis technologies on-board the drones themselves, including armed drones. We are then just a short step away from authorizing autonomous drones to kill automatically, without human supervision or meaningful human control. If ethical action on the part of tech companies requires consideration of who might benefit from a technology and who might be harmed, then we can say with certainty that no topic deserves more sober reflection – no technology has higher stakes – than algorithms meant to target and kill at a distance and without public accountability.

We are also deeply concerned about the possible integration of Google’s data on people’s everyday lives with military surveillance data, and its combined application to targeted killing. Google has moved into military work without subjecting itself to public debate or deliberation, either domestically or internationally. While Google regularly decides the future of technology without democratic public engagement, its entry into military technologies casts the problems of private control of information infrastructure into high relief.

Should Google decide to use global internet users’ personal data for military purposes, it would violate the public trust that is fundamental to its business by putting its users’ lives and human rights in jeopardy. The responsibilities of global companies like Google must be commensurate with the transnational makeup of their users. The DoD contracts under consideration by Google, and similar contracts already in place at Microsoft and Amazon, signal a dangerous alliance between the private tech industry, currently in possession of vast quantities of sensitive personal data collected from people across the globe, and one country’s military. They also signal a failure to engage with global civil society and diplomatic institutions that have already highlighted the ethical stakes of these technologies.

We are at a critical moment. The Cambridge Analytica scandal demonstrates growing public concern over allowing the tech industries to wield so much power. This has shone only one spotlight on the increasingly high stakes of information technology infrastructures, and the inadequacy of current national and international governance frameworks to safeguard public trust. Nowhere is this more true than in the case of systems engaged in adjudicating who lives and who dies.
We thus ask Google, and its parent company Alphabet, to:

  • Terminate its Project Maven contract with the DoD.
  • Commit not to develop military technologies, nor to allow the personal data it has collected to be used for military operations.
  • Pledge to neither participate in nor support the development, manufacture, trade or use of autonomous weapons; and to support efforts to ban autonomous weapons.

__________________________
[1] See statements by Ben Emmerson, UN Special Rapporteur on Counter-Terrorism and Human Rights and by Christof Heyns, UN Special Rapporteur on Extrajudicial, Summary and Arbitrary Executions.

[2] See for example Murphy & Radsan 2009.

[3] See analyses by Reaching Critical Will 2014, and Wilke 2014.

[Séminaire #ecnEHESS] Juan Carlos De Martin “L’université à l’heure des algorithmes : sortir du cauchemar néolibéral” (11 juin 2018, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Pour la dernière séance de l’année de notre séminaire Étudier les cultures du numérique nous aurons le plaisir d’accueillir Juan Carlos De Martin, professeur à l’École polytechnique de Turin et chercheur associé au Berkman Klein Center de Harvard. Il est le co-directeur du centre Nexa Internet & Société et l’auteur de The Digital Public Domain: Foundations for an Open Culture (avec Melanie Dulong de Rosnay, OpenBookPublishers, 2012) et Università futura. Tra democrazia e bit (Codice Edizioni, 2017). Son intervention sera discutée par Francesca Musiani (ISCC-CNRS).

⚠️ La séance aura lieu le lundi 11 juin 2018 de 17h à 19h30, Salle 9, EHESS, 105 bd Raspail, 75006 Paris. ⚠️


Titre : University and Neoliberalism: What Is To Be Done?

Intervenant : Juan Carlos De Martin (École polytechnique de Turin)
Discutante : Francesca Musiani (ISCC-CNRS)

In France, UK, Canada, recent social movements have highlighted the way both students life and faculty activity is impacted by what is described as the neoliberal university. Precarious jobs, tenure under attack, opaque “algorithmic” managerial logics, less and less funding for curiosity-driven research, increasingly hierarchical governance, students as customers, extensive quantification, rankings, “publish or perish”, student debt and many other increasingly well-studied trends are corrupting the University beyond recognition. Now that we are more and more aware of the situation, the focus of our attention and energies should shift towards praxis, i.e., towards what is to be done. During this lecture, I will argue that we need an idea of University suitable for our age, a normative model to orient our thoughts and actions; one of the main weaknesses, in fact, of dealing with neoliberalism has been the incapacity of offering alternative, credible models. I will then share with the audience a few ideas of possible actions by the academic community.


La présentation et les débats se dérouleront en anglais.

Le RGPD, un premier pas dans la bonne direction (grand entretien Libération, 25 mai 2018)

Pour le sociologue Antonio Casilli, le RGPD est un premier pas pour assainir la relation que citoyens et entreprises ont établie autour des données fournies par les premiers aux secondes.

Sociologue, Antonio Casilli est enseignant-chercheur à Télécom ParisTech et chercheur associé à l’EHESS. Pour lui, l’enjeu du règlement général sur la protection des données (RGPD) est de permettre au «travailleur de la donnée» qu’est devenu homo numericus de se réapproprier un capital social numérique que les grandes plateformes avaient jusqu’ici confisqué à leur avantage.

Que représente le règlement européen à l’aune du combat déjà ancien pour la maîtrise de nos données personnelles ?

La question du contrôle de nos vies privées a radicalement changé de nature à l’ère des réseaux. Alors qu’il s’agissait auparavant d’un droit individuel à être «laissé en paix», cette vision très exclusive n’a plus guère de sens aujourd’hui pour les milliards d’usagers connectés en permanence, avides de partager leurs expériences. Nos données personnelles sont en quelque sorte devenues des données sociales et collectives, ce qui ne signifie évidemment pas qu’il faille faire une croix sur l’exploitation qui en est faite. C’est même tout le contraire.

Comment le RGPD s’inscrit-il dans ce mouvement ?

Ce texte est l’aboutissement d’un processus d’adaptation à l’omniprésence des grandes plateformes numériques dans notre quotidien. Dans le Far West réglementaire qui a prévalu ces dernières années, leurs marges de manœuvre étaient considérables pour utiliser et valoriser les données personnelles comme bon leur semblait. Avec le RGPD, il devient possible de défendre collectivement nos données. Le fait que le règlement ouvre la possibilité de recours collectifs en justice est très révélateur de cette nouvelle approche.

En quoi le RGPD peut-il faciliter nos vies d’usagers et de «travailleurs» de la donnée ?

En actant le fait que nos données ne sont plus «chez nous» mais disséminées sur une pluralité de plateformes, dans les profils de nos proches, les bases de données des commerçants ou des «boîtes noires» algorithmiques, le RGPD cherche à harmoniser les pratiques de tous les acteurs, privés mais aussi publics, qui veulent y accéder. D’où l’idée d’un «guichet unique» pour les usagers, qui établit que c’est le pays de résidence qui est compétent pour gérer les litiges, et non le lieu d’implantation de l’entreprise qui a accès aux données. Cela n’aurait aucun sens alors que celles-ci circulent partout.

Si ces données sont le résultat de notre propre production en ligne, ne devrait-on pas disposer d’un droit à les monétiser ?

Ce n’est pas la philosophie du RGPD, qui ne conçoit pas la donnée dite personnelle comme un objet privatisable, mais plutôt comme un objet social collectif dont nous pouvons désormais contrôler l’usage. Les données sont devenues un enjeu de négociation collective, non pas au sens commercial du terme comme l’imaginent certains, mais plutôt syndical : il y a là l’idée d’un consentement sous conditions dans lequel les deux parties fixent des obligations réciproques. C’est très différent d’une vision marchande qui risquerait d’instituer ce que l’on appelle un «marché répugnant», dans lequel on monétiserait des aspects inaliénables de ce qui fonde notre identité.

Le diable ne se situe-t-il pas dans les fameuses «conditions générales d’utilisation» (CGU) que tous les services s’empressent de modifier, mais que personne ne lit ?

C’est une des limites actuelles du RGPD. Les «Gafa» [Google, Apple, Facebook et Amazon, ndlr] restent en position ultradominante, et nous bombardent de CGU qui pour l’instant ne modifient pas l’équilibre des pouvoirs. Il existe un vrai flou sur notre consentement présupposé à ces «contrats» que l’on nous somme d’approuver.

Pouvez-vous donner des exemples ?

Lorsque Facebook explique que la reconnaissance faciale de nos photos est utile pour lutter contre le revenge porn [la publication en ligne de photos sexuellement explicites d’une personne sans son accord], il s’abstient de préciser que dans certains contextes, elle peut également servir à certains régimes politiques pour identifier des personnes. Il circule actuellement une pétition dénonçant le projet «Maven», que Google mène en collaboration avec l’armée américaine afin que ses technologies d’intelligence artificielle servent à de la reconnaissance d’images filmées par des drones. Le problème, c’est que les mêmes technologies sont utilisées pour améliorer nos usages. Mais on n’a pas signé pour que nos données servent à améliorer les outils du Pentagone.

Le RGPD va-t-il aider à un rééquilibrage entre petits et très gros acteurs d’Internet, comme le dit la Commission européenne ?

Il serait illusoire de croire que la régulation de nos données personnelles pourra faire ce que d’autres lois devraient faire. Les grandes plateformes du numérique vont appliquer ou faire semblant d’appliquer le RGPD, parce qu’il est vital pour elles de continuer à accéder au marché européen, mais les petits vont continuer à souffrir de leur concurrence. Pour parvenir à un rééquilibrage économique, il vaut mieux se concentrer sur la réforme de la fiscalité du numérique, qui jusqu’ici n’a pas vraiment avancé malgré toutes les promesses des politiques.