privacy

“Coronavirus tracking apps are a serious threat to medical privacy” (BBC World Turkey, 2 April 2020)

I was interviewed by journalist Çağıl Kasapoğlu for BBC World Turkey.

Casilli: Koronavirüs kitlesel gözetim ve veri toplama sistemlerini güçlendiriyor

Çağıl Kasapoğlu BBC Türkçe 12-16 minutes


Gözetim sistemlerinin en yaygın kullanıldığı ülkelerden biri Çin.
Image caption Gözetim sistemlerinin en yaygın kullanıldığı ülkelerden biri Çin.

Koronavirüs, Covid-19 salgınıyla mücadelede bazı ülkeler vatandaşlarının sağlık durumlarını takip edebilmek için dijital teknolojiye başvurdu.

Çin, Singapur, İsrail ve Güney Kore gibi ülkelerde bireylerin cep telefonlarına yüklenen izleme takip uygulamalarıyla koronavirüsün yayılması engellenmeye çalışıyor.

Avrupa ülkeleri de benzer yöntemleri gündemlerine almaya başladı.

Ama bu yöntemleri eleştirenler, gizlilik hakkının, bireysel veri koruma haklarının ihlali olarak görüyor.

Diğer yandan milyonlarca kişinin evlerine kurulan yazılımlarla uzaktan çalışmaya başlamaları da siber güvenlik açısından soru işaretleri doğuruyor.

İnternet gizliliği ve dijital istihdam konularında uzmanlaşan İtalyan-Fransız sosyolog Antonio Casilli, koronavirüsle değişen çalışma yöntemleri ve izleme takip sistemleriyle ilgi BBC Türkçe’nin sorularını yanıtladı.

Çin, Singapur, Güney Kore, İsrail gibi bazı ülkelerde koronavirüsün yayılmasını engellemek için bireyler cep telefonu uygulamaları veya farklı dijital araçlarla takibe alınıyor. Bu başarılı bir yöntem mi?

Hayır, kesinlikle başarılı bir yöntem değil. Ama tüm dünya genelinde uygulanan kitlesel gözetim politikalarıyla tutarlı bir yöntem. Çin, Güney Kore veya Singapur gibi ülkelerin her biri birbirinden farklı. Örneğin Çin’de koronavirüsle mücadelede başarı daha çok katı kuralların dayatıldığı karantina, sosyal mesafe ve tecrit uygulamalarıyla bağlantılı. Ve tabi enfeksiyon kapanların takibe alındığı cep telefonu uygulamaları ve sistemleri de var. Ama Çin’de bu tip gözetleme ve takip uygulamaları hali hazırda vardı.

Güney Kore’de de başarının asıl nedeni testlerin yaygın yapılması, Tayvan’dan da hükümet ve yetkililer tarafından kaliteli bilgi akışının sağlanmasından kaynaklanıyor.

Şimdi ise İtalya ve Fransa gibi ülkelerde koronavirüsle mücadelede, enfeksiyon kapanların belirlenmesi için kendi cep telefonu uygulamalarını başlatmak istiyor.

Bu tip yöntemler pandemiyle mücadelede değil, psikolojik caydırma politikalarında etkili olabilir. Dolayısıyla biyomedikal araçlardan çok disiplin sağlama açısından önemli olabilirler.

Antonio Casilli
Image caption Antonio Casilli

O zaman devletler, hükümetlerin kitlesel gözetleme sistemlerini uygulamak için bu tip krizlerden faydalandıklarını mı düşünüyorsunuz?

Evet, kesinlikle artık çok da gizli olmayan, kitlesel gözetim politikalarını uygulamaya çalışıyorlar. Aslında zaten bu tip yöntemler vardı. Hükümetlerin, siyasi partilerin, özel şirketlerin bu yöntemlere başvurduklarının farkına varmak için Edward Snowden veya Cambridge Analytica gibi krizleri beklememize gerek yok. Ama bu krizler hükümetler ve kuruluşlar tarafından gözetim yöntemlerini dayatmak için bir fırsat olarak görülüyor. Covid-19 salgını da bu krizlerden farklı değil.

Drone uçurmak, hayata müdahale eden cep telefonu uygulamalar dayatmak, bunlar demokrasiye tehdit oluşturuyor. Zira bu teknolojilerin üreticileri de genelde hükümetlere yakın şirketler oluyor.

Kitlesel gözetim sistemleri üreten şirketler demokratik yapılara girebilmek için başarılı lobi faaliyetleri yürüyor. Yüz tanıma teknolojileri, akıllı şehirler gibi teknolojilere karşı bazı sivil toplum kuruluşları da farkındalık yaratmaya çalışıyor.

Bunlar gizliliğin ihlali, bireysel hakların ihlali gibi görülebilir ama diğer yandan da insanlar ölüyor ve Covid-19 salgınında da bazıları çıkıp “Ben gizliliğimden ödün vermeye hazırım, yeter ki devlet beni korusun” diyebiliyor. O zaman bu nasıl dengelenebilir?

Tam da bu nedenle, ölüm korkusu nedeniyle, insanlar gizliliklerine daha çok değer vermeli, sahip çıkmalı. Gizlilik, yalnızca otoriter rejimlere karşı güçlü bir araç değil, aynı zamanda sağlığınızı da koruyan bir şey.

Tıbbi gizlilik ilkesi vardır mesela. Tıbbi sorunların, bilgilerin, hastalıkların teşhir edilmemesi hakkı vardır çünkü size karşı ayrımcılık amaçlı kullanılabilir. Şimdi ise, tıbbi gizliliğe ciddi tehditler oluştuğunu görüyoruz.

Koronavirüs kapanların teşhir edilmesi, kamuya duyurulması yalnızca tehlikeli değil aynı zamanda ayrımcılığa da neden olabilecek bir şey. Bazı durumlarda sağlık hizmetlerine erişimi engelleyebilir, bazı durumlarda da bireylerin sağlıklarıyla ilgili bilgileri paylaşmaya çekinmelerine neden olabilir. Covid-19 hastaları ayrımcılığa uğrarsa, komşuları tarafından saldırıya uğrarsa veya kamu sağlığına erişimleri engellenirse o zaman diğer hastalar da kendi durumlarının ortaya çıkmasını istemezler.

İnsanların tıbbi gizlilik hakları korunmalı ve bu bilgiler yalnızca sağlık çalışanlarıyla paylaşılmalı, herkesle değil. Bu yalnızca sizin gizliliğinizi korumakla kalmıyor, sağlığınızı, kolektif sağlığımızı da koruyor.

Tayvan'da da cep telefonlarında takip sistemi var.
Image caption Tayvan’da da cep telefonlarında takip sistemi var.

Ama bazı durumlarda insanlar kendilerini korumak için başkalarının verilerine de ihtiyaç duyuyor olabilir? Mesela nerede çıkmış, kimde çıkmış, böylece onlarsan sakınmak isteyebilirler?

Bu, kitlesel gözetim sistemleri üretenlerin ana argümanı. Son 10 yılda da böyle oldu. “Bunu insanlar istiyor, bilgilerinin açığa çıkarılmasından memnunlar” diyorlar. Facebook da bunu diyordu 10 yıl önce. Ama hayır. İnsanlar bilgilerinin, verilerinin açığa çıkmasından, paylaşılmasından memnun değil. Cambridge Analytica olayı da bunu gösterdi.

Bir de veri toplayıp paylaşanlar “Bu sizin kendi iyiliğiniz için” diyor. Hayır, bunu yalnızca otoriter rejimler söyler. Özellikle kitlesel gözetim araçları üretip bu yöntemle zengin olanlar söyler.

Bir de en tehlikeli bakış açılarından biri ‘koronavirüsle mücadele ile gizlilik hakkı arasında denge sağlamaya çalışmak’. Bu elmalarla, armutları, birbirleriyle hiçbir ilgileri olmayan meseleleri karşılaştırmak demek.

Koronavirüs ile gizlilik farklı şeyler. Gizlilik, temel bir özgürlük hakkıdır, dolayısıyla korunmalıdır. Herhangi bir şekilde aşağı çekilemez, çünkü temel bir haktır.

Avrupa’da bireysel verilerin korunmasına yönelik ciddi politikalar var ama şimdi Avrupa ülkeleri de Rusya ve bazı Asya ülkeleri gibi koronavirüsle mücadelede cep telefonlarından izleme yöntemlerinin kullanılıp kullanılamayacağını tartışıyor. Genel olarak tüm dünyada George Orwell’in distopyası ‘Big Brother’ (Büyük Birader) gibi bir durumla karşı karşıya kalabilir miyiz?

Daha da kötüsü ‘Big Mother’ (Büyük Anne) olacağız sonunda. Herkes Çin ve Rusya’yı ‘kötü adamlar’ olarak öne çıkarıyor. Evet, Moskova’daki yüz tanıma sistemi çok ürkütücü veya Çin’de uyguladıkları sosyal takip sistemleri korkunç ama İngiltere veya Fransa ve ABD, İsrail de aynı şekilde ‘kötü’. Çünkü bu teknolojilerin, devasa kitlesel gözetim sistemlerinin ana üreticileri bu ülkeler. Fransa, İngiltere ve ABD’de de sistematik olarak gizlilik ihlalleri yapılıyor.

‘Palantir’ (Avrupa ülkelerinin koronavirüs verileri toplamak için görüştüğü öne sürülen veri analizi şirketi) bir Rus şirketi değil, bir Amerikan şirketi. Kurucusu da büyük bir Trump destekçisi olan Peter Thiel. Bu mesele demokrasinin yozlaşması, kurumsal çıkarların hükümet işlerine girmesi meselesidir. ‘Big Brother’ olayı zaten birçok alanda kitlesel gözetim açısından var. Ama artık, büyük şirketlerin çıkar ilişkisi içerisinde hükümetlerin içine sızdığını görüyoruz.

cep telefonu

Siz ‘dijital işgücü’ üzerine de çalışmalar yapıyorsunuz. Şimdi koronavirüs salgını nedeniyle birçokları evlerde dijital çalışma ortamına girmişken, birçokları da hala dışarıda ve bazıları da bu sisteme geçemedikleri için işlerini kaybetme riskiyle karşı karşıya. Bu iş gücündeki eşitsizlikler açısında ne anlama geliyor?

Dünya nüfusunun neredeyse yarısı karantinada. ABD’de Gallup araştırma şirketinin yakın zamanda yaptığı bir ankete göre bu durumun, koronavirüse maruz kalma riski olanlarla olmayanlar arasında sınıfsal farklar var. Daha düşük gelirli işlerde çalışanların bazıları fiziksel teması daha yüksek olan işlerde çalışabiliyor.

Dolayısıyla evden de çalışmaları mümkün olmuyor. Diğer yandan orta sınıf, üst sınıf daha yüksek gelir sahibi olanlar ise uzaktan çalışma sistemine geçebiliyor. Zaten Avrupa’da, ABD’de bu kişiler daha karantina, tecrit uygulamaları başlamadan evlerine kapandı.

Tabii ki sınıfsal nedenler var, işçi sınıfları tehlikelere karşı daha az korunaklı olabiliyor veya güvenlikleri daha zayıf olabiliyor. Ama sınıf her şeyi açıklamıyor.

Bazı meslek grupları da tehlikelere daha açık. Örneğin sağlık çalışanları, doktorlar. Gelir seviyeleri yüksek olabilir ama risk altındalar.

Evet, zengin ile yoksul arasında büyük bir fark var ama mesafelerin belirlediği işler arasında da fark far. Grafik tasarımcısı, avukat gibi meslekler fazla fiziksel temas gerektirmeyen meslekler. Koronavirüs salgınıyla, fiziksel temas gerektirmeyen bu mesleklerin de daha hızlı ‘dijitalleştiğini’ gördük.

Ama bu dijitalleşmeyle oluşan Uber, Deliveroo gibi platformlarda çalışanlar ise sosyal sigortaları ve sosyal güvenceleri açısından yeterince korunmuyor. Resmi sözleşmeleri bile yok çoğu zaman. Ayrıca da fiziksel risklere karşı daha korunaksız kalıyorlar.

Koronavirüs ilüstrasyonu önünde zoom uygulaması olan cep telefonu görüntüsü
Image caption Zoom video konferans uygulamasının kullanıcı sayısı ve piyasa değeri arttı.

O zaman bu hızlı dijitalleşme kendi kurbanlarını da mı yaratmış oluyor?

Evet, teknoloji daha önce de var olan sınıfsal ve istihdamdaki bazı farklıları ortaya çıkarıyor. Bazı akımları abartma eğilimi de var. Ama bu teknolojiler toplumda ‘yanlış giden şeyleri düzeltme’ vaadiyle bizlere sunuldu. “Herkes özgürce çalışacak, herkes istediğini yapabilecek” fikirleri ortaya çıktı.

Ama sonunda bunun doğru olmadığını gördük, teknolojinin de maskesi düşüyor.

Bu evden çalışma ve dijitalleşme gelecekte çalışma tarzı anlayışımızı nasıl değiştirecek? Kalıcı bir uygulamaya dönüşür mü bu tarz istihdamlar?

Şimdi bazı şakalar yapılıyor: “CEOların, teknoloji vizyonerlerinin yıllarca beceremediği dijital dönüşümü koronavirüs yaptı” diye. Yani “insanların beceremediğini koronavirüs becerdi” diyenler var. Örneğin üniversiteler 10 yıldır dijital eğitimi deniyor ama hiçbir zaman tam olarak başarılı olamamıştı. Şimdi ise koronavirüs yüzünden tüm eğitim sektörü uzaktan eğitime geçti.

Veya, bazı başka ofis işleri, bakanlıklar bile ‘akıllı çalışma’ yöntemiyle uzaktan işlerini halletmeye başladılar.

Ama teknolojiler bize sunulduğunda, bize verilen sözler bunlar değildi. Video konferanslar, uzaktan eğitimler… Son birkaç günde ve haftada, bize sözü verilen teknolojilerin çok hızlı ve kötü bir şekilde uygulandığını gördük. Bu ani geçiş, altyapısı sağlam sistemler üzerine oturtulmadı.

Şirketler de bu uzaktan çalışma yöntemiyle çalışanlarını denetleyebilmek için bazı bilgisayar yazılımları satın almaya başladı. Bu da kitlesel gözetimin bir yöntemi. Uzaktan çalışma derken bunun bir gözetim ve takip sistemine dönüşebileceği hesaba katılmamıştı. İdeal olan da bu değil.

Evlere kurulan sistemler bireylerin siber güvenliği açısından bir tehlike oluştuyor mu? Zoom uygulaması giderek yaygınlaştı ama veri topladığı kaygıları da dile getiriliyor?

Zoom çok iyi bir örnek. Herkes kullanımı kolay etkin bir uygulama olarak görüyor ama altında yatan güvenlik ve gizlilik sorunları var.

Pazarlama argümanlarında söylediklerinin aksine şifreleme uygulamaları yok. Daha önce Zoom’un hassas bilgileri Facebook’la da çalıştığı haberleri çıkmıştı.

‘Veri yönetimi’ olarak tabir edilebilecek gizlilik kuralları çerçevesinde bireylerin verileriyle ne yapıldığı, kullanıcıların verilerinin tanımadıkları, bilmedikleri şirketlere satılmaması için, verilerini koruma hakkı için neler yaptığı önemli.

Zoom’un iş modeline bakarsanız, tamamen verileri Facebook, Google ve diğerlerine satmak üzerine inşa edilen bir model olduğunu görürsünüz.

Yalnızca iki gün önce veri politikalarıyla ilgili kullandıkları kelimeleri değiştirdiler ve satmadıklarını söylemeye başladılar.

Bu veriler yalnızca kişisel bilgileriniz değil, aynı zamanda IP adresleriniz. Herkes artık evlerinden Zoom kullandığı için bu da ev adreslerinizin, konumlarınızın ve kullandığınız cihazlara ait bilgilerinin toplanıyor olması demek.

Facebook sayfanız, iş vereniniz ile ilgili çok değerli bilgilerin yanlış kişilerin eline geçiyor olması çok feci bir durum. Genelde de hep, sistematik bir şekilde yanlış kişilerin yani big tech şirketlerinin eline geçiyor.

Zoom’un son dönemde piyasa değerinin neden arttığını da açıklayan bir durum. Kullanıcı sayıları, dolayısıyla topladıkları veriler arttı.

“Pour sortir de cette crise pandémique il faut abattre la surveillance de masse” (grand entretien, AOC, 28 mars 2020)

Le 20 mars, quelques jours après le début du confinement en France, je me suis entretenu pendant un bon moment avec le journaliste Raphaël Bourgois. Le résultat de notre conversation est cette longue interview publiée sur le média AOC le 28 du même mois. J'en reproduis ici le contenu exclusivement à des fins d'archivage personnel, d'autant plus que le texte est accessible pour tout le monde sur le site de AOC (pas besoind d'être abonné•es, il suffit de s'inscrire avec une adresse email et, sans laisser aucun identifiant personnel ni moyen de paiement, vous pouvez accéder à 3 articles par mois pendant un an).
Antonio Casilli : « Cette épidémie s’avère aussi un signal d’alarme à propos du numérique »

Par Raphael Bourgois Journaliste

Près de 3 milliards de personnes sont aujourd’hui confinées. Dans cette situation, qu’il s’agisse du travail ou de toute autre forme d’interactions humaines, les relations numériques sont venues pallier l’absence de contact physique. Comme si nous avions été brutalement précipités dans un monde 2.0 depuis longtemps prophétisé. Reste à savoir si ce monde relève plutôt de l’utopie, ou de la dystopie.

Depuis le début de l’épidémie de Covid-19, devenue depuis pandémie, l’outil numérique est apparu tour à tour comme un moyen de lutte contre la propagation du coronavirus, un outil de contrôle social, un substitut à nos relations avec nos proches, une façon de maintenir une activité professionnelle… Tout se passe comme si du web 2.0 – qui désigne depuis maintenant près de 20 ans ce deuxième âge d’Internet dans lequel les interactions humaines sont simplifiées et accélérées – nous étions passés à un monde 2.0. Face à cette accélération d’une mutation en cours, et à l’affaiblissement des interrogations et des barrières qui en freinaient péniblement la progression, le sociologue Antonio Casilli possède l’avantage d’un regard porté sur le long terme. Professeur en sociologie à Telecom Paris, ses recherches portent principalement sur la politique, la santé et les usages informatiques. Il avait publié il y a dix ans Les Liaisons numériques. Vers une nouvelle sociabilité ? (Le Seuil), un ouvrage de référence sur ce qu’Internet fait à nos façons de nouer des amitiés, de développer des relations professionnelles ou encore de constituer un couple. Récemment, il s’est intéressé, dans En attendant les robots. Enquête sur le travail du clic (Le Seuil), à la fausse « promesse » de voir l’intelligence artificielle remplacer l’humain dans son labeur, et les machines finalement faire disparaître le travail. Son regard sur la situation actuelle fait émerger la nécessité de ne pas perdre de vue une approche critique, et un souci démocratique, quand on mobilise des outils numériques qui peuvent par ailleurs se révéler utiles pour lutter contre l’épidémie. RB.

Lutilisation des moyens offerts par le numérique, à loccasion de l’épidémie de Covid-19, qu’il s’agisse de garder le contact avec les proches ou de continuer à travailler, amène certains à évoquer un « basculement dans un monde 2.0 ». Quen pensez-vous ?
Le côté utopique de ce monde 2.0, tel qu’il est présenté ou prophétisé, se trouve mis à mal dans notre situation actuelle. Nous avons basculé en « mode dégradé » pour reprendre le vocabulaire des ingénieurs qui désignent ainsi un système qui ne marche pas, et pour lequel il faut trouver une solution de repli, mais en moins bien. Le numérique qu’on nous enjoint de pratiquer en ce moment pourrait ainsi être qualifié de quick and dirty, « rapide et sale » : des solutions adoptées en catastrophe et qui peuvent poser au mieux des problèmes sérieux en termes de surveillance, gouvernance et propriété des données produites ; et au pire qui nous exposent à tout un tas de risques qu’on n’a pas encore envisagés. En particulier le télétravail idéalisé ne ressemble en rien au télétravail en temps de crise. Il ne s’agit pas d’une activité choisie annoncée par des bataillons de consultants en gestion des RH, permettant d’articuler autonomie et contrainte, de moduler d’un côté ce que l’on réalise chez soi selon ses propres rythmes, de l’autre des activités ritualisées comme la signature d’un contrat ou la présentation d’un projet, à réaliser en présentiel. Ici, il n’y a que des contraintes, qui en plus s’installent dans l’intimité de l’habitation des travailleurs. Je pourrais donner l’exemple de ce qui se passe dans le milieu universitaire, où on a vu, avec le confinement, se multiplier les visioconférences qui ne sont qu’une imitation du pire du travail présentiel : la réunion à laquelle chacun cherche à échapper, la surveillance des étudiants par le relevé des présences… De plus, beaucoup passent par des plateformes comme Zoom, qui a d’ailleurs explosé en bourse à la mi-mars, voire Google Hangouts ou Microsoft Teams… ce sont donc les GAFAM qui profitent de la situation avec des conséquences potentiellement graves. D’abord en termes des données ainsi produites, puisque ces plateformes prennent pas mal de libertés avec le Règlement général sur la protection des données (RGPD), ou avec des règlements locaux comme la loi californienne de défense des consommateurs (CCPA) de 2020.

On se retrouve aujourd’hui dans une situation qui est non seulement affreuse du point de vue du respect de la vie privée et de la gouvernance des données, mais qui est aussi dangereuse du point de vue de la stabilité de ces systèmes. Il s’agit en effet de systèmes centralisés, chez Microsoft ou Google, et qui de ce fait ne sont pas forcément conçus pour être résilients. En cas de surcharge, ils tombent sans qu’il n’y ait la possibilité de trouver une alternative. Le 14 mars dernier, Google a envoyé un mail aux clients de son service GSuite. Tout en voulant les rassurer sur la performance des serveurs Google Cloud, le message prévenait qu’il ne fallait pas non plus s’attendre à des miracles et qu’il y aurait des pannes. Cela a d’ailleurs déjà eu lieu avec Microsoft Teams qui est tombé en panne lundi 16 mars quand la moitié des administrations et des entreprises d’Europe a voulu faire des vidéo-réunions en même temps. Ce sont des systèmes qui ne sont pas résilients, qui ne sont pas adaptés en réalité pour faire face à des situations de crise. C’est flagrant dans un autre contexte, celui d’Amazon, dont la chaîne d’approvisionnement est en train de s’écrouler sous la demande, sous les grèves des travailleurs des entrepôts et les fermetures de dizaines de centres de distribution pour cause de contamination. La firme a ainsi annoncé qu’elle concentrerait ses livraisons sur certaines catégories de produits jugés essentiels. Les centres de distribution d’Amazon sont des goulots d’étranglement qui rendent cette chaîne d’approvisionnement globale extrêmement instable.

Est-ce quen cette période où les autorités recommandent la « distanciation sociale », nous pouvons compter sur les Liaisons numériques pour reprendre le titre dun de vos ouvrages ?
Depuis les années 1990, plusieurs études sur les sociabilités connectées ont montré qu’il est impossible d’envisager les interactions en face à face et celles sur Internet comme des alternatives mutuellement exclusives. Contrairement à une idée reçue, ce n’est pas parce que nous passons du temps sur Internet que nous négligeons nos relations en face à face. De façon symétrique, en découle que les « liaisons numériques » ne remplacent pas les liaisons physiques, présentielles. Penser qu’on pourrait privilégier une dimension plutôt que l’autre est tout à fait ridicule d’un point de vue scientifique. C’était ce que j’écrivais déjà dans le livre que vous citez, nous vivons dans des espaces qui sont « en même temps » des espaces numériques et des espaces physiques. Moins d’interactions en face à face se soldent à terme par des tissus sociaux effilochés. Avant même la crise du Covid-19, les acteurs commerciaux l’avaient bien compris. La plupart des sites de mises en relation qui ont émergé ces derniers temps – médias sociaux, sites de rencontre, plateformes de livraison – ont été basés sur l’articulation de la vie locale et de la vie numérique. Uber nous met en contact avec des VTC qui sont à moins de 10 minutes de nous. Sur les sites de rencontre, on est mis en relation avec les célibataires de son quartier, de sa ville avec des indicateurs de leur proximité… à 100 m, à 1 km, etc.

C’est la même chose pour les sites de type Facebook ou WhatsApp, qui privilégient depuis quelques années la communication entre « liens forts », des gens qui ont déjà des formes d’interaction. On a donc eu plutôt tendance à superposer une couche numérique et une couche matérielle. Ce qu’il se passe aujourd’hui, c’est que la rhétorique du numérique en temps de confinement soutient qu’on peut éliminer l’une de ces deux couches, et en sortir indemne. Se passer de la couche de l’interaction physique via la « distanciation sociale », en la compensant simplement par des interactions numériques, c’est illusoire. Cela ne compense pas, par exemple, les pertes en termes de capital social, de ressources relationnelles qu’on peut mobiliser dans des situations de détresse, surtout pour les personnes les plus démunies. Si une personne est déjà isolée, ce n’est pas parce qu’on bascule tout sur Internet qu’elle va retrouver subitement des réseaux de solidarité. Et si quelqu’un a des enjeux d’intégration sociale, liés à son état de santé, à son grand âge, à des raisons économiques, etc., ce n’est pas la visioconférence qui va améliorer sa vie.

En quoi la situation que nous vivons révèle-t-elle les fractures de la société française ?
La quarantaine accentue très certainement les disparités sociales et les différentes formes de privilèges. Il n’y a que ceux qui ont déjà un capital social et financier important qui peuvent partir dans leur maison secondaire. Les autres vivent cette quarantaine de façon beaucoup plus intense. Par exemple, si l’on n’a pas de travail, on continue d’être au chômage et on est confiné chez soi, ce qui diminue les possibilités de trouver une source de revenus. Sans parler des personnes qui sont forcées de continuer à travailler soit parce qu’elles ne peuvent pas faire autrement, comme les livreurs Deliveroo, soit parce que leur métier n’est pas possible en télétravail. C’est tout de même le cas de 6 métiers sur 10. Je me suis particulièrement intéressé à ce que les Anglais désignent par « last mile job », les emplois des derniers kilomètres, qui sont « inéliminables ». Il s’agit de la toute fin de la chaîne de production : les services, les chaînes logistiques comme les hôpitaux, les usines, les réseaux de livraison. Souvent, il s’agit de métiers à très faible rémunération et protection sociale, et qui demandent une proximité physique avec ceux qui reçoivent ces services. Il y a aussi des risques dans les supermarchés, et malgré la rhétorique qui met en avant l’automatisation des caisses, les supermarchés requièrent toujours une présence humaine importante. Dans un contexte d’achats compulsifs dictés par la panique, il y a un afflux important de clients. Et même dans les parcs de caisses automatiques, 4 ou 5 personnes sont nécessaires contre 2 ou 3 en temps normal. Ces personnes ne peuvent pas respecter les distances de sécurité. Donc on voit que la quarantaine se joue bien à deux vitesses.

Très tôt les entreprises de livraison à domicile ont lancé des campagnes par mail pour garantir une « livraison sans contact ». Que cela révèle-t-il de limaginaire de ces plateformes et de la réalité de ceux qui y travaillent ?
Il s’agit tout simplement de la poursuite d’une entreprise d’euphémisation du travail que je dénonce dans mon dernier livre, En attendant les robots. Enquête sur le travail du clic. L’économie de plateforme s’est construite sur l’idée selon laquelle ce sont les machines, les algorithmes, qui travaillent à la place des humains, et sur la promesse d’un système sans faille et sans contact. Ce n’est pas vrai, il y a des personnes qui doivent produire la nourriture et d’autres qui doivent la livrer. Si un livreur tombe malade parce qu’il est exposé, on prend conscience que c’est toute l’infrastructure qui tombe en panne. Par leur communication, ces plateformes tentent aujourd’hui d’invisibiliser encore un peu plus ces personnes. On sait qu’une société comme Deliveroo anticipe déjà la maladie de plusieurs livreurs, et pour se prémunir, elle prétend de manière assez vague qu’elle assurera dans ce cas une aide financière, sans toutefois dire à combien s’élèvera cette aide, ni sous quelles modalités et pendant combien de temps elle sera versée à ces travailleurs qui n’ont ni salaire ni contrat de travail. Or, la question de savoir pour combien de temps ils seront indemnisés est essentielle. Il faut rappeler que même les jeunes peuvent être contaminés par le Covid-19. Et à l’issue d’une hospitalisation, on n’est plus forcément en bonne santé. On ne peut plus repartir à vélo comme avant. Jusqu’à combien de temps après l’hospitalisation Deliveroo est-il prêt à les aider ? Cette entreprise, comme ses semblables ou comme les plateformes de VTC, joue avec la protection sociale, en prétendant que c’est bénéfique aux indépendants. S’il y a un risque, déclarait dans le New York Times le 24 mars le PDG de Uber Dara Khosrowshahi, c’est parce que les salariés ont trop de droits, ce qui laisse les « partenaires » sans protection. C’est un discours irresponsable, malhonnête, et hélas cohérent avec celui de certains « dérégulateurs » bien de chez nous. Les plateformes ont refusé d’assumer leur responsabilité d’employeur et ils vont certainement se retrouver confrontés à un retour de bâton de la part des gens qu’ils ont refusé d’employer.

Depuis au moins deux ans un certain nombre dactions en justice débouchent sur la reconnaissance du lien de subordination entre travailleurs et employeurs, comme le 4 mars dernier lorsque la Cour de Cassation a reconnu le statut de salarié dun chauffeur Uber. Assiste-t-on là encore à un point de bascule comme en miroir de cette société 2.0 que vous nous évoquions ?
On assiste en effet à une vague de décisions de justice, en Espagne et en France, Deliveroo a été condamné, Uber a été condamné à requalifier les contrats de certains chauffeurs car on estime désormais – et c’est le point important de la décision de la Cour de Cassation – que l’acte même de se connecter à une plateforme relève du lien de subordination. Et on le voit dans d’autres services comme les services de micro-travail que j’ai beaucoup étudiés. Par exemple, la plateforme française Clic And Walk a été a condamnée à requalifier ses « usagers » en salariés. Or, ils avaient eu la mauvaise idée de déclarer le chiffre astronomique de 700 000 usagers, et ils risquent donc de se retrouver avec des centaines de milliers de personnes demandant à voir leur contrat régularisé. J’ai des doutes très forts sur ce chiffre, car les enquêtes que l’on a pu mener aboutissent à un total estimé à environ 250 000 personnes travaillant de manière occasionnelle sur les quelques 28 plateformes existantes en France. Mais ces plateformes ont tendance à gonfler le nombre de leurs utilisateurs au début, afin de montrer qu’elles sont bien dans la phase « up » de la start up, en voie de devenir une licorne, c’est-à-dire une entreprise du numérique à la croissance exceptionnelle. Il s’agit donc moins de refléter la réalité que de pouvoir se présenter aux investisseurs avec une base d’utilisateurs conséquente – en l’occurrence il serait plus juste de parler de travailleurs. Cette démarche qui consiste donc à exagérer ses résultats pour attirer les investisseurs se heurte à une sorte de moment de vérité quand il y a des décisions de justice telles que celles qui ont été rendues dans les deux dernières années. À ce moment-là, ces plateformes ont tendance à rétropédaler – la métaphore est particulièrement appropriée dans le cas de Deliveroo – et à inventer des critères comme le nombre de connexions durant tant de temps de suite, au cours de telle période, pour telle rémunération… Celles et ceux qui ne satisferaient pas ces critères particulièrement contraignants ne pourraient alors prétendre au statut de travailleur ou travailleuse. Dans la phase de « down », de redescente sur terre des start-up, il y a donc un nouveau jeu, qui consiste pour les plateformes qui ont, afin d’attirer les investisseurs, artificiellement gonflé le nombre de chauffeurs pour Uber, de livreurs pour Deliveroo, à réduire tout aussi artificiellement le nombre de celles et ceux qui pourraient être considérés comme leur salarié·e·s.

Le quotidien britannique The Guardian a évoqué la possibilité dun tournant pour le télétravail à la faveur de l’épidémie de Covid-19. Pour ces emplois éligibles au travail à domicile, quel changement en perspective ?
Je suis d’accord avec l’idée selon laquelle nous sommes à un tournant dans l’histoire du travail à distance, mais ce n’est pas celui qu’on attendait. La promesse d’une plus grande maîtrise individuelle, de plus d’autonomie afin de gérer les différents temps et les différents espaces, entre vie privée et travail, cette promesse offerte par l’évolution de la technologie, n’est pas au rendez-vous. Ce que je constate ne correspond pas à cette vision optimiste et apaisée. S’il y a un tournant, il se concrétise plutôt dans la généralisation d’un travail de la micro-tâche effectuée à distance. Pour faire court, il y a énormément d’activités qui dans les trois dernières décennies ont été impactées par la digitalisation. J’insiste sur ce terme de digitalisation, de « travail du doigt », qui n’est pas la numérisation, l’introduction d’une dimension scientifique. Un nombre important de métiers voient se multiplier les tâches répétitives, routinières, abrutissantes, aliénantes, et qui ne sont même pas reconnues. Je suis enseignant-chercheur, pourtant une partie croissante de mon temps est consacrée à envoyer des mails et à cliquer sur des plateformes dont j’ignore largement l’utilité et sur lesquelles je suis contraint d’aller cocher des cases, remplir des formulaires… Je peux donc considérer qu’il y a une forme de « tâcheronnisation » de mon métier, composé de manière croissante d’actions de plus en plus simples qui peuvent effectivement être réalisées à distance, et c’est une mauvaise nouvelle car cela introduit une dimension de déqualification. N’importe qui peut réaliser le travail de cliquer pour valider un devoir sur un MOOC. Pas besoin d’embaucher un fonctionnaire en CDI. Tout ce travail réalisé à distance n’est pas reconnu, il ne figure pas dans mon cahier des charges, et il est candidat à l’externalisation. En réalité un nombre important de métiers risquent de se retrouver non pas automatisés – c’est-à-dire réalisés par des robots – mais « tâcheronnisés » car réalisés par des personnes à distance et pour moins cher. À mon sens, la victoire du télétravail annonce en réalité une vague de délocalisations à l’aide de plateformes.

Il ny aurait donc aucun avantage à cette numérisation de la vie et du travail que l’épidémie actuelle est venue accélérer ? Ce regard critique ne passe-t-il pas à côté de certains aspects positifs de la numérisation ?
J’aimerais préciser le sens que je donne à ce discours « critique », tel que vous le définissez. Ce que je dis, avec d’autres, ce n’est pas qu’il faudrait déplorer l’existence même du numérique, bien au contraire nous nous en félicitons tout en regrettant qu’il soit tombé aux mains d’oligopoles capitalistes, transformés en véritables machines à cash par l’exploitation des utilisateurs. L’exemple de l’épidémie de coronavirus est encore une fois éclairant : il n’y a aucune espèce d’autocensure de ces entreprises qui vont continuer le business as usual. Or il y avait la possibilité, et on l’a toujours, d’avoir un numérique autre, un numérique décentralisé, un numérique respectueux de la vie privée, un numérique qui n’exploite pas les données et qui ne force pas les usagers à produire des données à outrance, un numérique qui rémunère les personnes à leur juste valeur… Mais force est de constater que tout a été organisé jusqu’à présent pour favoriser des grandes plateformes capitalistes. Cette épidémie est aussi un signal d’alarme à propos du numérique, et même un réveil-alarme qui sonne une prise de conscience : certaines de ces grandes plateformes sont en réalité des infrastructures d’utilité publique qu’on a intérêt a minima à réguler de manière contraignante, et a maxima à collectiviser. Je ne parle pas forcément de nationalisation, j’y suis même assez opposé, mais de retrouver la vocation initiale de ces plateformes, un terme qui évoque un projet commun. Cette approche par les communs serait un profond changement de nature qui pourrait émerger de l’urgence.

On voit pourtant certaines de ces plateformes commencer à samender, par exemple face à la diffusion de fake news et la propagation de rumeurs, le travail de modérateur qui avait été difficile à faire admettre face au terrorisme semble simposer spontanément. Ne peut-on espérer que ce « réveil-alarme » soit entendu par les géants du numérique et quils prennent un virage plus vertueux ?
Dans le cadre du documentaire de France Télévisions Invisibles, réalisé par Henri Poulain et co-écrit avec Julien Goetz, et pour lequel j’ai joué un rôle de conseiller scientifique, une personne interviewée dans le troisième épisode, modérateur pour Facebook, dit quelque chose d’à mon sens vraiment révélateur : la responsabilité de Facebook, c’est de faire des profit pour ses investisseurs, et tant que le réseau social n’arrivera pas à faire de l’argent en modérant, elle ne considérera jamais cette activité comme son cœur de métier. Donc le problème principal concernant la modération des contenus est qu’il s’agit d’une corvée considérée comme une nuisance nécessaire, à laquelle les plateformes se plient pour apaiser l’opinion publique. Leur seul problème, c’est d’éviter toute forme de responsabilité légale, de ne pas être attaquables devant des cours de justice pour avoir véhiculé des informations non seulement fausses, mais dangereuses. Ça ne permet pas de faire les choses sérieusement.

La situation actuelle offrirait donc plutôt loccasion pour les plateformes de la Silicon Valley d’étendre leur pouvoir ?
Tout d’abord je ne pense pas que ce soit seulement un problème de plateformes, ou d’entreprises de la Silicon Valley. C’est sans conteste l’un des centres, mais des choses de ce type se passent à Bangalore en Inde, à Shanghai en Chine, et même à Paris pas très loin de là où je travaille. Des grands groupes industriels qui prospèrent sur la surveillance de masse, sur la collecte d’énormes masses de données, et qui se retrouvent dans la situation de profiter de l’épidémie, il y en a partout. Des groupes pharmaceutiques, des groupes qui vendent des solutions d’intelligence (au sens de collecte d’information et de renseignement), la France est d’ailleurs bien lotie de ce point de vue. Le fait est que nous avons un devoir de vigilance, mais ces plateformes devraient aussi avoir un devoir de retenue dans un contexte comme celui-là. Parce que c’est vraiment une situation dans laquelle la confusion est grande, et les entités ou plutôt les organisations en mesure d’en profiter sont celles qui ont déjà un poids énorme sur le marché. Il me paraît donc tout aussi important de réguler leur comportement que de réguler celui des individus comme on le fait ces temps-ci avec le confinement. À l’enjeu de santé publique devrait s’ajouter un enjeu de santé démocratique, et donc une intervention toute aussi ferme des autorités pour demander par exemple aux entreprises qui collectent des informations liées à la santé des individus ce qu’elles comptent en faire. La régulation ne doit pas aller seulement vers le micro, mais aussi vers le macro.

Cette épidémie a commencé en Chine, un pays dont on connaît la capacité de contrôle social mais aussi de contrôle du numérique, et dont la gestion autoritaire de l’épidémie a produit de réels résultats. Dans quelle mesure cela fait-il triompher le modèle numérique chinois ?
À mon sens, le grand succès de la Chine dans ce contexte de pandémie ce ne sera pas les exploits médicaux, la preuve de sa capacité pharmaceutique, ni même l’aide internationale qu’elle assure déjà auprès de certains pays comme l’Italie, mais l’export d’un modèle idéologique. C’est le pire du Parti communiste chinois qui triomphe : l’alliance des outils déjà mis en place comme le système de crédit social, la surveillance généralisée par la reconnaissance faciale, les applications de contrôle des mouvements de population dans un contexte de pandémie. Les citoyens chinois sont ainsi géolocalisés et surveillés, au nom de la lutte contre le coronavirus, jusque dans leur état de santé par des applications qui contrôlent l’évolution de leur température corporelle, les symptômes, les hospitalisations, les consultations avec des médecins, et qui transmettent toutes ces données à la police. Ces données ne vont évidemment pas disparaître dans quelques mois ou dans quelques années, quand cette crise sanitaire aura pris fin. On retrouve cette problématique dans d’autres pays, comme Taïwan ou la Slovaquie où les télécoms mettent désormais les données des smartphones des personnes malades de Covid-19 à disposition des gouvernements. Il suffit de voir les lois qui ont été acceptées en Israël il y a quelques semaines pour constater ce qui commence à se généraliser en termes de surveillance de masse, en termes de violations systématiques de la vie privée des citoyens. Il faut aussi noter, encore une fois, qu’il existe d’autres modèles comme la Corée du Sud qui ont plus joué sur une actualisation de pratiques et de codes sociaux préexistants et un dépistage systématique, avec un beau succès. Une alternative est donc possible.

Aux défenseurs des libertés publiques qui, comme vous, alertent à propos de l’extension de la surveillance numérique au nom de la sécurité, que ce soit en matière de terrorisme ou de santé publique, on oppose souvent largument de lefficacité. Cette épidémie permet-elle d’enfin voir concrètement les contreparties, ce quon risque et ce quon abandonne au nom précisément de lefficacité ?
Ma profonde conviction est que pour sortir de cette crise pandémique il faut abattre définitivement et sans délai le système actuel de surveillance de masse numérique. Nous nous en sortirons avec des mesures comme la généralisation du port du masque dans l’espace public, donc en invalidant de fait les systèmes de reconnaissance faciale. Nous nous en sortirons en responsabilisant les citoyens et en les incitant à mettre en place des formes d’entraide locale, non pas en les menaçant avec les drones ou d’autres jouets dystopiques. Nous nous en sortirons en garantissant une application stricte du secret médical, pour que les personnes malades ou contaminées déclarent en confiance leur état à leur employeur, à leur assureur, etc. C’est la surveillance de masse, et non pas la privacy, la plus grande menace qui pèse sur notre santé et notre bien-être.
Lorsqu’on me parle donc d’« efficacité » en échange d’une perte qui peut sembler somme toute minime de libertés publiques, je souligne que brider nos libertés n’est efficace que pour les producteurs de technologies de surveillance. Puisque ça fait des années qu’on nous rebat les oreilles avec cette rengaine, ne serait-elle pas un prétexte ? Ce discours existe depuis longtemps, bien avant la crise pandémique. C’est une ritournelle qui est en soi un virus, un parasite, qui infecte nos libertés, et qui devient plus aiguë, plus virulente, quand il y a des crises qui lui offrent un levier. Aujourd’hui c’est une crise sanitaire, hier c’était un attentat terroriste, comme ceux qui en France en 2015 ont ensuite entraîné le choix désastreux d’inscrire l’état d’urgence dans le droit commun. À chaque crise, ce parasite de nos libertés publiques se manifeste de manière toujours plus violente. Il me semble pourtant que ce sont deux choses tout à fait indépendantes. S’il y a des moments où l’on doit effectivement adopter des comportements et des réflexes qui limitent volontairement nos comportements et notre liberté de circulation, il faut toujours se demander pendant combien de temps et dans quelle mesure cette limitation relève d’un choix responsabilisant pour les citoyens. Dans la situation que nous traversons aujourd’hui, la date-limite, la date-butoir à laquelle ces mesures vont s’arrêter reste très vague. Et la responsabilité des citoyens n’est même pas prise en compte. Il faut que les citoyens obéissent à des injonctions contradictoires qui les exposent à l’arbitraire de la répression : « allez voter mais restez chez vous », « n’allez pas travailler mais n’arrêtez pas la production », « portez un masque mais la République se vit à visage découvert »…

Tout ceci est extrêmement grave, surtout si effectivement la situation pandémique, même si on va sortir de la partie aiguë, devient une situation systématique, structurelle. Personnellement, je n’ai jamais été contre le fait de partager, selon des modalités inspirées par les « commons », des données qui pourraient aider effectivement le bien public. Arriver à éliminer ou guérir une maladie, une épidémie, c’est exactement la raison pour laquelle on a commencé à collecter des données au profit de la recherche médicale. Ce qui n’est pas soutenable et auquel je m’oppose, c’est le modèle d’appropriation centralisée, capitaliste et régalienne de ces données, qui ne sont pas considérées comme le bien commun qu’elles sont pourtant. Si c’était le cas, elles seraient gérées collectivement, et on trouverait des manières de contribuer à cette ressource commune tout en respectant les libertés individuelles.

NDLR – Antonio Casilli a publié en 2019 En attendant les robots. Enquête sur le travail du clic (Le Seuil) et participé comme expert scientifique au documentaire Invisibles d’Henri Poulain et Julien Goetz disponible sur France TV.

Raphael Bourgois

Journaliste, Rédacteur en Chef d’AOC

Dans 60 millions de consommateurs (nov. 2019)

Dans le numéro 553 (novembre 2019) du mensuel 60 millions de consommateurs, j’ai accordé un entretien dans le cadre de l’expérimentation conduite par le magazine sur les assistants vocaux et leurs gestion des données personnelles des utilisateurs.

3 questions à Antonio A. Casilli

Des sous-traitants écoutent certains enregistrements issus des assistants vocaux, cela vous a surpris ?

Dans la communauté scientifique on savait depuis plusieurs années que des personnes -souvent des travailleurs indépendants ou précaires -étaient recrutées pour vérifier la performance des assistants virtuels. Il s’agit d’écouter des extraits ou de valider des retranscriptions.

Les révélations de la presse ont permis au grand public de le découvrir. Elles ont d’abord concerné Alexa d’Amazon en avril dernier. Mais depuis, tous les autres GAFAM y sont passés.

Le nombre d’enregistrements écoutés serait marginal, selon ces sociétés. Vous y croyez ?

On ne peut pas savoir quelle proportion est réellement écoutée. Elles ne le dévoilent pas, cela relève du secret industriel.

L’intelligence artificielle sur laquelle reposerait ces assistants est donc une illusion ?

Le terme cache le fait qu’une partie du travail est fait à la main. Ce travail a été présenté comme un entraînement pour les assistants virtuels. On parle de machine-learning, comme si les machines allaient opérer d’elle-mêmes après une phase d’apprentissage. La réalité économique et technologique est que ces assistants ne peuvent pas se passer d’une part de travail humain. De nouvelles tâches pour lesquelles il faut les entraîner, se présentent en permanence. Par exemple, un assistant d’abord calibré en anglais doit être adapté au marché français. Il faut alors l’entraîner à nouveau, comme le montre votre étude. L’apprentissage ne s’arrête jamais et l’autonomie de ces dispositifs est sans cesse repoussée.

Interviewé dans l’enquête Mediapart sur assistants vocaux, digital labor et privacy (31 août 2019)

Le site d’information et d’enquête Mediapart publie les révélations depuis l’usine à “intelligence artificielle artificielle” de Siri, signées Jerome Hourdeaux. Le journaliste donne la parole aux micro-travailleurs français travaillant depuis le siège de Cork en Irlande d’un sous-traitant du géant de Cupertino, et met la main sur les documents qui attestent l’étendue des abus d’Apple. J’ai été interviewé dans le cadre de cette enquête et j’ai pu apporter mon éclairage à la publication de ces sources inédites.

Par-delà les risques psychosociaux qu’encourent les micro-travailleurs (isolement, TSPT, perte de sens), il y a un problème évident en termes de violation systématique de la vie privée des usagers des produits Apple. L’entreprise a depuis promis de mettre fin à ces pratiques. Crédible ? Pas vraiment, à mon avis.

La partie vraiment passionnante de l’enquête de Mediapart est la plongée dans le fonctionnement concret du micro-travail. Ça rassemble à quoi une micro-tâche de retranscription et d’annotation de conversations captées par une IA ? Comment se structure le workflow de Siri ?

Capture d’écran de l’interface pour la réalisation de micro-tâche de transcription de l’assistant vocal Siri. Source : Mediapart.

A cette révélation s’en ajoute une autre, celle-ci des plus inquiétantes. Les micro-travailleurs recrutés par Apple ne se limitent pas à retranscrire des phrases anodines que n’importe qui pourrait prononcer. Ils gèrent des données à caractère personnel qui identifient les usagers, lesquels font référence dans leurs conversations à noms, adresses, situations souvent sensibles. De surcroît, pour vérifier que Siri aie bien répondu aux requêtes formulées par les usagers, Apple donne à ses micro-travailleurs accès à tous leurs fichiers personnels via une fonctionnalité qui, selon Mediapart, s’appelle user data browser.

L’usage de ces données n’est pas restreint ni discret, puisque les assistants virtuels comme Siri ont besoin de millions d’exemples pour apprendre à interpréter une simple requête. Leur apprentissage machine nécessite la mise sur écoute systématique et massive des usagers. Ce n’est pas un accident ni le problème de la seule Apple.

J’ai eu l’occasion de l’affirmer ailleurs, et je le répète dans l’article de Mediapart : tous les GAFAM ont désormais été démasqués. Ils ont menti à propos du respect de la vie privée de leurs usagers, mais ils ont surtout menti sur l’artificialité de leurs intelligences artificielles.


Assistant vocal d’Apple: le calvaire des salariés

PAR JÉRÔME HOURDEAUX
ARTICLE PUBLIÉ LE SAMEDI 31 AOÛT 2019

Assistant vocal d’Apple: le calvaire des salariés

À la fin du mois de juillet, TheGuardian et El País révélaient que des centaines de personnes étaient chargées d’écouter les conversations d’utilisateurs de Siri, l’assistant vocal d’Apple, afin de corriger ses résultats. Après avoir suspendu le programme qui reprendra à l’automne, la société vient d’annoncer le licenciement de 300 salariés.

Alors que, acculé par les révélations sur l’écoute des utilisateurs de Siri, Apple vient de mettre à la porte plusieurs centaines de salariés, Mediapart a pu recueillir les témoignages de plusieurs d’entre eux et consulter des documents détaillant le travail de ces employés, chargés d’écouter les utilisateurs.

Au total, au moins 300 personnes travaillant pour des sous-traitants d’Apple à Cork, en Irlande, se sont vu notifier la fin de leur contrat vendredi dernier, rapporte mercredi 28 août The Guardian.

Cette annonce n’a pas vraiment été une surprise pour les salariés concernés. Depuis le 2 août, nombre d’entre eux avaient été placés en chômage technique après la révélation, par The Guardian et El País, de la nature réelle de leur travail : écouter les utilisateurs d’Apple parler à Siri. Cette intelligence artificielle, embarquée sur l’ensemble des appareils vendus par la marque à la pomme, permet d’activer une application, d’écouter de la musique, de faire une recherche sur Internet ou encore d’appeler un contact, simplement en donnant un ordre oral.

Les articles du Guardian et d’El País n’étaient pourtant pas en eux-mêmes des scoops. Plusieurs chercheurs avaient déjà expliqué que les intelligences artificielles le sont beaucoup moins que ce que leurs concepteurs prétendent. Incapables de réellement « apprendre » par eux-mêmes, les algorithmes ont besoin de centaines de milliers d’exemples, fournis par des êtres humains.

Les deux quotidiens rapportaient en revanche les témoignages inédits d’anciens salariés de sous- traitants d’Apple ayant passé leurs journées à écouter des conversations de clients et à noter la réponse apportée par Siri. De plus, révélaient-ils, les différents appareils sur lesquels est embarqué l’assistant vocal ont une fâcheuse tendance à activer celui-ci à tout bout de champ.

Les salariés chargés d’écouter les extraits sonores enregistrés par Siri tombaient ainsi régulièrement sur des échanges particulièrement privés, comme lors de relations sexuelles ou encore lors de ce qui semblait être un trafic de drogue. En réaction, Apple avait annoncé la suspension de programmes d’amélioration de Siri, le temps de revoir ceux-ci et de les reprendre, sous une forme modifiée, à l’automne prochain.

Depuis, Mediapart a également recueilli les témoignages de plusieurs ex-salariés ayant travaillé dans les locaux de GlobeTech, l’une des deux principales sociétés travaillant pour Apple à Cork (l’autre étant Lionbridge). Ceux-ci confirment les informations du Guardian et d’El País et donnent des détails supplémentaires.

Les centaines de personnes travaillant pour Globetech et Lionbridge étaient affectées à de multiples « projets » correspondant aux différentes phases de vérification et de notation de Siri. Ces différentes tâches nécessitaient des compétences et des niveaux d’accréditation différenciés permettant, pour certaines d’entre elles, d’accéder aux données personnelles contenues dans l’appareil de l’usager.

Chaque salarié étant soumis à une clause de confidentialité, il est très difficile de savoir à quoi correspond exactement chacun de ses projets. Mais plusieurs documents internes et témoignages d’ex- salariés recueillis par Mediapart permettent d’avoir une idée assez précise du rôle des humains au cœur du fonctionnement de l’intelligence artificielle et de leurs conditions de travail.

Les salariés travaillant directement sur Siri sont classés en deux principales catégories. Il y a tout d’abord les « language analysts », qui travaillent sur les « bulk data », les données brutes, c’est-à-dire les extraits audio livrés sans autre information.

La tâche de base correspond aux programmes « 1.000 hours » (1 000 heures) et se décline au sein de projets spécifiques en fonction de l’appareil : « 1.000 hours iPhone », « 1.000 hours iPad », « 1.000 hours CarPlay », etc. Le salarié, connecté à une interface sur un réseau interne d’Apple, a accès à l’enregistrement audio et, dessous, la transcription automatique qui a été faite par l’algorithme. Il doit se contenter d’écouter la séquence, appelée « itération », et de corriger les éventuelles fautes de retranscription.

Le nombre d’itérations nécessaires au bon fonctionnement de Siri est impressionnant. Dans les documents consultés par Mediapart, un tableau d’objectifs trimestriel donne le chiffre de 609 309 extraits audio pour les clients francophones, 874 778 pour les Chinois, ou encore 716 388 pour les Japonais. Et ce, uniquement sur le troisième trimestre 2019 et pour l’iPad. S’ensuit, pour les employés, un rythme effréné afin d’atteindre un quota quotidien fixé à 1 300 itérations par jour.

L’autre catégorie d’employés correspond aux « data analysts » qui, eux, ont accès à certaines données personnelles des utilisateurs. Apple avait pourtant affirmé que ses salariés n’avaient pas les moyens d’identifier les personnes écoutées, notamment parce qu’ils ne disposaient pas de l’« user ID », l’identifiant.

C’est en partie vrai. Le nom de l’utilisateur ou son numéro n’apparaissent effectivement pas. Mais un petit menu intégré à l’interface d’Apple, le user data browser, permet d’effectuer des recherches parmi les données stockées dans l’appareil. Cette fonctionnalité est principalement intégrée à l’outil de notation de Siri, le Siri results widget (SRW).

Assistant vocal d’Apple: le calvaire des salariés

Celui-ci présente, en haut, l’extrait sonore et, en dessous à gauche, la réponse apportée par Siri à la requête. À droite, une série de questions permet de noter celle-ci. Et en dessous, le user data browser permet de fouiller dans les données de l’appareil pour vérifier que Siri a utilisé les bonnes informations.

Comme l’explique l’un des documents, « les données d’utilisateur peuvent être utiles pour comprendre l’intention de l’utilisateur. Par exemple, si l’utilisateur dit : “Montre coucher de soleil horizontal”, cela peut être dur à comprendre. Toutefois, si l’utilisateur a un album photo appelé “Couchers de soleil horizontaux”, ce que l’utilisateur voulait devient clair ».

Concernant les conditions de travail, les salariés des sous-traitants d’Apple sont un peu mieux lotis que beaucoup d’autres micro-travailleurs, tels que ceux décrits notamment par le sociologue Antonio Casilli, auteur du livre En attendant les robots (Seuil, janvier 2019) et membre du projet DipLab (Digital Platform Labor), à l’origine du rapport « Le micro-travail en France », sorti en avril 2019.

Ce nouveau sous-prolétariat numérique, ces « tâcherons du Web », travaillent bien souvent de chez eux, via des plateformes intermédiaires, et ne connaissent souvent même pas l’identité du commanditaire. Ils sont rémunérés à la tâche, le plus souvent quelques centimes d’euros.

À GlobeTech, les salariés disposent d’un contrat de travail de droit irlandais, avec un salaire mensuel d’environ 2 000 euros brut par mois, pour des journées de 7 h 30, pause déjeuner déduite, avec deux pauses de 15 minutes. Ils travaillent dans des locaux spécifiques d’où ils se connectent à l’interface d’Apple via un réseau sécurisé.

Les conditions de travail y sont strictes, et souvent mal vécues par les salariés. « Le pire, c’est le côté répétitif, les itérations qui reviennent constamment, du style “mets l’alarme à telle heure”, explique Antoine*, un des anciens salariés que Mediapart a rencontrés. Les gens étaient tous surdiplômés, des bac + 3 à bac + 5. Tout le monde s’ennuyait. La plupart des gens s’en allaient le plus tôt possible, dès qu’ils avaient fini leur quota journalier d’itérations. Je crois que personne ne reste plus de six mois. Même nos supérieurs avaient l’air de détester leur travail. »

« De plus, poursuit le jeune homme, on était hyper fliqués. Quand on ne faisait pas d’itération pendant plus de six minutes, on était considéré en pause. Il fallait envoyer chaque soir par mail le nombre d’itérations que l’on avait faites durant la journée. »« On pouvait être viré du jour au lendemain, confirme Gaël*, un autre ex-salarié. Le soir, votre superviseur pouvait venir vous voir pour vous dire : t’as pas fait tes stats aujourd’hui, tu pars. »

Beaucoup de salariés ont mal vécu le fait d’être les témoins de la vie privée des utilisateurs. Une bonne partie des requêtes concernent des ordres assez classiques, comme appeler un contact. « Le plus drôle que j’ai eu, c’est un “appel Frank Riester” », se souvient Antoine.

Mais certains se révèlent particulièrement intrusifs.

« Beaucoup de gens dictent leurs textos. Et on a donc beaucoup de “sextos” », raconte Antoine. Il y a également les cas de demande de recherche relative à des maladies par exemple. « On entend aussi beaucoup de voix d’enfant. On ne leur a pas demandé leur avis,

à eux ! », s’indigne Gaël, qui se souvient d’une voix enfantine demandant : « Dis Siri, tu peux me montrer une photo de vrai zizi ? »

Il y a également les nombreuses personnes qui utilisent Siri comme dictaphone, afin d’enregistrer des mémos vocaux. Antoine et Gaël sont ainsi tous deux tombés à de nombreuses reprises sur des extraits de professeurs, enregistrant leurs avis de conseils de classe.

Enfin, il y a les enregistrements accidentels, provoqués par un déclenchement involontaire de Siri. Car l’assistante vocale semble particulièrement sensible. « Ça s’active à tout bout de champ, confirme Antoine. J’ai remarqué que ça marchait notamment avec les phrases des autres assistants vocaux, par exemple si vous dites “OK Google”. »

Lorsqu’un salarié tombait sur un de ces enregistrements, il devait l’écouter et le signaler en cliquant sur un bouton « accidental trigger ». « C’était tout simplement le bouton sur lequel on appuyait le plus, se souvient Antoine. On pouvait entendre de tout. Ça pouvait être la musique d’une voiture pendant plusieurs minutes ou deux ados se racontant leurs drames. » Gaël, lui aussi, est tombé à plusieurs reprises sur des disputes amoureuses, des confessions intimes…

Parfois, le malaise ressenti par le salarié se transforme en traumatisme. Certains salariés peuvent être confrontés à des enregistrements dévoilant des pratiques illégales ou des situations de violence. « Je me souviens un jour d’une fille qui disait à sa copine, a priori à propos de son petit copain, un truc du style : “il est dangereux, il faut le faire enfermer”. Dans ces cas-là, on se sait pas quoi faire, on ne sait pas s’il y a réellement danger. » Gaël, de son côté, se souvient d’un enregistrement dans lequel un homme tient des propos explicitement pédophiles. « Ça m’a mis hors de moi, se souvient-il. Avons-nous un devoir moral à partir du moment où on surveille ? Est-ce qu’il n’y a pas un délit de complicité ? »

En page d’accueil du portail d’aide mis à la disposition des salariés par Apple, un message les prévient qu’ils peuvent être confrontés à « des propos vulgaires, des thèmes violents, pornographiques ou des sujets criminels » et les incite à contacter leur supérieur si besoin. Pourtant, dans la pratique, les salariés n’ont aucune information sur ce qui arrive par la suite.

« Ce genre de traumatisme est assez courant, explique Antonio Casilli. Il arrive même que certains travailleurs souffrent du syndrome de stress posttraumatique, notamment chez ceux chargés de la modération des commentaires. Des modérateurs de Microsoft et de Facebook ont déjà poursuivi leur employeur après avoir été frappés par ce syndrome. Dans le contexte des correcteurs de Siri, poursuit le sociologue, il y a un facteur supplémentaire qui joue : la difficulté de contextualisation. Ils sont confrontés à des extraits de discussions, des propos isolés, totalement déracinés du contexte général. Ils ne peuvent pas savoir s’il s’agit d’une provocation ou d’une exagération. Cela peut être plus perturbant que s’ils étaient présents physiquement. »

Dans ses travaux, Antonio Casilli a démontré à quel point les micro-travailleurs étaient indispensables au bon fonctionnement des intelligences artificielles. Dans ce cas, quelles mesures prendra Apple ? La marque à la pomme a annoncé au Guardian que le programme de notations de Siri reprendrait à l’automne, avec quelques modifications. Les utilisateurs auront notamment la possibilité de préciser qu’ils refusent d’être écoutés et les personnes chargées d’écouter les extraits sonores seront directement employées par Apple.

Antonio Casilli prend ces annonces « avec beaucoup de méfiance ». « Le travail de ces personnes est fondamental pour le fonctionnement d’un assistant vocal, rappelle-t-il. L’intelligence artificielle a besoin d’être entraînée et vérifiée. Sinon, elle ne marche pas. Ils vont donc devoir inventer une nouvelle manière de faire cet entraînement et cette vérification.

La solution consistant à internaliser ces tâches permettrait notamment d’imposer des contraintes de confidentialité accrue. Mais ça irait tout simplement à l’encontre des principes de gestion d’Apple. Une autre solution serait de morceler encore plus les tâches d’entraînement et de vérification et de les confier à des centres de gestion dans des pays tiers, poursuit le sociologue. Il y a tout de même eu une vague de révélations ces derniers mois, avec plusieurs travailleurs qui se sont transformés en lanceurs d’alerte. Et il semblerait que la plupart d’entre eux soient originaires de pays de l’Union européenne, où les législations sont plus protectrices qu’ailleurs. On peut imaginer qu’Apple cherche à installer ses centres de gestion dans des pays ayant une législation moins clémente. »

Gaël, lui aussi, est convaincu que le programme reprendra sous peu, peut-être en interne. « Ils vont se contenter de modifier les conditions générales d’utilisation pour y inclure le fait que ce que vous dites à Siri peut être écouté. Les gens vont signer et ça reprendra », prédit le jeune homme. « C’est, hélas, très possible, acquiesce Antonio Casilli. Nous sommes tous les esclaves de ce consentement forcé que sont les CGU. Ils sont totalement capables d’y mettre ce qui était encore inimaginable hier. »

Les révélations de ces derniers mois marquent cependant un tournant incontestable. Le 13 août, c’est Facebook qui admettait, lui aussi, écouter les conversations des utilisateurs des fonctions audio de son service Messenger et annonçait leur suspension. Apple, de son côté, a présenté jeudi 29 août ses excuses à ses clients écoutés.

« Tous les Gafam ont désormais été démasqués, constate Antonio Casilli. Il y a encore un an, si je disais dans une conférence que des travailleurs écoutent ce que l’on dit à un assistant vocal, c’était une “educated guess”, une supposition éclairée, une conséquence logique de ce que j’avais pu comprendre de leur fonctionnement lors de mes recherches. »

« Depuis, il y a eu une avalanche de témoignages qui montrent que non seulement il y a des enregistrements sauvages, mais également que ces assistants vocaux sont extrêmement défectueux, poursuit le sociologue. Quand on voit des taux de précision de 90 %, on peut se dire que c’est déjà pas mal, mais ça veut dire tout de même que quand vous demandez votre chemin, une fois sur dix, l’algorithme vous donnera le mauvais. C’est tout de même problématique. Apple a donc doublement menti : en disant qu’ils n’enregistraient pas les gens, et en leur affirmant que Siri fonctionne. »

Le programme du séminaire #ecnEHESS 2018/19 est arrivé !

Mon séminaire Étudier les cultures du numérique (mieux connu comme #ecnEHESS) est de retour pour la 11e année consécutive.

Structure : pour la rentrée 2018/19, le séminaire fait peau neuve : plus compact (9 séances sur 5 mois), plus long (24 heures de cours) et surtout… plus fondamental. Parce que justement à partir de cette année, l’enseignement devient une formation du tronc commun du master en sciences sociales de l’EHESS, et une unité fondamentale de la mention Histoire des Sciences, Technologies, Sociétés (HSTS), en collaboration avec le Centre Alexandre Koyré.

C’est pourquoi, le programme se compose cette année de deux types de sessions :

  • les séances thématiques retracent les grandes questions de la sociologie du numérique et sont réservées en priorité aux étudiant•es EHESS (mais peuvent accueillir des auditeur•rices libres dans la mesure des places disponibles) ;
  • les séances d’approfondissement, où des invité•es externes présentent leurs recherches en cours,  s’inscrivent dans la tradition du séminaire #ecnEHESS et sont ouvertes à tou•tes.

Logistique : le séminaire aura lieu deux jeudis par mois, du 10 janvier 2019 au 9 mai 2019. Les séances thématiques se dérouleront au Centre Alexandre Koyré (salle séminaire, 27 Rue Damesme, 75013 Paris). Les séances d’approfondissement se dérouleront à l’Institut des Systèmes Complexes (salle séminaire 1.1, 113 rue Nationale 75013 Paris).

Pour vous inscrire, merci de renseigner le formulaire de contact (option “seminar”).

Voilà le calendrier complet :

 
Jeudi 10 janvier 2019 (15h-18h)
Centre Alexandre Koyré, salle séminaire, 27 Rue Damesme, 75013 Paris

Séance thématique (priorité étudiant•es EHESS)
Sociabilité, identité, communauté sur internet
Enseignant : Antonio Casilli
Jeudi 24 janvier 2019 (16h-18h)
Institut des Systèmes Complexes, salle séminaire 1.1, 113 rue Nationale 75013 Paris

Séance d’approfondissement (ouverte aux auditeur•es libres)
Les communs numériques
Intervenant•es : Benjamin Coriat, Laura Aufrère (Univ. Paris 13), Lionel Maurel (CNRS).
Jeudi 7 février 2019 (15h-18h)
Centre Alexandre Koyré, salle séminaire, 27 Rue Damesme, 75013 Paris
Séance thématique (priorité étudiant•es EHESS)
Analyse des réseaux (structure, norme, et capital social en ligne)

Enseignant : Antonio Casilli
Jeudi 21 février 2019 (17h-19h)
Institut des Systèmes Complexes, salle séminaire 1.1, 113 rue Nationale 75013 Paris

Séance d’approfondissement (ouverte aux auditeur•es libres)
Ce que les big data font aux sciences sociales
Intervenant•es : Paola Tubaro (CNRS) et Étienne Ollion (CNRS).
Jeudi 7 mars 2019 (15h-18h)
Centre Alexandre Koyré, salle séminaire, 27 Rue Damesme, 75013 Paris

Séance thématique (priorité étudiant•es EHESS)
Évolutions de la vie privée sur Internet
Enseignant : Antonio Casilli
Jeudi 21 mars 2019 (17h-19h)
Institut des Systèmes Complexes, salle séminaire 1.1, 113 rue Nationale 75013 Paris

Séance d’approfondissement (ouverte aux auditeur•es libres)
Action collective à l’heure du numérique
Intervenant•es : Jen Schradie (Sciences Po Paris).
Jeudi 4 avril 2019 (15h-18h)
Centre Alexandre Koyré, salle séminaire, 27 Rue Damesme, 75013 Paris

Séance thématique (priorité étudiant•es EHESS)
Travail et intelligences artificielles

Enseignant : Antonio Casilli
Jeudi 18 avril 2019 (17h-19h)
Institut des Systèmes Complexes, salle séminaire 1.1, 113 rue Nationale 75013 Paris

Séance d’approfondissement (ouverte aux auditeur•es libres)
Travail et plateformes numériques
Intervenant•es : Marie-Anne Dujarier (Univ. Paris Diderot) et Maud Simonet (Univ. Paris Nanterre).

Une séance finale de restitution des travaux des étudiant•es aura lieu le jeudi 9 mai 2019 de 15 h à 19 h au Centre Alexandre Koyré, salle séminaire. Lors de cette session, les étudiant•es présenteront une synthèse portant sur un sujet ayant trait aux usages sociaux des technologies numériques, choisi en accord avec l’enseignant. Le rendu prendra la forme d’une contributions à Wikipédia (création et modification d’articles) et d’une présentation orale.

Le RGPD, un premier pas dans la bonne direction (grand entretien Libération, 25 mai 2018)

Pour le sociologue Antonio Casilli, le RGPD est un premier pas pour assainir la relation que citoyens et entreprises ont établie autour des données fournies par les premiers aux secondes.

Sociologue, Antonio Casilli est enseignant-chercheur à Télécom ParisTech et chercheur associé à l’EHESS. Pour lui, l’enjeu du règlement général sur la protection des données (RGPD) est de permettre au «travailleur de la donnée» qu’est devenu homo numericus de se réapproprier un capital social numérique que les grandes plateformes avaient jusqu’ici confisqué à leur avantage.

Que représente le règlement européen à l’aune du combat déjà ancien pour la maîtrise de nos données personnelles ?

La question du contrôle de nos vies privées a radicalement changé de nature à l’ère des réseaux. Alors qu’il s’agissait auparavant d’un droit individuel à être «laissé en paix», cette vision très exclusive n’a plus guère de sens aujourd’hui pour les milliards d’usagers connectés en permanence, avides de partager leurs expériences. Nos données personnelles sont en quelque sorte devenues des données sociales et collectives, ce qui ne signifie évidemment pas qu’il faille faire une croix sur l’exploitation qui en est faite. C’est même tout le contraire.

Comment le RGPD s’inscrit-il dans ce mouvement ?

Ce texte est l’aboutissement d’un processus d’adaptation à l’omniprésence des grandes plateformes numériques dans notre quotidien. Dans le Far West réglementaire qui a prévalu ces dernières années, leurs marges de manœuvre étaient considérables pour utiliser et valoriser les données personnelles comme bon leur semblait. Avec le RGPD, il devient possible de défendre collectivement nos données. Le fait que le règlement ouvre la possibilité de recours collectifs en justice est très révélateur de cette nouvelle approche.

En quoi le RGPD peut-il faciliter nos vies d’usagers et de «travailleurs» de la donnée ?

En actant le fait que nos données ne sont plus «chez nous» mais disséminées sur une pluralité de plateformes, dans les profils de nos proches, les bases de données des commerçants ou des «boîtes noires» algorithmiques, le RGPD cherche à harmoniser les pratiques de tous les acteurs, privés mais aussi publics, qui veulent y accéder. D’où l’idée d’un «guichet unique» pour les usagers, qui établit que c’est le pays de résidence qui est compétent pour gérer les litiges, et non le lieu d’implantation de l’entreprise qui a accès aux données. Cela n’aurait aucun sens alors que celles-ci circulent partout.

Si ces données sont le résultat de notre propre production en ligne, ne devrait-on pas disposer d’un droit à les monétiser ?

Ce n’est pas la philosophie du RGPD, qui ne conçoit pas la donnée dite personnelle comme un objet privatisable, mais plutôt comme un objet social collectif dont nous pouvons désormais contrôler l’usage. Les données sont devenues un enjeu de négociation collective, non pas au sens commercial du terme comme l’imaginent certains, mais plutôt syndical : il y a là l’idée d’un consentement sous conditions dans lequel les deux parties fixent des obligations réciproques. C’est très différent d’une vision marchande qui risquerait d’instituer ce que l’on appelle un «marché répugnant», dans lequel on monétiserait des aspects inaliénables de ce qui fonde notre identité.

Le diable ne se situe-t-il pas dans les fameuses «conditions générales d’utilisation» (CGU) que tous les services s’empressent de modifier, mais que personne ne lit ?

C’est une des limites actuelles du RGPD. Les «Gafa» [Google, Apple, Facebook et Amazon, ndlr] restent en position ultradominante, et nous bombardent de CGU qui pour l’instant ne modifient pas l’équilibre des pouvoirs. Il existe un vrai flou sur notre consentement présupposé à ces «contrats» que l’on nous somme d’approuver.

Pouvez-vous donner des exemples ?

Lorsque Facebook explique que la reconnaissance faciale de nos photos est utile pour lutter contre le revenge porn [la publication en ligne de photos sexuellement explicites d’une personne sans son accord], il s’abstient de préciser que dans certains contextes, elle peut également servir à certains régimes politiques pour identifier des personnes. Il circule actuellement une pétition dénonçant le projet «Maven», que Google mène en collaboration avec l’armée américaine afin que ses technologies d’intelligence artificielle servent à de la reconnaissance d’images filmées par des drones. Le problème, c’est que les mêmes technologies sont utilisées pour améliorer nos usages. Mais on n’a pas signé pour que nos données servent à améliorer les outils du Pentagone.

Le RGPD va-t-il aider à un rééquilibrage entre petits et très gros acteurs d’Internet, comme le dit la Commission européenne ?

Il serait illusoire de croire que la régulation de nos données personnelles pourra faire ce que d’autres lois devraient faire. Les grandes plateformes du numérique vont appliquer ou faire semblant d’appliquer le RGPD, parce qu’il est vital pour elles de continuer à accéder au marché européen, mais les petits vont continuer à souffrir de leur concurrence. Pour parvenir à un rééquilibrage économique, il vaut mieux se concentrer sur la réforme de la fiscalité du numérique, qui jusqu’ici n’a pas vraiment avancé malgré toutes les promesses des politiques.

Why Facebook users’ “strikes” don’t work (and how can we fix them)?

Another day, another call for a Facebook “users’ strike”. This one would allegedly run from May 25 to June 1, 2018. It seems to be a one-man stunt, though (“As a collective, I propose we log out of our Facebook…”). Also, it claims to be “the first ever” strike of this kind.

Yet, since the Cambridge Analytica scandal, new calls for strikes have been popping up every few days. As far as I know, the first one dates back to March 21 (although the actual strike is scheduled on May 18, 2018). The organizer is a seasoned Boston Globe journo, who likely just discovered what digital labor is and is SO excited to tell you:

“I like the idea of a strike, because we users are the company’s real labor force. We crank out the millions of posts and photos and likes and links that keep people coming back for more.”

On April 9, 2018 an an obscure Sicilian newspaper called a strike action (which, in Italian, sounds like “sciopero degli utenti di Facebook”). It actually turned out to be an article about the “Faceblock” which did take place on April 11, 2018. It was a 24-hour boycott against Instagram, FB and WhatsApp organized by someone who describe themselves as “a couple of friends with roots in Belgium, Denmark, Ireland, Italy, Malta, Mexico, the UK and the US” (a tad confusing, if you ask me).

Of course, May 1st was a perfect time to call for other Facebook strikes. This one, for instance, is organized by a pseudonymous “Odd Bert”, who also mentions a fictional Internet User Union (which seems to be banned by Facebook). This other one looked a bit like some kind of e-commerce/email scam, but produced three sets of grievances.

“On May 1st, 2018, Facebook users are going on strike unless the company agrees to the following terms:

A. Full Transparency for American and British Voters

  1. Facebook shares the exact date it discovered Russian operatives had purchased ads.
  2. Facebook shares the exact dollar amount Russian operatives spent on political ads.
  3. Facebook shares the 3,000+ ads that Russian operatives ran during 2016.
  4. Facebook reveals how many users saw the fake news stories highlighted by BuzzFeed.
  5. Facebook lets an independent organization audit all political ads run during 2016.
  6. Facebook gives investigators all “Custom Lists” used for targeting 2016 political ads.
  7. Facebook stops running paid political ads until January 1st, 2019.
  8. Mark Zuckerberg (CEO) and Sheryl Sandberg (COO) testify before Congress in an open-door (televised) session.
  9. Mark Zuckerberg and Sheryl Sandberg testify before the UK parliament.

B. Full Transparency and Increased Privacy for Facebook Users

  1. Facebook explains to users exactly what personal data is being used for advertising.
  2. Facebook asks users for itemized consent to use photos, messages, etc. for advertising.
  3. Facebook gives users the ability to see a “history” of all the ads they have viewed.
  4. Facebook lets an independent organization investigate all data breaches since 2007.
  5. Facebook agrees to be audited monthly to make sure it is complying with local laws.
  6. Facebook allows users to easily delete their “history” on the platform.

C. Better Safety for Children on Facebook

  1. Facebook increases the minimum age for Facebook users from 13 to 16.
  2. Facebook shuts down the Messenger Kids product.”

Users’ strikes are hardly new. In 2009, the Spanish social media Tuenti was concerned by a huelga de los usuarios against their terms of service. In 2015, Reddit users disrupted the platform when they revolted en masse in solidarity with a wrongly terminated employee. On Facebook, users’ collective action is inherent to the life of the platform, whose history is replete with examples of petitions, lawsuits, and class actions. After the introduction of Beacon in 2007, a 50,000-strong petition led to its discontinuation. In 2010 several users’ groups organized and lobbied US senators and the Federal Trade Commission (FTC) to oppose the introduction of the ‘like’ button social plugin on external websites. In 2011, the association Europe versus Facebook filed numerous complaints with the Irish Data Protection Commissioner (DPC) and a class action which is presently discussed by the Court of Justice of the European Union. In 2016, the real-life protests and general mobilization against the introduction of Free Basics in India led to its successful ban by the telecommunication authority TRAI, over net neutrality and privacy concerns.

As my co-authors and I argued in our 2014 book Against the Hypothesis of the ‘End of Privacy’, the adoption of pervasive data collection practices by social platforms has been highly contentious, with frequent and cyclical privacy incidents followed by strong mass reactions. What these reactions have in common is that they are strategic, organized, collectives actions that rely on existing communities. Which could provide essential clues as to why the 2018 Facebook strikes are so ineffective. Their do not seem to be organized by active members of existing communities and they certainly do not engage with elected officials or institutional bodies. They are launched by journalists, startup bros, anonymous users trying to get noticed. These persons’ idea of grassroots is a naive one: one heroic individual (or a nonexistent “union”) sparks a revolt, hence the masses follow.

Importantly, they seem to put excessive faith in strikes seen as their only available tactic. A recent article published by a group of Stanford and Microsoft computer scientists captures this romanticized vision of “powerful” industrial actions where users stand hand in hand and nobody crosses the picket line:

“Data laborers could organize a “data labor union” that would collectively bargain with siren servers. While no individual user has much bargaining power, a union that filters platform access to user data could credibly call a powerful strike. Such a union could be an access gateway, making a strike easy to enforce and on a social network, where users would be pressured by friends not to break a strike, this might be particularly effective.”

Nevertheless, as past experiences on social platforms have taught us, successful actions adopt a specific repertoire of contention dominated not by strikes (which are usually costly and difficult to coordinate) but by lobbying and litigation. If we expect Facebook users grievances to be heard, a comprehensive and wide-ranging strategy is necessary to boost their rights. Community, organization, and the selection of effective tools are the three pillars of collective action.

La vie privée et les travailleurs de la donnée (Le Monde, 22 janv. 2018)

Dans Le Monde du 22 janvier 2018, je publie avec Paola Tubaro une tribune à l’occasion des 40 ans de la CNIL.

Attention : La tribune a été traduite en portugais et publié sur le site brésilien Outras Palavras.

 

Notre vie privée, un concept négociable

Antonio Casilli (Télécom ParisTech/EHESS) et Paola Tubaro (CNRS)

La défense de nos informations personnelles ne doit pas exclure celle des droits des travailleurs de la donnée

L’idée que nous nous faisons de la vie privée a profondément changé ces dernières années. Lorsque, en 1890, les juristes américains Samuel Warren et Louis Brandeis définissaient the right to privacy comme ” le droit d’être laissé en paix “, ils ignoraient qu’un siècle plus tard, cette définition n’aurait pas de sens pour 4 milliards d’êtres humains connectés. Nous n’assistons pas à sa fin, mais à la transformation de la -notion héritée de la tradition étasunienne. Pour ceux d’entre nous qui sont activement en quête de correspondants, d’amis, de partenaires sur un réseau numérique, le souci de défendre nos informations personnelles d’ingérences extérieures se révèle accessoire par rapport au droit de savoir combien de personnes exactement les possèdent et quel usage en est fait.

Nos informations ne sont plus ” chez nous “. Elles sont disséminées sur les profils Facebook de nos amis, dans les bases de données des commerçants qui tracent nos transactions, dans les boîtes noires algorithmiques qui captent le trafic Internet pour les services de renseignement. Il n’y a rien de plus collectif qu’une donnée personnelle. La question est donc moins de la protéger de l’action d’intrus qui cherchent à en pénétrer la profondeur que d’harmoniser une pluralité d’acteurs sociaux qui veulent y avoir accès.

Exit la notion de privacy comme pénétration qui était à la base de la loi Informatique et libertés de 1978, place à celle de privacy comme négociation. Communiquer des informations personnelles ou même sensibles à des tiers divers et variés fait désormais partie de l’expérience quotidienne de tout individu, que ce soit pour accéder à des biens commerciaux ou à des services publics. Il s’agit par exemple de consulter son compte Ameli, de vérifier un itinéraire sur son GPS, parfois d’organiser une rencontre sur Tinder ou de mesurer sa performance sportive par un bracelet connecté. Auparavant, le consentement à la captation, au traitement et à la conservation des données était nécessaire pour qu’une -pénétration de l’intimité ne soit pas une violation. Maintenant, sa fonction a changé. On donne son consentement contre un service.

C’est là le premier sens de l’idée de négociation de la vie privée : un échange, marchand ou pas, où les données personnelles font fonction de monnaie. S’arrêter à cette seule interprétation serait pourtant fourvoyant et politiquement myope. La vie privée est aujourd’hui surtout une négociation collective, une -concertation entre plusieurs parties afin de définir des obligations réciproques et d’organiser une relation. Cette relation peut être conflictuelle. De la campagne indienne contre l’usage des données par l’application Free -Basics à la plainte de l’ONG Europe-v-Facebook invalidant l’accord Safe Harbor, qui autorisait la plate-forme à transférer les informations des citoyens européens vers les Etats-Unis, les usagers de médias sociaux s’insurgent régulièrement contre des conditions perçues comme abusives.

Notre privacy cesse aujourd’hui d’être un droit individuel et se rapproche de l’idée d’un faisceau de droits et de prérogatives à allouer entre les citoyens, l’Etat et les entreprises du numérique. La négociation n’est pas simple et se complique d’autant plus que, par leurs -algorithmes, de puissantes plates-formes -tentent d’infléchir nos comportements. Un contact créé par deux usagers de leur propre initiative et un contact créé sous le conseil d’un système de recommandation automatisé sont-ils équivalents? Qui détient un droit sur les informations que cette relation engendre?

Il faut alors s’interroger non seulement sur les conditions d’usage, mais aussi sur les -modes de production des données, lesquels sont profondément influencés par les modèles d’affaires et les architectures logicielles -imposées par les plates-formes.

En effet, au-delà de la production de données brutes, des problèmes d’ordre nouveau apparaissent lorsqu’on étend son regard à leurs enrichissement, codage, étiquetage, mise en forme – opérations nécessaires pour rendre les données exploitables par des techniques de machine learning, soit l’apprentissage automatique. Les photos des vacances mises en ligne par les usagers d’une plate-forme sociale peuvent, par exemple, être labélisées par des tags qui identifient les lieux. Ces informations ont une valeur économique : -elles peuvent être vendues à des régies publicitaires ou, mieux, être utilisées pour calibrer des intelligences artificielles qui proposent automatiquement de prochains séjours aux vacanciers. Parfois, ce sont les usagers eux-mêmes qui ajoutent ces informations; parfois, les entreprises ont recours à du ” microtravail ” payé à la pièce. Moyennant quelques centimes, des services comme Amazon -Mechanical Turk leur permettent de demander à des myriades d’ouvriers du clic, souvent situées dans des pays en voie de développement, de trier ou d’améliorer photos, textes ou vidéos. Ces services recrutent des prestataires majoritairement précaires et peu rémunérés, remettant en question d’anciens acquis en termes de conditions de travail et d’appropriation de son produit. Ces nouvelles formes de digital labor s’imposent comme une -urgence pour le régulateur.

Pour corriger les distorsions et les abus provoqués par cette situation, la solution -consiste à élargir le domaine d’action des autorités de régulation des données comme la CNIL. Il s’agit non seulement de s’intéresser aux architectures techniques des plates-formes qui permettent l’extraction et la circulation des données personnelles, mais aussi de créer les conditions pour que le travail de production et d’enrichissement des données (autant de la part des services de microtravail que des usagers de plates-formes généralistes comme Instagram ou Google) reste respectueux des droits des personnes et du droit du travail. Le défi qui attend la CNIL est de devenir non pas un gardien de la propriété sur les données, mais un défenseur des droits des travailleurs de la donnée.

Antonio Casilli et Paola Tubaro