social networking
M, le maudit chatbot (ou, de l’impossibilité de l’automation complète au lendemain de l’échec de l’assistant virtuel de Facebook)
L’année 2018 commence fort chez Zuckerberg. Facebook a décidé de mettre fin à l’expérience de son assistant virtuel, M. Par rapport aux autres chatbots sur le marché, M avait une particularité : il ne cachait pas la présence d’humains derrière les rideaux de l’automation, pour ainsi dire. Facebook allait jusqu’à intégrer cet attribut dans ses arguments de vente. M était présenté comme une intelligence artificielle « mue par des humains » (human powered).
Il s’agissait d’un logiciel qui envoyait des messages via l’application Messenger, initialement disponible pour un nombre limité d’usagers-testeurs (10 000 résidents de San Francisco) qui l’utilisaient surtout pour des opérations commerciales. La plupart des tâches réalisées par le chatbot nécessitaient de personnes pour assister, entraîner, vérifier ses réponses — et parfois se faire carrément passer pour M. D’où la suspicion que son nom ne soit pas un clin d’œil à l’assistant de James Bond, miss Moneypenny, mais une référence assez claire au “micro-travail”…
L’objectif de Facebook avec cet agent conversationnel était de développer une technologie d’intelligence artificielle capable d’automatiser presque n’importe quelle tâche (“Facebook put no bounds on what M could be asked to do“). C’est toujours la vieille promesse du machine learning : tu fais réaliser des tâches par des humains, puis “la machine” apprend et — bam ! tu te débarrasses des humains. Néanmoins, malgré les vastes ressources techniques de Facebook, le taux d’automation de M semble n’avoir jamais dépasse 30%. Presque trois quarts des tâches, donc, étaient effectuées par des petites mains payées à la pièce, entre San Francisco et Katmandou (si le bruit selon lequel elles étaient recrutées via le bureau népalais de la plateforme de micro-travail Cloudfactory était confirmé).
L’histoire de M contient une moralité pour toute entreprise qui développe ou achète des solutions de IA : quand on prend en compte le coût de the human in the loop, l’automation revient très chère. C’est à cause de l’importance de ces coûts (et de la médiocrité des résultats) que Facebook a définitivement décidé de discontinuer M en 2018.
L’autre leçon à retenir ici est que dans la mesure où l’objectif final de M était de préparer le développement de solutions IA qui auraient pu automatiser presque toutes les tâches que les usagers réalisent en ligne, l’automation complète s’avère être un fantasme de silconvallards. A chaque fois qu’on automatise une tâche, les êtres humains avec qui l’IA interagit en redemandent, et de plus en plus complexes. Comme Wired le souligne :
“Another challenge: When M could complete tasks, users asked for progressively harder tasks. A fully automated M would have to do things far beyond the capabilities of existing machine learning technology. Today’s best algorithms are a long way from being able to really understand all the nuances of natural language.”
Il faut alors recommencer et recommencer à concevoir-entraîner-tester-micro-travailler etc. Comme quoi, nous (autant les centaines de millions de tâcherons du clic sur les plateformes de micro-travail que les milliards de micro-tâcherons dissimulés que nous sommes sur les plateformes de médias sociaux) avons devant nous une longue carrière de dresseurs d’IA. Très longue. Interminable même, à en croire certains jeunes experts d’automation. Parmi eux, un nommé Ernest Mandel, lequel affirmait, dans un texte paru en… 1986 :
“Sous le capitalisme, l’automation complète, l’introduction de robots sur grande échelle sont impossibles car elles impliqueraient la disparition de l’économie de marché, de l’argent, du capital et des profits. (…) La variante la plus probable sous le capitalisme, c’est précisément la longue durée de la dépression actuelle, avec seulement le développement d’une automation partielle et d’une robotisation marginale, les deux étant accompagnées par une surcapacité de surproduction sur grande échelle (une surproduction de marchandises), un chômage sur grande échelle, une pression sur grande échelle pour extraire de plus en plus de plus-value d’un nombre de jours de travail et d’ouvriers productifs tendant à stagner et à décliner lentement. Cela équivaudrait à une augmentation de la pression à la surexploitation de la classe ouvrière (en faisant baisser les salaires réels et les prestations de Sécurité sociale), en affaiblissant ou détruisant le mouvement ouvrier organisé et en sapant les libertés démocratiques et les droits de l’homme.”
Dans Libération (24 août 2016)
Le 15 août aux Etats-Unis, alors que la Louisiane était frappée par des inondations spectaculaires et qu’un incendie dévastait – et dévaste toujours – plusieurs milliers d’hectares en Californie, le géant Airbnb a décidé de lancer son plan d’hébergement d’urgence. Le principe du «disaster response service» est simple : les usagers postent des annonces pour proposer un refuge gratuit aux victimes géolocalisées dans la zone en danger. A ce jour en Louisiane, plus de 250 hôtes ont mis leur logement à disposition et entre 50 et 100 victimes en ont bénéficié. En Californie, une vingtaine de personnes ont proposé leur toit et ont permis à une dizaine de sinistrés de se mettre à l’abri. Il est de plus en plus récurrent que, lors de désastres ou situations d’urgence, les plateformes communautaires et réseaux sociaux utilisent leurs outils de géolocalisation pour permettre de sauver des vies, d’aider des sinistrés ou de simplement rassurer des proches. Au risque (bénéfique pour eux, cependant) de devenir des mines de données personnelles. Le «disaster response service» d’Airbnb est déclenché par l’équipe Global Disaster Response & Relief dirigée par Kellie Bentz. Elle explique que l’initiative «est prise par l’équipe de gestion après concertation avec les autorités et ONG locales», afin de déterminer au mieux les besoins des populations sinistrées. «Cela dépend aussi du nombre d’hôtes inscrits et d’utilisateurs potentiels présents dans la région touchée», ajoute-t-elle.Des dispositifs critiqués malgré leur bonne intentionCette initiative solidaire n’est pas inédite, car la plateforme communautaire américaine l’expérimente depuis 2013. Celle-ci a été créée suite au passage de l’ouragan Sandy qui avait frappé la côte Est des Etats-Unis en 2012, alors qu’un utilisateur de l’application avait ouvert ses portes à des sinistrés. Une façon pour les plateformes sociales d’agir, tout comme Facebook qui propose depuis 2015 sa fonction de «safety check», ou «contrôle de sécurité», en cas de catastrophe naturelle ou d’attaque. Là aussi, cet outil a été créé à partir d’un constat : en situation de crise, beaucoup de gens cherchent à contacter leurs proches via les réseaux sociaux. Le «safety check» est cependant sujet à polémiques et on lui reproche principalement d’être à géométrie variable. Aucun «safety check» ne s’est déclenché le 12 novembre pendant les attentats à la bombe de Beyrouth, alors que le lendemain, les personnes géolocalisées en Ile-de-France ont pu indiquer à leurs proches qu’elles étaient en sécurité. De la même façon, les Ivoiriens de la plage de Grand-Bassam n’ont pas eu droit au «safety check» lors de l’attaque du 13 mars, alors qu’il se déclenchait quelques jours plus tard à Bruxelles. Un responsable de Facebook a expliqué au Monde suite aux attentats du 22 mars à Bruxelles, que cet outil était compliqué à mettre en œuvre. Chaque situation est évaluée, ainsi que son ampleur et sa gravité. Il s’agit aussi de ne pas déclencher le «safety check» trop tard, ni trop tôt, pour que les gens ne se signalent pas en sécurité trop précipitamment. Un fonctionnement qui ne repose donc pas entièrement sur des algorithmes et requiert un jugement humain, qui par définition n’est pas infaillible. Numérama annonçait néanmoins en juillet que Facebook testait une version automatique de son «safety check» depuis deux mois, sans confirmation manuelle de la part de ses équipes. «Assurer une bonne image publique»Mais ces outils entrent dans une logique de communication inhérente à leur statut d’entreprise, et pour Antonio Casilli, sociologue à Télécom ParisTech et à l’Ecole des hautes études en sciences sociales (EHESS), ils ne seraient qu’une manœuvre commerciale de la part des géants du web : «Les choix géographiques qui sont faits dans le déclenchement du “safety check” sont révélateurs de la gestion de réputation exercée par Facebook». Il s’agit d’assurer «une bonne image publique dans les pays de l’hémisphère nord qui représentent sa cible commerciale principale», explique-t-il. Quant à Airbnb, Kellie Bentz se défend de tout objectif commercial. Une affirmation qui peut paraître crédible au vu des résultats, encore temporaires mais plutôt humbles, du plan d’urgence.Le rôle du web social dans l’encouragement à la solidarité serait donc à nuancer. «Le fait que les gens répondent à l’appel d’Airbnb n’est que la preuve que la solidarité humaine continue de se manifester. Mais elle existait heureusement avant ces plateformes», continue le sociologue. Selon lui, les initiatives prises sur des petits forums ou sur des chats sont plus sincères, car elles ne «découlent pas d’une stratégie de communication». Twitter lui semble donc plus «spontané» car les utilisateurs eux-mêmes sont à l’origine des tendances, à l’image du hashtag #PorteOuverte créé sur Twitter le soir du 13 Novembre par des citoyens franciliens. Antonio Casilli estime que c’est ici «une bonne façon de ne pas se borner aux algorithmes de plateformes telles que Facebook
Source: Quand Airbnb, Facebook et Twitter viennent au secours de leurs utilisateurs – Libération
Bye bye, La Grande Table
Le vendredi 19 juillet 2013, Caroline Broué a accueilli une délégation des chroniqueurs de La Grande Table pour un dernier épisode avant la fin de la saison – et avant de démobiliser « la brigade ». Par ce terme on a désigné, dans le jargon propre à l’émission, le groupe d’une cinquantaine d’écrivains, artistes, chercheurs et intellectuels assortis qui a animé la première partie du magazine culturel du midi sur France Culture. Je l’avais intégré en 2011, sur invitation de Caroline même, et de Raphaël Bourgois, producteur de l’émission. Une expérience enrichissante, qui m’a permis de rentrer dans l’actualité des débats intellectuels français et internationaux, de sortir quelque peu de mon rôle de “docteur ès geekeries”, de côtoyer des personnes que j’admire, et – parfois – de me disputer avec eux à l’antenne 😉
C’est le moment donc de remercier tou(te)s : les autres brigadistes/brigadiers, les journalistes, les producteurs, les stagiaires et les techniciens (la quantité de gens nécessaire pour faire marcher une émission…). Et je vous laisse avec une petite sélection de podcasts d’épisodes de La Grande Table auxquels j’ai eu le plaisir de participer :
– L’accès ouvert aux revues en sciences humaines et sociales – 15.04.2013
– Beppe Grillo et le populisme 2.0 en Italie – 28.03.2013
– Guy Debord à la BNF – 22.03.2013
– A propos du rapport de l’Académie des Sciences L’enfant et les écrans – 08.02.2013
– Pour les 30 ans du protocôle TCP/IP – 29.01.2013
– A l’occasion de la parution de Karaoke Culture de Dubravka Ugresic – 31.12.2012
– A l’occasion du colloque BNF Comprendre le phénomène pro-ana – 29.11.2012
– Nouvelles mythologies : de la voiture au smartphone – 04.10.2012
– La NSA et le loi LOPPSI : extension du domaine de la surveillance sur Internet – 23.05.2012
– Pour le centenaire d’Alan Turing – 25.04.2012
– L’affaire Megaupload : le début de « l’Internet de plomb » ? – 08.02.2012
– L’intimité à l’épreuve des réseaux sociaux numériques – 05.01.2012
Please Your Holiness, feed the #troll (an open letter to the Pope)
[Update Feb. 11 2013: This post has been also published in the French edition of the Huffingtonpost and featured in Andrew Sullivan’s The Dish as well as in the Catholic Herald.]
> To : Pope Benedict XVI
> From : Antonio Casilli
> Sent: Sun Feb. 3 2013 03:52:22 PM
> Subject: What to do about Twitter trolling
>
Your Holiness,
let me start by saying that I am not a christian, plus I am not particularly appreciative of your work. I am but a modest scholar of digital cultures who has been following, with a professional eye, your recent effort to rebrand your online image. By now, the general public is aware that you and your staff operate the Twitter account @pontifex – and its multilingual permutations @pontifex_fr, pontifex_it, pontifex_es… My sources indicate that this is the brainchild of Jesuit cybertheologian Antonio Spadaro, counselor of the Pontifical Council for Social Communications 1. So it seems only obvious that the Jesuit magazine Popoli commissioned a study to assess how well your online presence has been perceived after a month on Twitter. On the face of it, you did fine. You have been sending out approximately 100 messages in 9 languages, and earned more than 2 million followers altogether. Moreover, you have generated 270,456 responses from your fellow users.
This impressive amount of comments was also used to perform a “sentiment analysis”, to determine the general attitude of the Twittersphere. About 82% of the feedback received was “neutral”, a meager 10% was positive, and 8% negative. Let me break it down for you, Your Holiness: sentiment-wise, your entrance on Twitter has been saluted by a roaring “meh”… The not so brilliant results are summarized in the following infographic:
The Pope on Twitter. Source: Oogo.com (more…)
- Turns out my sources were not completely accurate after all. On Twitter, jesuit theologian Antonio Spadaro clarifies that:
@bodyspacesoc just you to know, Antonio: your sources are wrong. Even if I like & support it, it isn’t a brainchild of mine. Ciao!
— Antonio Spadaro SJ (@antoniospadaro) February 5, 2013
Slides du séminaire EHESS d'Antonio Casilli “Contre l’hypothèse de la fin de la vie privée” (20 nov. 2012)
La première séance de mon séminaire EHESS Étudier les cultures du numérique : approches théoriques et empiriques pour cette année universitaire a eu lieu le mardi 20 novembre 2012 à l’EHESS. Merci à tou(te)s les participant(e)s pour leur présence, leurs commentaires et leur enthousiasme. Voilà les slides de ma présentation.
TITRE : “Contre l’hypothèse de la ‘fin de la vie privée’ sur les médias sociaux : négociabilité et cyclicité de la privacy”
RESUME : “Au sein de la communauté internationale plusieurs voix se lèvent pour dénoncer l’érosion inexorable de la vie privée dans le contexte des usages actuels du Web social. En s’adonnant à une surveillance mutuelle et participative, les internautes renoncent-ils volontairement à la protection de leurs données personnelles ? Cette intervention adopte une approche ethno-computationnelle des controverses relatives aux politiques de négociation des paramètres de confidentialité en ligne pour montrer que la vie privée a encore de beaux jours devant elle. Sous certaines conditions, des « cycles de privacy » se mettent en place. Au travers du travail des associations d’usagers et des organismes préposés à la défense de leurs droits, ces conditions peuvent être remplies.”
Lectures :
Susan B. Barnes (2006) A privacy paradox: Social networking in the United States, First Monday, 11 (9)
danah boyd (2008) Facebook’s Privacy Trainwreck: Exposure, Invasion, and Social Convergence, Convergence, 14 (1): 13-20
danah boyd & Eszter Hargittai (2010) Facebook privacy settings: Who cares?, First Monday, 15 (8)
Anders Albrechtslund (2008) Online Social Networking as Participatory Surveillance, First Monday, 13 (3)
The academic, the wikipedian, the vandal [Full version, updated 05.11.2012]
The French translation of this essay is available on OWNI (part 1 and part 2), as installments of my column Addicted To Bad Ideas.
With the new academic year kicking in, my colleagues and I have decided to add a little wiki twist to a couple of courses we teach at Telecom ParisTech. I started a Wikispace for my digital culture class, and with Isabelle Garron and Valérie Beaudouin we’ve made compulsory for first year students to try and edit and discuss at least one Wikipedia page, as part of their initiation to online writing.
Sure, Wikipedia has been used as teaching tool in academia for some years now, to say nothing about its increasing popularity as a research topic. But the main rationale for using it in the classroom is that it has become the one-stop-shop for bibliographical research and fact-checking.
Challenging the Academic Mindframe
Think about your own online information habits. What do you do when you don’t know the first thing about a given topic? You probably google it, and the first occurrence is most likely a page from Jimbo Wales’s brainchild. You do it, we do it, our students do it. So we have to incorporate Wikipedia in our academic activity, not because it’s a cool gadget, but because otherwise it will create a dangerous blind spot.
[Don’t panic… Ok, panic]
And yet, admitting to this without panicking is not simple. At least here in continental Europe, ill informed judgments about the allegedly poor quality of Wikipedia articles are still commonplace in higher education. Some – like the French high-school teacher Loys Bonod, who had his 15 minutes of fame earlier this year – go as far as to add false and misleading information to Wikipedia, just to demonstrate to their students that it… contains false and misleading information.
Such paradoxical reactions are a case in point. Wikipedia is just as accurate and insightful as its contributions. Hence, the need to encourage its users to relinquish their passive stance and participate, by writing about and discussing relevant topics. Of course, one might say, when it comes to Wikipedia the Internet iron law of 90–9–1 participation applies: for 90 simple readers of any article, there will be only 9 who will make the effort to click on the “modify” tab to actually write something in it, and maybe just 1 motivated enough to click on the “discussion” tab and start a dialogue with other wikipedians.
Social scientists can come up with many explanations for this situation. The claims about the dawn of online participatory culture might have been largely exaggerated. Or maybe the encyclopaedic form tends to recreate cultural dynamics that are more coherent with an “author vs. reader” dichotomy than with many-to-many communication. Or maybe Wikipedia editors tend to intimidate other users in an effort to increase their own social status by implementing specific barriers to entry.
Try starting a new article. In all probability, its relevance will be challenged by some editor. Try starting the biography of a living public figure. Chances are that a discussion will ensue, focussing not on the public figure in question, but on the private qualities of the biographer. Is the author just an IP-based anonymous, or a legit logged-in user with a recognized contribution track record?
Trollarchy in the UK: the British Defamation Bill and the delusion of the public sphere
[UPDATE 26.06.2102: A French version of this post is now available on the news website OWNI. As usual, thanks to Guillaume Ledit for translating it.]
These days, the House of Commons has been debating an amendment to the British Defamation Bill specificially designed to tackle Internet trolls. Now website owners and internet access providers will be forced to reveal the IP and personal information of users identified as authors of ‘vile messages’. It is business as usual: whenever some ICT-related news story catches the public eye, British policy makers come up with an ad hoc law. Preferably, one mindlessly disregarding privacy and free speech.
Why mainstream media are scared of trolls
In a remarkable effort to lull the general public in a false sense of understanding digital cultures, The Guardian has devoted a special session of its June 12, 2012 edition to this peculiar online phenomenon. The pièce de résistance is Zoe Williams’s What is an internet troll?. An article concocted using the usual troll news story recipe: one part pyschology professor delivering highbrow quotes about the ‘disinhibition effect’ of electronic media, one part journalist whining about today’s diminishing education standards and pervasive hate speech, two parts sad anecdotes about some celebrities we’re supposed to sympathize with. The conclusion of this tone-setting essay (“We shouldn’t call them ‘trolls’. We should call them rude people.”) is probably best rendered when pronounced with a high-pitched monty pythonesque voice, like in The Life of Brian‘s “He’s not the Messiah. He’s a very naughty boy!”.
La simulation sociale pour combattre la censure : texte de ma conférence à TEDxParisUniversités
[UPDATE 05.06.2102: La vidéo de mon talk est désormais en ligne sur le site Web des conférences TED. Enjoy & share !]
Le samedi 19 mai j’ai été parmi les heureux conférenciers de l’édition 2012 de TEDxParisUniversités. A cette occasion, j’ai pu présenter au public français les résultats du projet ICCU (Internet Censorship and Civil Unrest) que je mène avec Paola Tubaro, enseignante-chercheuse à l’Université de Greenwich, Londres. L’accueil a été plus que chaleureux : la tweeterie m’a porté en triomphe, j’ai reçu les accolades des organisateurs et je me suis imbibé de l’enthousiasme d’étudiants et de militants de tout bord. J’exagère, mais pas tant que ça (suffit de lire le compte-rendu Storify concocté par Gayané Adourian ;). Voici donc le texte et les slides de mon intervention, en attendant la vidéo.
Aujourd’hui je vais vous parler des effets négatifs de la censure des médias sociaux, en passant par le cas des émeutes britanniques de 2011.
La censure est extrêmement difficile à étudier du point de vue des sciences sociales. Dans la mesure où elle est une interruption de flux d’information, les données relatives à ses conséquences et à son efficacité prétendue sont souvent inaccessibles aux chercheurs. C’est pourquoi nous devons nous appuyer sur une méthode innovante : la simulation sociale. (more…)
Would online censorship be effective? Evidence from two research projects proves the opposite
Hi,
you’ve probably reached this blog after listening to my interview with Jian Ghomeshi on CBC Radio Canada’s programme Q. In case you missed it, here’s the podcast:
In this post, you’ll find some background information about my ongoing research on internet censorship – mainly in collaboration with Paola Tubaro (University of Greenwich, UK) and other colleagues. Our focus is on unintended and negative effects of censorship, based on analyses of social media use conducted in the last few years.
In my latest book Les liaisons numériques. Vers une nouvelle sociabilité? [Digital Relationships. Towards a New Sociability?, Paris, Seuil, 2010] I dealt with the topic of pro-ana (short for “pro-anorexia”) and pro-mia (“pro-bulimia”) websites, blogs and forums of persons with eating disorders. The most controversial among them have gone as far as to claim that eating disorders are a choice or a lifestyle, rather than conditions. A grant from the French National Research Agency (ANR) allowed me and my colleagues to lauch ANAMIA, a large-scale study on eating disorder-oriented online communities.
ANAMIA research project – featured on Boing Boing
Since the early 2000s, fears that these websites may induce unhealthy behaviours (possibly in young and adolescent viewers), have prompted many web services to remove them, while some countries have considered outlawing them. Yet eating-disorder related Web communities continue to proliferate. They have migrated to more hidden platforms, barred entry to outsiders, concealed their true nature, and relocated in foreign countries. In a previous post published on Bodyspacesociety blog, I have dubbed this the “toothpaste tube effect“: squeezed from one service, controversial contents re-group elsewhere. Paradoxically, censorship multiplies these websites – if only because of the urge to duplicate contents for backup purposes, in case they have to shut down and move!
Mapping pro-ED websites (France, 2010-2012) – ANAMIA research project
Today, these websites are less open and less visible, though still numerous and densely connected with one another. Thus, they can still influence their users, just as before; but it has become harder for health and nutrition campaigns to locate them and reach out to their users.
Our results indicate that Internet censorship is ineffective and inefficient: it has failed to stop “negative” influences, and has made it more difficult for “positive” influences to operate.