admin

Artificial intelligence doesn’t destroy jobs, it precarizes them (op-ed Domani, March 24, 2023)

Today, the Italian newspaper Domani published an op-ed that I penned in the wake of the publication of the study “GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models“. You can find the Italian version of my article on the website of Domani, and read the English version here.

Artificial intelligence will increasingly make the world of work precarious

Antonio A. Casilli

  • Systems like ChatGpt won’t completely disrupt work as we know it, but it will create a new class of “click slaves,” paid (very poorly) to train algorithms.
  • This is a more real risk than science fiction scenarios, where robots would completely take over human labor. OpenAi itself already uses these micro-workers.
  • A few months after ChatGpt was launched, a TIME magazine exposé disclosed that Kenyan workers were being paid less than $2 per hour to train artificial intelligence.

A study analyzing the impact of artificial intelligence on the labor market was published this week. Its authors examined so-called “pre-trained models” of the Gpt family. These pieces of software learn from a large amount of data to perform tasks that they then adapt to new contexts. Three of the four authors of this study are employees of OpenAi, the company that in recent months has launched Dall-E 2, an image-generating system, and of course ChatGpt, the virtual assistant that has become a cultural phenomenon.

According to the study, about 80% of the workforce could be exposed to this innovation, and for some of them 50% of tasks could change dramatically. Even highly educated people would be affected by this development.

The conditional is a must, because the study has more limitations than results. It relies on opaque data, adopts an abstruse methodology and, as a cherry on top, uses a Gpt to analyze the effects of other Gpts.

The new Frey & Osborne

The study matters more for its ambition than for its results. Doubtlessly, the article aspires to be the “Frey & Osborne report of the 2020s,” after the two Oxford researchers who published in 2013 an analysis predicting that 47% of jobs would be destroyed by 2030. It is a highly cited and heavily criticized work given that, despite a pandemic, a geopolitical crisis and a climate emergency, their forecasts are far from coming true.

Both the 2013 article and the one just published by OpenAi researchers reduce human work to a series of “tasks.” Like all reductionist analyses, they should be greeted with healthy distrust. To say that a nurse’s job is reduced to 10 tasks (caring for patients, filling out forms, etc.) and to say that some of them might be exposed to ChatGpt use does not mean that the nurse will be fired. Her job will change.

A marketing operation

Maybe with the excuse that new technology saves time, employers will find new ways to add tasks to employees while keeping real wages at a minimum. Despite utopian visions and fears regarding automation, historically this is what has happened, much to the chagrin of OpenAi researchers.

Their article is largely a marketing tool designed to help their company get noticed by the media. Every time OpenAi launches a product, a debate rages in the news and on social media about the threats artificial intelligence poses to journalists, illustrators, teachers. It just so happens that the jobs that are threatened to disappear are precisely those that the American company sells as services: text and image generation, training, etc. It is not the robots that are destroying jobs. It is OpenAi that is destroying competition.

Out of control

But sadly, this is not good news. The effects of these technologies on jobs are indeed there, but they are different. To really detect them we have to read the System Card of Gpt-4, OpenAi’s latest software. A hundred or so pages describe the tests by which the AI was trained. The testers often pushed Gpt-4 to perform dangerous or illegal actions in order to teach the artificial intelligence to avoid them.

But during the tests, Gpt-4 escaped its controllers, and attempted a cyberattack on a website. The latter, however, was protected by ReCaptcha, those pop-ups that require proving you are not a robot by solving a puzzle. Unfortunately, Gpt-4 is a robot. To solve the puzzle, it then turned to an on-demand platform to recruit a pieceworker to solve the ReCaptcha on its behalf.

Micro-work

But ReCaptchas do more than just protect against cyberattacks. They are also used to train artificial intelligence. When they prompt us to transcribe words, they use them to digitize Google Books. When we are invited to spot a traffic light, they calibrate Waymo’s autonomous driving systems. This raises a mind-boggling question: can Gpt-4 be used to recruit workers who in turn train other AIs?

In fact, more or less automated systems for recruiting freelance workers to train algorithms have existed for decades. Amazon Mechanical Turk is a site where, for a few cents, companies recruit for less than a quarter of an hour hundreds of thousands of people to generate data, transcribe text, and filter images. Other platforms, such as Australia’s Appen, employ more than ten million people. Can we really talk about jobs? These are micro jobs with poverty wages, which are largely performed by workers from developing countries.

Replacement

Paradoxically, OpenAi itself uses these “click slaves.” A few months after ChatGpt was launched, a TIME magazine exposé revealed that Kenyan workers were being paid less than $2 per hour to train the chatbot. In other documents uncovered shortly thereafter, the U.S. company claimed it contracted workers in the Philippines, Latin America and the Middle East to train its algorithms.

Thus, the true impact on the work of Gpt software has been revealed. Artificial intelligence automates the process of selecting, hiring, and firing precarious workers. This is not the usual science fiction scenario where robots replace humans. It is one where permanent employees being replaced with underpaid pieceworkers hired and fired on digital platforms. This trend is already underway, and companies like OpenAi are escalating it.

Pas de panique : GPT-4 ne va pas voler votre emploi (il va simplement recruter une foule de micro-tâcherons sous-payés)

Tl;dr L’IA a bien un impact sur le marché du travail, mais ce n’est pas la catastrophe robotique que redoutent les prophètes de l’apocalypse. Ne perdez pas votre temps à combattre un faux ennemi.

OpenAI a récemment publié la GPT-4 System Card, un document de 50 pages détaillant les tests effectués par des “red-teamers” (c’est-à-dire des testeurs hostiles) qui ont tenté de contraindre l’IA à effectuer des actions dangereuses, controversées ou illégales. Ce type de test est essentiel afin de mettre en place des garde-fous pour empêcher GPT-4 de se livrer à de telles activités. Entre autres, GPT-4 a réussi à engager un travailleur de Taskrabbit pour résoudre un ReCaptcha, une simple tâche cognitive utilisée pour entraîner des IA. Cela soulève la question suivante : peut-on l’utiliser pour recruter automatiquement des annotateurs de données à la demande ?

Un extrait du GPT-4 System Card : dans un test dans, l’IA a recruté un travailleur sur une plateforme en le convainquant qu’elle n’est pas un robot pour lui faire réaliser une tâche qu’un robot ne pourrait pas réaliser…

En fait, des systèmes permettant de recruter des sous-traitants sous-rémunérés en ligne existent depuis près de 15 ans. Des solutions logicielles telles que TurkIt (2009) automatisent la publication de tâches sur Amazon Mechanical Turk, tandis qu’Automan (2016) intègre le calcul numérique et le calcul à base d’humains.

Néanmoins, GPT-4 soulève des inquiétudes quant à son impact sur le marché du travail, car il pourrait accélérer la tendance au remplacement des employés permanents par des micro-tâcherons précaires, embauchés et licenciés par un simple “prompt”. C’est le triomphe de ce que l’on appelle Humans as a service, pour reprendre le titre d’un beau livre de Jeremias Adams-Prassl (publié en Français sous le titre L’ubérisation du travail).

Cela ne signifie pas que “les robots vont piquer votre boulot”. GPT-4 est simplement un robot qui automatise l’embauche de travailleurs précaires qui effectuent les mêmes tâches que des humains mieux rémunérés. Il s’agit d’une vraie problématique sur les effets domino de l’IA, et non d’un scénario de science-fiction sur un prétendu soulèvement des robots.

Attention : la System Card est un pas dans la bonne direction pour garantir que la technologie ne soit pas utilisée pour porter atteinte aux droits des travailleurs. Toutefois, il faut faire plus. Par exemple, créer une commission d’enquête internationale pour exiger d’OpenAI qu’elle divulgue le code de ses IA, ses paramètres et surtout d’où proviennent les données qu’elle utilse pour les entraîner

ChatGPT y “el trabajo sucio de l’IA” (entrevista en El Mercurio, Chile, 26 febr. 2023)

En el diario chileno El Mercurio, el periodista Juan Rodríguez me hizo algunas preguntas sobre el reciente éxito de ChatGPT…

Mercurio-HD

Entrevista Lo humano y lo artificial

Conversar con el ChatGPT: ¿qué hay detrás de la pantalla?

Ha sido la canción del verano: en estos meses el comentario obligado es el chat que responde preguntas sobre los más variados temas, desde filosofía hasta el de la capacidad lectora de los chilenos. El sociólogo Antonio Casilli, autor del libro “Esperando los robots”, ha estudiado la realidad y retórica detrás de estas nuevas tecnologías y aquí da algunas claves para entenderlas.


“Compara las concepciones de virtud de Kant y Aristóteles”, le pidió al ChatGPT Raimundo Cox, del Instituto de Filosofía de la Universidad de los Andes.

“La concepción de virtud de Aristóteles se basa en la idea de eudaimonía, o felicidad, o prosperidad”, dijo el robot en parte de su respuesta. “Kant, por otro lado, se enfoca en las motivaciones detrás de nuestros actos”.

La respuesta es algo genérica y esquemática, pero acertada.

El lingüista Guillermo Soto, director de la Academia Chilena de la Lengua, le preguntó por el estereotipo “los chilenos no entienden lo que leen”.

“No, no es verdad que los chilenos no entienden lo que leen. Como en cualquier otra población, los chilenos varían en sus niveles de alfabetización y habilidades de comprensión lectora. Sin embargo, es injusto y equivocado hacer una generalización sobre toda una población basado en las acciones de unos pocos individuos”.

El periodista chileno Gazi Jalil le pidió ayuda literaria: “¿Quién me recomiendas para leer estos días: Gabriela Mistral o Lucila Godoy?”.

“Gabriela Mistral y Lucila Godoy son dos importantes poetas de América Latina y es una buena idea leer a ambas”, dijo, ecuánime y confundida, la inteligencia artificial (IA).

ChatGPT es uno más de varios robots que, se supone, hacen cosas que eran privilegio humano. Es un programa o inteligencia artificial diseñado para simular o mantener conversaciones con usuarios humanos, o sea, un chatbot. Fue lanzado el 30 de noviembre de 2022 y en principio es gratuito, pero se supone que se comenzará a cobrar. Ya en diciembre tenía un millón de usuarios.

La sigla secreta

Antonio Casilli es sociólogo y profesor del Instituto Politécnico de París. Se ha dedicado a investigar el impacto e influencia de la cultura digital en la vida cotidiana. Es autor, entre otros libros, de “Esperando a los robots” (Lom), un ensayo que alude a “Esperando a Godot” en el que revela el trabajo humano y precarizado que hay detrás de esa “magia” que parece ser la inteligencia artificial.

Casilli ha usado el ChatGPT, pero no para conversar: “Lo utilizo a diario como asistente de escritura, para redactar correos electrónicos, tomar notas o corregir y acortar textos. Para mi trabajo de autor, no es ni más ni menos revolucionario que la introducción de los primeros programas que permitieron dar formato a los textos, el siglo pasado”.

—¿Qué impresión le ha dejado el chat?

“A pesar de la retórica general, no le veo nada extraordinario en comparación con otros ejemplos de inteligencia artificial de este tipo. Son software que manejan un número enorme de parámetros (en el ChatGPT, hablamos de más de 170.000 millones) y que ‘aprenden’ a hablar y a generar texto a partir de ejemplos tomados de la web. La riqueza de ChatGPT reside en que dispone de un número impresionante de ejemplos, es decir, de datos. Utiliza una solución llamada Common Crawl, que lleva más de diez años tomando imágenes, videos, audio y texto de la web”.

—Vamos a lo básico, ¿cómo se programa un chat así?

“El secreto de cómo se programa reside en el acrónimo que encierra su nombre: esas misteriosas letras G-P-T. Empecemos por el final. La última letra, T, significa ‘Transformador’. Es el tipo de programa que se utiliza para descubrir regularidades en grandes masas de datos. En este caso, descubre correlaciones entre palabras. Predice, por ejemplo, que si se dice ‘no vayas a la derecha, ve a la…’ lo más probable es que la siguiente palabra sea ‘izquierda’. Por eso el chat parece entender el lenguaje humano. En realidad, lo único que hace es calcular probabilidades. En base a estas probabilidades puede generar textos, lo que explica la primera letra, G, que significa ‘Generativo’”.

—¿Y la P?

“Significa ‘Preentrenado’, lo que alude al hecho de que el chat no aprende a calcular todas las probabilidades en el momento en que uno lo utiliza, sino que se ha ‘preentrenado’ a sí mismo a partir de la enorme masa de datos que ya ha estudiado. En algún lugar hay alguien que enseña a este chat a generar textos. Ese alguien no es quien cabría esperar, como los científicos que lo crearon, sino gente que hace ‘el trabajo sucio de la IA’. Estas personas se contratan a través de plataformas especializadas que encuentran trabajadores independientes, dispuestos a trabajar por salarios muy bajos. Por eso suelen ser de países de renta baja, como Kenia o Filipinas”.

—En enero, la revista Time reveló que OpenAI usó trabajadores kenianos, a quienes pagó menos de dos dólares por hora, para hacer que ChatGPT fuera “menos tóxico”.

“Los ingenieros consideran este trabajo indigno de ellos. He mantenido muchas conversaciones con arquitectos de sistemas informáticos. Un ingeniero de IBM que me dijo: ‘Conseguimos ‘pequeños indios’ para que hagan el trabajo de preparar los datos, ellos son los que hacen el barrido después de que nosotros pasemos’. En resumen, el trabajo del clic que se subcontrata a Kenia, India o Venezuela está infravalorado, pero es necesario para crear los datos que constituyen los ejemplos sobre los que ChatGPT se ‘preentrena’. Es el corazón de toda inteligencia artificial, pero es un trabajo repetitivo”.

Casi nada que temer

En un artículo titulado “El sueño de la máquina creativa”, el filósofo español Daniel Innerarity explica por qué no hay que tenerles miedo al ChatGPT ni al arte generado por inteligencia artificial. Dice que la IA “crea” identificando y reproduciendo patrones, mientras que la creatividad humana “implica siempre una cierta transgresión”.

“Estoy de acuerdo”, dice Casilli. “Lo que dice Innerarity es cierto en el campo del arte y la creación humana, y también lo es en el campo de la informática. Los modelos matemáticos que subyacen a ChatGPT buscan descubrir regularidades. La inspiración, en cambio, es hija de la conexión inesperada, del gesto irracional, de la excepción”.

“Por supuesto, se podría argumentar que se trata de una visión idealizada y romántica de la cultura humana”, agrega Casilli. “A veces el propio arte es imitación, repetición de lo idéntico, manierismo. Pero no creo que el problema se plantee en términos de ‘¿cuál es la esencia del espíritu humano? ¿Puede la IA reproducirla?’”.

—¿Por qué no?

“No creo que ninguna de las personas que construyen hoy los grandes sistemas de aprendizaje automático se plantee: ‘Ahora quiero construir un cerebro artificial’. Al contrario, las personas que he conocido se hacen preguntas mucho más terrenales. ‘¿Cómo puedo optimizar estos parámetros?’. ‘¿Cómo puedo obtener esta herramienta sin pagar millones?’”.

“Quienes tienen grandes pretensiones filosóficas de revolucionar el mundo y renovar el espíritu humano con la IA son los dueños de las empresas para las que trabajan estos científicos. Los Elon Musk, los Jeff Bezos… esta generación que cree haber encontrado la clave para interpretar el universo. Pero ellos nunca han puesto sus manos en el juego. No son técnicos, son demagogos. Nadie está trabajando realmente para construir una inteligencia artificial sobrehumana”.

—¿A qué sí habría que temer?

“Mientras todo el mundo está ocupado preguntándose ‘esta IA ¿es consciente?’, no nos hacemos otras preguntas. Por ejemplo, si esta IA es segura o si contiene riesgos potenciales. ¿Qué pasaría si una organización criminal o un régimen autoritario la utilizaran a gran escala? ¿Se han examinado estos riesgos? Parece que no”.

—¿Ha habido problemas?

“Microsoft es uno de los grandes financistas de ChatGPT y utilizó esta tecnología para mejorar su motor de búsqueda Bing. El resultado fue desastroso. Pocos días después de lanzarlo entre un número limitado de usuarios, Bing empezó a acosarlos con peticiones amorosas, amenazó con revelar supuestos delitos, sugirió formas de robar un banco y otras amenidades. ¿Era Microsoft consciente de ello? Aparentemente sí, porque ya había probado la IA de Bing en la India hace cuatro meses e incluso entonces había mostrado un comportamiento aberrante. ¿Qué se hizo para mejorarlo? No mucho, porque la empresa estaba demasiado ocupada impulsando debates sobre si su IA era realmente animada o no”.

Entre la pedagogía y el peligro de plagio

Antonio Casilli sabe que sus colegas en la universidad recurren a este tipo de chat robot o simplemente chatbot: “He conocido a un par que lo usa para escribir informes sobre sus actividades o para empezar a apuntar ideas para las clases, que luego desarrollan, por supuesto”, cuenta. “En cuanto a mis estudiantes, sé que lo utilizan porque me lo han confesado sinceramente”. Para él no es problema, no teme al plagio, y hasta puede ser una oportunidad; ha hecho experimentos pedagógicos que bautizó como “Challenge ChatGPT”. “Por ejemplo, les digo a mis estudiantes que busquen información con la IA; luego, que la consulten en los libros de texto; y después, que cuestionen la información proporcionada inicialmente por el chatbot”.

“En mi profesión, cada diez años hay un nuevo pánico moral, una nueva amenaza que pretende perturbar todo y destruir el pacto pedagógico que supuestamente existe entre profesores y discentes. Primero el uso de Google parecía un desastre; luego el uso de Wikipedia parecía un cataclismo y hoy ChatGPT. Mi estrategia siempre ha sido decirme a mí mismo ‘mis estudiantes y yo vivimos en la misma realidad, y aprendemos juntos utilizando las herramientas que tenemos a nuestra disposición’. Si la herramienta hoy es ChatGPT, usémosla”.

—Con todo lo que ya sabes del ChatGPT, ¿qué le preguntarías hoy?

“Puede que te sorprenda, pero para mí, ChatGPT es solo una herramienta, como un frigorífico o una calculadora. ¿Qué le pedirías a tu refrigerador? Que guarde comida. Pero no le harías ninguna pregunta. Y lo mismo a la calculadora. Esperarías que hiciera cálculos exactos, pero no querrías considerarla un ser humano sensible y consciente con el que pudieras mantener conversaciones. No querrías ‘antropomorfizarla’. Lo mismo puede decirse de ChatGPT. Aunque su interfaz es la de un bot de chat, no son preguntas lo que le haces: son instrucciones que le das a una máquina”.

Comment enseigner à l’heure de ChatGPT (Le Parisien, 22 févr. 2023)

Dans le quotidien Le Parisien, la journaliste Claire Barthelemy relate d’une expérience que j’ai conduit dans le cadre de mon cours ‘Internet & Society’ à Télécom Paris | Institut Polytechnique de Paris. Mes étudiant•es ont été invité•es à participer à un ChatGPT challenge…

Pour la petite histoire, j’ai résumé mon approche à ChatGPT dans le contexte de l’enseignement universitaire dans ce fil Twitter, où je fournis par ailleurs quelques exemples d’expériences pédagogiques basées sur l’IA.

D’autres expériences assez intéressantes sont présentées, en anglais, dans ce billet du blog d’Ethan Mollick, professeur de gestion à l’Université de Pennsylvanie.


ChatGPT : « Il ne faut pas faire semblant d’être dans un monde qui ne travaille qu’avec son cerveau »

Par Claire Berthelemy Le 22 février 2023 à 16h47


On ne présente plus ChatGPT, l’intelligence artificielle qui fait peur à de nombreux enseignants. Pas tous visiblement, puisqu’un prof de l’Institut Polytechnique de Paris a décidé d’intégrer le système avec un objectif : l’apprentissage de ses élèves. Antonio Casilli enseigne la sociologie à des étudiants d’école d’ingénieurs « de niveau master 1», précise-t-il sur son post Facebook.

Son idée ? Demander à ses étudiants d’utiliser ChatGPT pour leur apprendre à vérifier l’information fournie par l’outil « et réviser les bases de sociologie grâce à une phase de travail bibliographique et l’envoi de toute la conversation pour évaluation ».

Un exercice 100% basé sur ChatGPT

Ainsi en TD, les élèves ont eu à se lancer dans un ChatGPT Challenge, « comme j’ai déjà fait faire des Wikipedia challenge, où les élèves devaient alimenter des pages Wikipedia », précise Antonio Casilli pour qui ChatGPT n’est pas un outil de triche mais peut être un outil d’apprentissage.

30 minutes pour poser des questions à ChatGPT « pour générer une conversation qui répète ce qui a été dit en classe la semaine d’avant » et qui leur impose d’avoir compris et « de poser les bonnes questions pour avoir les bonnes réponses » ; 20 minutes ensuite pour travailler sur la bibliographie du texte puis à vérifier la véracité des réponses de ChatGPT.

Des élèves soulagés

Côté étudiants, après les nombreuses interdictions de s’en servir dans l’enseignement supérieur, l’utilisation de ChatGPT peut être difficile à assumer. Pas chez les étudiants d’Antonio Casilli : « Il y a eu un certain soulagement, de ne pas avoir à mentir en disant qu’ils n’avaient jamais utilisé l’outil. Mais ils ont été aussi soulagés quand je l’ai évoqué parce que leurs enseignants sont parfois méfiants dans d’autres contextes. Je sais que certains, qui font du code notamment, ont du mal à s’en saisir, car quand ils lui demandent du code, ChatGPT leur produit d’énormes erreurs. »

Ils savent aussi que d’autres exercices vont pouvoir leur être proposés. « Utiliser différents prompts pour obtenir la même réponse, ou des réponses qui se ressemblent énormément, pour voir ce qu’est un consensus et ce qu’est une connaissance consensuelle ; ou leur donner n’importe quel texte scientifique post 2021 et voir comment à partir de différents prompts ChatGPT est capable de le reproduire », énumère l’enseignant.

« Si avant on utilisait la calculette, les processeurs, on peut utiliser ChatGPT »

Il nous précise : « ChatGPT n’est en soi pas révolutionnaire, l’IA propose juste de générer des textes sans expliquer pourquoi. C’est excellent pour improviser, pour faire de la mise en forme de texte ou de la traduction, mais pas pour une recherche factuelle d’infos. D’autre part, ce sont des fonctionnalités que d’autres logiciels permettaient de faire avant. »

L’enseignant de socio, « assez vieux pour [se] servir de Google ou de Wikipedia », a intégré l’outil dans sa pratique avec ses élèves pour une raison simple : « Il ne faut pas faire semblant d’être dans un monde qui ne travaille qu’avec son cerveau uniquement. Je travaille avec les outils dont les élèves et moi disposons. Si avant on utilisait la calculette, les processeurs, on peut utiliser ChatGPT pour enseigner. »

[Video] Lanzamiento de mi libro “Esperando a los robots” (LOM Ediciones) (Santiago, Chile, 26 enero 2023)

Conversación con Pablo Pérez Ahumada sobre mi libro Esperando a los robots. Investigación sobre el trabajo del clic. Evento organizado en Librería Ulises, Santiago de Chile, el 26 de enero de 2023, por LOM Ediciones y el Instituto Francés de Chile.

Para Casilli, los sueños de los robots inteligentes solo benefician a los grandes oligopolios digitales, representados por el acrónimo GAFAM (Google, Apple, Facebook, Amazon, Microsoft). Detrás del discurso promocional del reemplazo de trabajadores humanos por las tecnologías smart, lo que hacen las plataformas es más bien ocultar la realidad del mercado laboral: un trabajo no remunerado o mal remunerado, sin garantías ni protecciones laborales.

Mi texto ‘Anarquismo de plataforma’ publicado por Barbarie.lat (16 enero 2023)

La web cultural chilena Barbarie.lat publicó mi texto “Anarquismo de Plataforma”.

Anarquismo de plataforma: contra Bezos, Musk y Zuckerberg

En su libro Esperando a los robots, el sociólogo italiano Antonio A. Casilli descubre el trabajo humano y precario que hay detrás de la inteligencia artificial y muestra la distancia que existe entre el ideal de la «economía colaborativa» y la realidad de los «proletarios del clic». Invitado a La noche de las ideas el sábado 21 de enero, en estas respuestas el autor reflexiona sobre «trabajo fantasma», pandemia y digitalización, el sueño de un internet democrático, la retórica de la automatización, el extractivismo y otros costos ocultos, y sobre qué hacer frente al dominio de los oligopolios digitales.

La inteligencia artificial actual se basa en una economía política capitalista que existe hace varios siglos. La novedad reside en su tamaño e intensidad. La ancestral deslocalización de procesos industriales a países de renta baja se ha modernizado y realizado a una velocidad y escala que habrían sido inimaginables hace uno o dos siglos. Es el capitalismo con esteroides y, a través del trabajo del clic genera «trabajo fantasma».

En los años 80, Ivan Illic introdujo este concepto, y a finales de la década de 2010 la antropóloga Mary Gray lo amplió para describir el trabajo necesario para entrenar algoritmos, para asegurarse de que el asistente vocal de su smartphone entiende lo que usted dice, etcétera. No es el trabajo de ingenieros y desarrolladores de software muy bien pagados, sino el trabajo no reconocido de millones de trabajadores del clic repartidos por todo el mundo.

*

Cuando titulé mi libro Esperando a los robots (En attendant les robots, en francés) no estaba pensando en Constantino Kavafis y «Esperando a los bárbaros», sino en Esperando a Godot, de Samuel Beckett. El protagonista del poema de Kavafis espera a una horda de extranjeros peligrosos. Los bárbaros representan un enemigo amenazador. No es lo que yo pretendía transmitir. Al elegir el título, pensé en algo mesiánico y trascendente, como la promesa de la tecnología. Beckett describe a sus personajes como vagabundos, dos marginales, a la espera de una figura paterna. El nombre Godot implica la anticipación de algo trascendente («God»). La tecnología actual se ha convertido en un juego de espera, una anticipación de algo grandioso que nunca llega a suceder. Toda automatización es incompleta. La inteligencia artificial es siempre menos inteligente de lo esperado. El cumplimiento de cada promesa siempre se pospone. Por ahora, las tecnologías autónomas siguen siendo horizontes lejanos.

Como sociedad, se nos vendió la promesa de la tecnología para calmar nuestra frustración existencial colectiva. Pero también para calmar las quejas y reivindicaciones de quienes sufren injusticias y explotación. Nuestro sueño robótico es el opio moderno de las masas, una manera de pacificarlas para que no luchen por sus derechos. Es necesaria una distribución más equitativa de la riqueza producida por estas tecnologías.

*

Un tipo especial de digitalización, la plataformización, coincidió con la crisis sanitaria. Los grandes oligopolios centralizados impulsan esta visión. Empresas como Amazon, PedidosYa, TikTok, Zoom, etcétera, han ofrecido soluciones comerciales fácilmente reconocibles. Estas marcas se han convertido en sinónimo de digitalización, oscureciendo así otros enfoques. Por ejemplo, la crisis no coincidió con grandes inversiones gubernamentales en infraestructura digital. Tampoco se produjeron grandes esfuerzos de la sociedad civil para crear soluciones digitales populares y no comerciales. Por el contrario, triunfaron las aplicaciones comerciales, anunciadas por las grandes plataformas. Por ello, la adopción de estas tecnologías ha sido profundamente desigual. No todo el mundo se beneficia de estas tendencias tecnológicas.

Un ejemplo perfecto es el teletrabajo. En primer lugar, el trabajo a distancia no se ha generalizado. De hecho, la pandemia ha demostrado que la mayoría de los trabajos no pueden realizarse a distancia. Durante los periodos de confinamiento más graves, solo el 25% de los trabajos podían realizarse desde casa. Estas cifras son las mismas en Sudamérica, Europa y Norteamérica. Como resultado, existe una desigualdad entre quienes pueden trabajar desde casa y aquellos cuyos empleos requieren proximidad física, que se ven más perturbados por los medidas de contención. Los empleos que entran en esta última categoría son los esenciales: trabajadores de hospitales, de la construcción, de la producción alimentaria, etcétera. Cuanto más vitales son, más vulnerables parecen ser.

Hay otros tipos de desigualdades que también pueden agravarse. Para teletrabajar se necesita internet estable y una vivienda cómoda, por lo que las personas de barrios empobrecidos o zonas rurales están en desventaja. En segundo lugar, existe una desigualdad entre sexos: las mujeres siguen realizando más tareas domésticas y de crianza que los hombres. Conciliar el trabajo y la vida familiar es extremadamente difícil para una mujer que trabaja a distancia.

*

Aunque se anuncian como limpias y ecológicas, estas tecnologías se basan en costosas y largas cadenas de suministro. Contribuyen a un sistema económico de desigualdad y explotación no solo de los recursos naturales, sino también de los humanos. Digamos que producen varios tipos de residuos, unos medioambientales y otros sociales. La contaminación informática también puede considerarse un problema: spam, fake news, ciberanzuelos.

Los movimientos sociales que luchan contra estos costos ocultos de nuestras tecnologías surgen en los países que se encuentran en la encrucijada de estas cadenas de suministro de datos, trabajo y recursos naturales. Las huelgas en China, en 2022, en la mayor fábrica de iPhone del mundo, dan un claro ejemplo de un país que acoge a grandes masas de trabajadores que producen equipos y objetos tecnológicos como smartphones y tabletas. Dada la explotación de estos trabajadores, es inevitable que surjan conflictos laborales.

Además, surgen tensiones políticas, sociales y económicas en los países que albergan los «sustratos minerales» de estas tecnologías. Me refiero a los minerales estratégicos situados en el Sur global. Por ejemplo, el triángulo del litio entre Chile, Argentina y Bolivia. O el cobalto, extraído en países africanos como la República Democrática del Congo y Madagascar. Estos minerales son vitales, porque son esenciales para la producción de baterías, dispositivos y equipos.

*

No hay por qué considerar a la Unión Europea la única campeona de la regulación de internet. Varios países asiáticos y africanos han promulgado recientemente leyes antimonopolio y de protección de la intimidad. Sin embargo, la Unión Europea es muy eficaz a la hora de publicitar sus propios esfuerzos para regular el poder excesivo de las multinacionales de internet. La supuesta primacía europea es muy paternalista. Europa no es un faro de integridad. Sus leyes están destinadas en gran medida a proteger a las empresas europeas de los competidores estadounidenses y chinos. Si a las empresas europeas se les exigieran los mismos niveles de responsabilidad y transparencia que a sus homólogas extranjeras, ¿qué gracia tendría?

La pregunta «¿qué hay que hacer ahora?» no puede responderse con una regulación desde arriba, sino reconociendo las luchas en curso. Los conflictos y las formas de solidaridad entre usuarios no solo se dan en Europa, sino también en Sudamérica o Asia. No siempre las reconocemos, ya que no siempre adoptan la forma de un manifiesto o una carta. Mis colegas y yo realizamos recientemente un análisis comparativo de los trabajadores de plataformas en México, Venezuela y Argentina. Fue sorprendente ver cómo el trabajo informal es también un lugar de resistencia y lucha para un gran porcentaje de latinoamericanos. Buenos Aires, por ejemplo, ha ilegalizado Uber, por lo que los conductores se ven obligados a idear estrategias políticas encubiertas. No pueden votar a sus representantes ni pedir directamente mejoras salariales. Sus quejas deben expresarse de manera clandestina e informal: creando cuentas falsas, aceptando solo pagos en efectivo que no puedan ser rastreados por Uber, etcétera.

Estas actividades pueden interpretarse como sabotajes suaves, o incluso como formas embrionarias de conflicto. Sin embargo, son métodos de acción política en toda regla. La razón por la que no podemos reconocerlos es que nuestra sensibilidad política sigue dominada por las ideas de acción industrial del siglo XX: un conflicto organizado con reivindicaciones explícitas y un repertorio claro de argumentos. Quizá deberíamos actualizar nuestro software político, por así decirlo. Tenemos que empezar a identificar la acción política entre los usuarios no organizados de plataformas como un movimiento. Aunque no tengan reivindicaciones claras y no se guíen por una estrategia estable, son movimientos de trabajadores. Su trabajo es atípico, no clásico, barroco, y su acción política refleja estas características.

*

Condenar las ideologías explotadoras de las plataformas digitales no significa apelar a una estéril política del resentimiento. De hecho, la aparición de una vasta subclase global de trabajadores digitales nos ayuda a detectar nuevas experiencias políticas en todo el mundo. Utilizar estas tecnologías para un futuro más justo e igualitario abre nuevas posibilidades. Es fascinante ver cómo toman forma enfoques conceptuales y prácticos originales sobre las tecnologías.

Por ejemplo, en todo el mundo, científicos y activistas se preguntan si el conocimiento de los pueblos aborígenes puede dar forma a nuestra visión de la inteligencia artificial. Otras veces, las luchas de las mujeres han influido en las tendencias tecnológicas recientes. Además se ha pedido a la comunidad informática que aborde las desigualdades sistémicas y estructurales hacia las personas de color. Todos estos movimientos son bastante visibles. También tienden puentes hacia movimientos ajenos al sector tecnológico, que cada vez se relacionan más con él. Antes de internet, ya existían movimientos para la protección de la privacidad, la garantía de la libertad de expresión y la inclusión de las minorías y los grupos marginados; ahora han encontrado nueva vida. Y está el movimiento obrero: pensemos en cómo los repartidores, los trabajadores de la tecnología y los de la logística han protagonizado acciones sindicales en los últimos años. El trabajo basado en aplicaciones representa una frontera apasionante para los sindicatos. No es raro que aparezcan en sectores inesperados: sindicatos de creadores de YouTube, sindicatos de privacidad de usuarios de Facebook, etcétera.

Todos estos ejemplos pueden parecer muy interesantes, aunque también bastante fragmentarios. Pero, en mi opinión, indican una tendencia global hacia una gobernanza tecnológica federada y basada en la comunidad. Me refiero a esta tendencia como «anarquismo de plataforma». Al igual que los movimientos anarquistas históricos, estas nuevas iniciativas abogan por la autogestión y la autonomía. Las plataformas digitales deben ser gobernadas por los usuarios, no por empresarios dementes como Bezos y Zuckerberg. En los últimos años han surgido modelos alternativos de gobernanza popular, cooperativas digitales, procomunes de datos, etcétera. Internet se ha convertido en un archipiélago de plataformas y aplicaciones gestionadas democráticamente por sus usuarios. Necesitamos federarlas en infraestructuras más grandes, propiedad de los usuarios. ¿Y si la campaña #WeAreTwitter que intentó comprar la plataforma en 2017 hubiera tenido éxito? ¿Podríamos tener un «Twitter del pueblo» en lugar de la versión distópica del servicio de Elon Musk?

Entrevista en el diario chileno El Mercurio (15 enero 2023)

En el diario El Mercurio, el periodista Juan Rodríguez me entrevistó en ocasión de venir a presentar mi libro Esperando a los robots. Investigación sobre el trabajo del clic (LOM Ediciones, 2022) y a participar en la Noche de las Ideas 2023.

Entrevista Antonio A. Casilli, sociólogo italiano:

Hombres y mujeres detrás de la inteligencia artificial

En “Esperando a los robots” (Lom), libro sobre el “trabajo del clic”, el autor, invitado a “La noche de las ideas”, muestra que los ingenios digitales y la retórica que los promueve ocultan labores humanas tan materiales como precarias.

Juan Rodríguez M.

Una empresa francesa, especializada en inteligencia artificial (IA), ofrece a personas adineradas productos y servicios exclusivos y personalizados, gracias a un algoritmo que rastrea la vida digital de los clientes para conocer sus gustos. Lo raro es que en la empresa no hay ningún ingeniero en IA ni tampoco un científico de datos.

¿Por qué? Porque la tecnología que ofrece no existe, “el trabajo que debería haber hecho la IA se realiza realmente en el extranjero por trabajadores independientes. En lugar de la IA, o de un robot inteligente que recopila información en la web y devuelve un resultado tras un cálculo matemático, los fundadores de la startup habían diseñado una plataforma digital, es decir, un software que envía las solicitudes de los usuarios de la aplicación móvil hacia… Antananarivo”. O sea, la capital de Madagascar, cuenta el sociólogo italiano Antonio A. Casilli en su libro “Esperando a los robots” (Lom).

Son millones en el mundo las manos, no de ingenieros ni científicos, sino de trabajadores precarizados, que hacen funcionar las tecnologías que prometen automatizar la vida. Les pagan pocos centavos por clic, dice Casilli, “a menudo sin contrato y sin estabilidad laboral. ¿Y desde dónde trabajan? Desde cibercafés en Filipinas, desde los hogares en la India, incluso desde las salas de informática de las universidades de Kenia”. “En Mozambique o en Uganda hay barrios enteros de las grandes ciudades, o de las aldeas rurales, que se han puesto a trabajar para cliquear”.

Casilli es profesor del Instituto Politécnico de París e investigador de la Escuela de Estudios Superiores en Ciencias Sociales, también de París, investiga el impacto de la cultura digital en la vida cotidiana, y es uno de los invitados a “La noche de las ideas”, encuentro que organiza el Instituto Francés, el próximo fin de semana en el Centro Cultural La Moneda (ver recuadro).

Las tecnologías digitales, explica el autor, han tenido un impacto ambivalente en nuestras sociedades. De un lado, la aspiración de los usuarios a la autonomía y la libertad, el deseo de comunicarse; del otro, los oligopolios digitales —“Amazon, Alphabet, Meta, Alibaba, Tencent, etcétera”— que se apropian de esos deseos.

“La aparición del digital labor o ‘trabajo del clic’ es una de las manifestaciones más extremas de estas tendencias”, explica Casilli. “Muchas empresas y plataformas subcontratan el trabajo a multitudes de usuarios que lo hacen gratis o por salarios muy bajos. Este trabajo en línea lo realizan aficionados apasionados, creadores, autónomos y trabajadores informales. También consumidores y usuarios de plataformas. En lugar de contratarlos, reclutarlos, formarlos y pagarles, las empresas y plataformas utilizan sistemas complejos para captar su atención. El procesamiento de datos, la curaduría, la adición de etiquetas y metadatos son los principales aspectos de este trabajo. Cada vez que resolvemos un captcha o dejamos una reseña de un producto, realizamos este tipo de trabajo. Como usuarios de Google o Amazon, hacemos esta labor digital de forma gratuita, mientras que el resto trabaja por tarifas muy pequeñas, uno a mil pesos por clic”.

—Entonces, como dice usted, son los humanos los que le están quitando el trabajo a los robots.

“La IA se vende como una especie de magia: coches que se conducen solos, objetos que saben lo que quieren sus usuarios y ordenadores que aprenden más rápido que los humanos. Nos prometen máquinas sobrehumanas. Sin embargo, como en el Mago de Oz, los multimillonarios de la tecnología nos ordenan ‘no prestar atención al hombre tras la cortina’. Y le sorprendería saber cuántos hombres y mujeres hay detrás de la cortina de las tecnologías inteligentes. Con mi equipo de investigación DiPLab he realizado encuestas en varios países, de Egipto a Venezuela, de Argentina a Camerún. Hemos conocido a cientos de trabajadores informales que alimentan de datos a nuestras tecnologías inteligentes, a veces haciéndose pasar por aplicaciones o robots, mientras en realidad trabajan desde una pequeña habitación en la periferia de Caracas o Antananarivo”.

Ciclo de charlas en Chile sobre inteligencia artificial, trabajo y colonialidad (16-26 enero 2023)

Paola Tubaro y yo estaremos en Chile para una serie de charlas entre el 16 y el 26 de enero. Nuestros temas de investigación, que se centran en el trabajo en plataformas, inteligencia artificial, redes sociales, informalidad y colonialidad.

Lunes 16 enero 2023, 12:00, CUT, Talca — Antonio Casilli & Paola Tubaro “Plataformas digitales, trabajo en línea y automatización tras la crisis sanitaria” (CUT Talca, 1 oriente 809, Talca)

Martes 17 enero 2023, 11:00, Pontificia Universidad Católica — Paola Tubaro “Inteligencia artificial, transformaciones laborales y deslegalidades: El trabajo de las mujeres en las plataformas digitales de ‘microtareas”” (Instituto de Sociología UC & Quantitative and Computational Social Science Research Group (Campus San Joaquín), Pontificia Universidad Católica de Chile)

Martes 17 enero 2023, 12:10 Congreso Futuro, Providencia — Antonio Casilli “Trabajo global y inteligencia artificial. Los ‘ingredientes humanos’ ed la automatización” (Teatro Oriente, Pedro de Valdivia 099, Providencia)

Martes 17 enero 2023, 16:00, Universidad del Desarrollo — Paola Tubaro “Ética de la inteligencia artificial y otros retos para la investigación en redes sociales” (Escuela de Verano 2023, Universidad del Desarrollo)

Viernes 20 enero 2023, 10:00, Universidad de Chile — Paola Tubaro & Antonio Casilli “El trabajo detrás de la inteligencia artificial y la automatización en América Latina” (con Pablo Pérez y Francisca Gutiérrez, sala 129, FASCO, Av. Ignacio Carrera Pinto 1045, Ñuñoa)

Viernes 20 enero 2023, 20:00, Centro cultural La Moneda, Noche de las Ideas, Santiago — Paola Tubaro “Automatización: ¿El fin del humano?” (con con Denis Parra y Javier Ibacache, Plaza de la Ciudadanía 26, Santiago)

Sabado 21 enero 2021, 16:00, Centro cultural La Moneda, Noche de las Ideas, Santiago — Antonio Casilli “¿Qué esconde la inteligencia artificial?” (con José Ulloa, Constanza Michelson y Paula Escobar, Plaza de la Ciudadanía 26, Santiago)

Miércoles 26 enero 2023, 18:30, Santiago — Antonio Casilli, presentación del libro “Esperando a los robots. Investigación sobre el trabajo del clic” (LOM, 2021) (con Paulo Slachevsky, Librería del Ulises Lastarria, José Victorino Lastarria 70, local 2, Paseo Barrio Lastarria)

Dans La Croix, trois pages sur le micro-travail (13 déc. 2022)

Dans La Croix, la journaliste Audrey Dufour consacre trois pages au sujet du microtravail et ses liens avec l’IA. Les recherches de l’équipe DiPLab y sont mises à l’honneur. Dans un court texte, tiré de l’interview que j’ai accordé au quotidien, j’entame un débat avec le scientifique Jean-Claude Heudin.

Croix-2022

Dans l’Humanité, mon interview sur colonialité et travail du clic (9 déc. 2022)

Dans le cadre d’un grand dossier que le quotidien L’Humanité consacre aux travaux de notre équipe de recherche DiPLab, un long article dans lequel est présentée notre enquête sur la sous-traitance des données nécessaires pour produire les IA françaises à Madagascar (2022). Pour apporter un éclairage sur les liens entre travail du clic et héritages coloniaux, j’ai accordé un entretien au journaliste Pierric Marissal.

Antonio Casilli : « De sujets coloniaux à des “data subjects” »

Le partage des tâches dans l’économie de l’intelligence artificielle se calque sur des rapports de dépendance Nord-Sud, analyse le chercheur Antonio Casilli.

Antonio Casilli (1) coordonne avec Ulrich Laitenberger et Paola Tubaro l’équipe de recherche DiPLab (Digital Platform Labor) afin de mettre en lumière toute la chaîne de production humaine derrière les technologies intelligentes et l’IA. Deux régions géographiques sont étudiées : l’Amérique latine (projet CNRS Tria) et l’Afrique (projet ANR Hush), et leurs liens avec les entreprises donneuses d’ordres européennes.

Comment qualifiez-vous ces liens entre les entreprises donneuses d’ordres et exécutantes dans l’intelligence artificielle ? De la sous-traitance classique ? Du colonialisme ?

Cela reste une classique volonté d’externalisation vers des pays tiers à but de minimisation des coûts du traitement des données et des infrastructures. Les groupes occidentaux, pour développer leur sous-traitance, se sont souvent appuyés sur des entreprises structurées qui existaient déjà, par exemple dans le secteur du textile ou des centres d’appels. Dans l’Afrique francophone, on retrouve ainsi Madagascar, mais aussi le Maroc, la Tunisie, le Cameroun, le Sénégal ou la Côte d’Ivoire. Il s’est ainsi créé tout un circuit d’entraînement des intelligences artificielles. Cette sous-traitance s’inscrit dans une logique de dépendance économique qui elle-même est parfois héritée d’une longue histoire de dépendance politique. On peut alors parler effectivement de trajectoire coloniale. Mais je préfère le terme de colonialité, qui souligne l’emprise culturelle que les pays du Nord ont sur ceux du Sud.

C’est-à-dire ?

La colonialité, c’est le pouvoir de façonner l’identité des citoyens d’une autre nation. Jadis, elle les réduisait à des sujets coloniaux, aujourd’hui à des « data subjects ». Lorsqu’on regarde qui produit des données annotées, au bénéfice de qui, on voit bien qu’il n’y a pas de hasard. C’est en tout cas ce que montrent nos propres enquêtes pour l’Afrique francophone, comme celles de l’Oxford Internet Institute, qui a beaucoup travaillé les liens entre l’Afrique de l’Est, l’Inde, l’Angleterre et les États-Unis. Et les Philippines, qui étaient un protectorat états-unien.

On retrouve donc de vieilles dépendances…

Les liens culturels et linguistiques sont en effet cruciaux pour certains produits d’intelligence artificielle comme les assistants vocaux, par exemple, ou des systèmes linguistiques ou lexicaux. Beaucoup de microtravailleurs s’inscrivent à des cours de l’Alliance française ou de l’Institut Cervantès pour parfaire leur maîtrise de la langue. On retrouve, là encore, des liens issus des siècles passés. Mais on voit aussi de nouvelles dépendances de l’Ouest vers l’Est qui lient l’Égypte, les pays du Golfe et la Chine. J’ai rencontré des propriétaires de start-up dans la banlieue du Caire, où des jeunes Égyptiennes faisaient de la reconnaissance faciale pour le gouvernement chinois. Cette sous-traitance de technologies de surveillance qui consiste à identifier et traquer en temps réel, on l’a aussi rencontrée à Madagascar, comme au Venezuela.

Comme cela se passe-t-il en Amérique latine, justement ?

La colonialité des siècles passés se manifeste dans des liens entre des pays de langue espagnole et l’Espagne. Mais il y a aussi des dépendances héritées du XIXe siècle et de la doctrine Monroe, qui théorisait la domination politique des États-Unis sur tout le continent sud-américain. Aujourd’hui, l’Argentine, la Colombie et particulièrement le Venezuela produisent des données pour des entreprises américaines. Ils ont une identité économique et politique qui ne se construit que par rapport au pays le plus fort. C’est la définition même de la colonialité telle que l’a pensée le sociologue péruvien Aníbal Quijano. Concrètement, ces pays sont des sous-traitants condamnés à le rester. Leur travail sera constamment considéré comme sans qualité ni qualification. Même si nous avons rencontré des Vénézuéliens diplômés en sciences de l’ingénieur et des Malgaches diplômés de l’enseignement supérieur, ils sont réduits à faire des microtâches pour quelques centimes par jour sur des plateformes.

Y a-t-il des stratégies des entreprises donneuses d’ordres pour maintenir leurs sous-traitants en bas de l’échelle de la production de valeur ?

Les entreprises donnent le moins d’informations possibles sur l’usage qui sera fait des données. La raison officielle est que s’ils savaient à quoi est destinée l’intelligence artificielle, les travailleurs pourraient saboter le processus d’entraînement et chercher à introduire des biais spécifiques, pour des raisons économiques ou politiques. Cela peut s’imaginer si l’IA sert à de la reconnaissance visuelle pour des missiles de l’armée, par exemple. Mais, effectivement, moins les start-up donnent de détails, moins elles risquent que leurs sous-traitants s’organisent et tentent de leur piquer le marché. Cela entretient ce système de subordination.

À l’inverse, celui qui commande l’IA a-t-il connaissance de toute cette chaîne de sous-traitance ?

Pas forcément. Pour notre projet ANR Hush, nous avions interrogé des grands groupes français qui recrutaient les travailleurs de plateforme. Nous avons remarqué que les responsables marketing pouvaient décider d’acheter 10 000 clics pour une campagne de communication sans en référer aux ressources humaines, alors qu’il y a des humains derrière. Les entreprises commandent ce type de services comme si elles se payaient du matériel de bureau. Cela crée une nouvelle chape d’invisibilité sur ces travailleurs.

Entretien réalisé par Pierric Marissal