openAI

Artificial intelligence doesn’t destroy jobs, it precarizes them (op-ed Domani, March 24, 2023)

Today, the Italian newspaper Domani published an op-ed that I penned in the wake of the publication of the study “GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models“. You can find the Italian version of my article on the website of Domani, and read the English version here.

Artificial intelligence will increasingly make the world of work precarious

Antonio A. Casilli

  • Systems like ChatGpt won’t completely disrupt work as we know it, but it will create a new class of “click slaves,” paid (very poorly) to train algorithms.
  • This is a more real risk than science fiction scenarios, where robots would completely take over human labor. OpenAi itself already uses these micro-workers.
  • A few months after ChatGpt was launched, a TIME magazine exposé disclosed that Kenyan workers were being paid less than $2 per hour to train artificial intelligence.

A study analyzing the impact of artificial intelligence on the labor market was published this week. Its authors examined so-called “pre-trained models” of the Gpt family. These pieces of software learn from a large amount of data to perform tasks that they then adapt to new contexts. Three of the four authors of this study are employees of OpenAi, the company that in recent months has launched Dall-E 2, an image-generating system, and of course ChatGpt, the virtual assistant that has become a cultural phenomenon.

According to the study, about 80% of the workforce could be exposed to this innovation, and for some of them 50% of tasks could change dramatically. Even highly educated people would be affected by this development.

The conditional is a must, because the study has more limitations than results. It relies on opaque data, adopts an abstruse methodology and, as a cherry on top, uses a Gpt to analyze the effects of other Gpts.

The new Frey & Osborne

The study matters more for its ambition than for its results. Doubtlessly, the article aspires to be the “Frey & Osborne report of the 2020s,” after the two Oxford researchers who published in 2013 an analysis predicting that 47% of jobs would be destroyed by 2030. It is a highly cited and heavily criticized work given that, despite a pandemic, a geopolitical crisis and a climate emergency, their forecasts are far from coming true.

Both the 2013 article and the one just published by OpenAi researchers reduce human work to a series of “tasks.” Like all reductionist analyses, they should be greeted with healthy distrust. To say that a nurse’s job is reduced to 10 tasks (caring for patients, filling out forms, etc.) and to say that some of them might be exposed to ChatGpt use does not mean that the nurse will be fired. Her job will change.

A marketing operation

Maybe with the excuse that new technology saves time, employers will find new ways to add tasks to employees while keeping real wages at a minimum. Despite utopian visions and fears regarding automation, historically this is what has happened, much to the chagrin of OpenAi researchers.

Their article is largely a marketing tool designed to help their company get noticed by the media. Every time OpenAi launches a product, a debate rages in the news and on social media about the threats artificial intelligence poses to journalists, illustrators, teachers. It just so happens that the jobs that are threatened to disappear are precisely those that the American company sells as services: text and image generation, training, etc. It is not the robots that are destroying jobs. It is OpenAi that is destroying competition.

Out of control

But sadly, this is not good news. The effects of these technologies on jobs are indeed there, but they are different. To really detect them we have to read the System Card of Gpt-4, OpenAi’s latest software. A hundred or so pages describe the tests by which the AI was trained. The testers often pushed Gpt-4 to perform dangerous or illegal actions in order to teach the artificial intelligence to avoid them.

But during the tests, Gpt-4 escaped its controllers, and attempted a cyberattack on a website. The latter, however, was protected by ReCaptcha, those pop-ups that require proving you are not a robot by solving a puzzle. Unfortunately, Gpt-4 is a robot. To solve the puzzle, it then turned to an on-demand platform to recruit a pieceworker to solve the ReCaptcha on its behalf.

Micro-work

But ReCaptchas do more than just protect against cyberattacks. They are also used to train artificial intelligence. When they prompt us to transcribe words, they use them to digitize Google Books. When we are invited to spot a traffic light, they calibrate Waymo’s autonomous driving systems. This raises a mind-boggling question: can Gpt-4 be used to recruit workers who in turn train other AIs?

In fact, more or less automated systems for recruiting freelance workers to train algorithms have existed for decades. Amazon Mechanical Turk is a site where, for a few cents, companies recruit for less than a quarter of an hour hundreds of thousands of people to generate data, transcribe text, and filter images. Other platforms, such as Australia’s Appen, employ more than ten million people. Can we really talk about jobs? These are micro jobs with poverty wages, which are largely performed by workers from developing countries.

Replacement

Paradoxically, OpenAi itself uses these “click slaves.” A few months after ChatGpt was launched, a TIME magazine exposé revealed that Kenyan workers were being paid less than $2 per hour to train the chatbot. In other documents uncovered shortly thereafter, the U.S. company claimed it contracted workers in the Philippines, Latin America and the Middle East to train its algorithms.

Thus, the true impact on the work of Gpt software has been revealed. Artificial intelligence automates the process of selecting, hiring, and firing precarious workers. This is not the usual science fiction scenario where robots replace humans. It is one where permanent employees being replaced with underpaid pieceworkers hired and fired on digital platforms. This trend is already underway, and companies like OpenAi are escalating it.

Pas de panique : GPT-4 ne va pas voler votre emploi (il va simplement recruter une foule de micro-tâcherons sous-payés)

Tl;dr L’IA a bien un impact sur le marché du travail, mais ce n’est pas la catastrophe robotique que redoutent les prophètes de l’apocalypse. Ne perdez pas votre temps à combattre un faux ennemi.

OpenAI a récemment publié la GPT-4 System Card, un document de 50 pages détaillant les tests effectués par des “red-teamers” (c’est-à-dire des testeurs hostiles) qui ont tenté de contraindre l’IA à effectuer des actions dangereuses, controversées ou illégales. Ce type de test est essentiel afin de mettre en place des garde-fous pour empêcher GPT-4 de se livrer à de telles activités. Entre autres, GPT-4 a réussi à engager un travailleur de Taskrabbit pour résoudre un ReCaptcha, une simple tâche cognitive utilisée pour entraîner des IA. Cela soulève la question suivante : peut-on l’utiliser pour recruter automatiquement des annotateurs de données à la demande ?

Un extrait du GPT-4 System Card : dans un test dans, l’IA a recruté un travailleur sur une plateforme en le convainquant qu’elle n’est pas un robot pour lui faire réaliser une tâche qu’un robot ne pourrait pas réaliser…

En fait, des systèmes permettant de recruter des sous-traitants sous-rémunérés en ligne existent depuis près de 15 ans. Des solutions logicielles telles que TurkIt (2009) automatisent la publication de tâches sur Amazon Mechanical Turk, tandis qu’Automan (2016) intègre le calcul numérique et le calcul à base d’humains.

Néanmoins, GPT-4 soulève des inquiétudes quant à son impact sur le marché du travail, car il pourrait accélérer la tendance au remplacement des employés permanents par des micro-tâcherons précaires, embauchés et licenciés par un simple “prompt”. C’est le triomphe de ce que l’on appelle Humans as a service, pour reprendre le titre d’un beau livre de Jeremias Adams-Prassl (publié en Français sous le titre L’ubérisation du travail).

Cela ne signifie pas que “les robots vont piquer votre boulot”. GPT-4 est simplement un robot qui automatise l’embauche de travailleurs précaires qui effectuent les mêmes tâches que des humains mieux rémunérés. Il s’agit d’une vraie problématique sur les effets domino de l’IA, et non d’un scénario de science-fiction sur un prétendu soulèvement des robots.

Attention : la System Card est un pas dans la bonne direction pour garantir que la technologie ne soit pas utilisée pour porter atteinte aux droits des travailleurs. Toutefois, il faut faire plus. Par exemple, créer une commission d’enquête internationale pour exiger d’OpenAI qu’elle divulgue le code de ses IA, ses paramètres et surtout d’où proviennent les données qu’elle utilse pour les entraîner

ChatGPT y “el trabajo sucio de l’IA” (entrevista en El Mercurio, Chile, 26 febr. 2023)

En el diario chileno El Mercurio, el periodista Juan Rodríguez me hizo algunas preguntas sobre el reciente éxito de ChatGPT…

Mercurio-HD

Entrevista Lo humano y lo artificial

Conversar con el ChatGPT: ¿qué hay detrás de la pantalla?

Ha sido la canción del verano: en estos meses el comentario obligado es el chat que responde preguntas sobre los más variados temas, desde filosofía hasta el de la capacidad lectora de los chilenos. El sociólogo Antonio Casilli, autor del libro “Esperando los robots”, ha estudiado la realidad y retórica detrás de estas nuevas tecnologías y aquí da algunas claves para entenderlas.


“Compara las concepciones de virtud de Kant y Aristóteles”, le pidió al ChatGPT Raimundo Cox, del Instituto de Filosofía de la Universidad de los Andes.

“La concepción de virtud de Aristóteles se basa en la idea de eudaimonía, o felicidad, o prosperidad”, dijo el robot en parte de su respuesta. “Kant, por otro lado, se enfoca en las motivaciones detrás de nuestros actos”.

La respuesta es algo genérica y esquemática, pero acertada.

El lingüista Guillermo Soto, director de la Academia Chilena de la Lengua, le preguntó por el estereotipo “los chilenos no entienden lo que leen”.

“No, no es verdad que los chilenos no entienden lo que leen. Como en cualquier otra población, los chilenos varían en sus niveles de alfabetización y habilidades de comprensión lectora. Sin embargo, es injusto y equivocado hacer una generalización sobre toda una población basado en las acciones de unos pocos individuos”.

El periodista chileno Gazi Jalil le pidió ayuda literaria: “¿Quién me recomiendas para leer estos días: Gabriela Mistral o Lucila Godoy?”.

“Gabriela Mistral y Lucila Godoy son dos importantes poetas de América Latina y es una buena idea leer a ambas”, dijo, ecuánime y confundida, la inteligencia artificial (IA).

ChatGPT es uno más de varios robots que, se supone, hacen cosas que eran privilegio humano. Es un programa o inteligencia artificial diseñado para simular o mantener conversaciones con usuarios humanos, o sea, un chatbot. Fue lanzado el 30 de noviembre de 2022 y en principio es gratuito, pero se supone que se comenzará a cobrar. Ya en diciembre tenía un millón de usuarios.

La sigla secreta

Antonio Casilli es sociólogo y profesor del Instituto Politécnico de París. Se ha dedicado a investigar el impacto e influencia de la cultura digital en la vida cotidiana. Es autor, entre otros libros, de “Esperando a los robots” (Lom), un ensayo que alude a “Esperando a Godot” en el que revela el trabajo humano y precarizado que hay detrás de esa “magia” que parece ser la inteligencia artificial.

Casilli ha usado el ChatGPT, pero no para conversar: “Lo utilizo a diario como asistente de escritura, para redactar correos electrónicos, tomar notas o corregir y acortar textos. Para mi trabajo de autor, no es ni más ni menos revolucionario que la introducción de los primeros programas que permitieron dar formato a los textos, el siglo pasado”.

—¿Qué impresión le ha dejado el chat?

“A pesar de la retórica general, no le veo nada extraordinario en comparación con otros ejemplos de inteligencia artificial de este tipo. Son software que manejan un número enorme de parámetros (en el ChatGPT, hablamos de más de 170.000 millones) y que ‘aprenden’ a hablar y a generar texto a partir de ejemplos tomados de la web. La riqueza de ChatGPT reside en que dispone de un número impresionante de ejemplos, es decir, de datos. Utiliza una solución llamada Common Crawl, que lleva más de diez años tomando imágenes, videos, audio y texto de la web”.

—Vamos a lo básico, ¿cómo se programa un chat así?

“El secreto de cómo se programa reside en el acrónimo que encierra su nombre: esas misteriosas letras G-P-T. Empecemos por el final. La última letra, T, significa ‘Transformador’. Es el tipo de programa que se utiliza para descubrir regularidades en grandes masas de datos. En este caso, descubre correlaciones entre palabras. Predice, por ejemplo, que si se dice ‘no vayas a la derecha, ve a la…’ lo más probable es que la siguiente palabra sea ‘izquierda’. Por eso el chat parece entender el lenguaje humano. En realidad, lo único que hace es calcular probabilidades. En base a estas probabilidades puede generar textos, lo que explica la primera letra, G, que significa ‘Generativo’”.

—¿Y la P?

“Significa ‘Preentrenado’, lo que alude al hecho de que el chat no aprende a calcular todas las probabilidades en el momento en que uno lo utiliza, sino que se ha ‘preentrenado’ a sí mismo a partir de la enorme masa de datos que ya ha estudiado. En algún lugar hay alguien que enseña a este chat a generar textos. Ese alguien no es quien cabría esperar, como los científicos que lo crearon, sino gente que hace ‘el trabajo sucio de la IA’. Estas personas se contratan a través de plataformas especializadas que encuentran trabajadores independientes, dispuestos a trabajar por salarios muy bajos. Por eso suelen ser de países de renta baja, como Kenia o Filipinas”.

—En enero, la revista Time reveló que OpenAI usó trabajadores kenianos, a quienes pagó menos de dos dólares por hora, para hacer que ChatGPT fuera “menos tóxico”.

“Los ingenieros consideran este trabajo indigno de ellos. He mantenido muchas conversaciones con arquitectos de sistemas informáticos. Un ingeniero de IBM que me dijo: ‘Conseguimos ‘pequeños indios’ para que hagan el trabajo de preparar los datos, ellos son los que hacen el barrido después de que nosotros pasemos’. En resumen, el trabajo del clic que se subcontrata a Kenia, India o Venezuela está infravalorado, pero es necesario para crear los datos que constituyen los ejemplos sobre los que ChatGPT se ‘preentrena’. Es el corazón de toda inteligencia artificial, pero es un trabajo repetitivo”.

Casi nada que temer

En un artículo titulado “El sueño de la máquina creativa”, el filósofo español Daniel Innerarity explica por qué no hay que tenerles miedo al ChatGPT ni al arte generado por inteligencia artificial. Dice que la IA “crea” identificando y reproduciendo patrones, mientras que la creatividad humana “implica siempre una cierta transgresión”.

“Estoy de acuerdo”, dice Casilli. “Lo que dice Innerarity es cierto en el campo del arte y la creación humana, y también lo es en el campo de la informática. Los modelos matemáticos que subyacen a ChatGPT buscan descubrir regularidades. La inspiración, en cambio, es hija de la conexión inesperada, del gesto irracional, de la excepción”.

“Por supuesto, se podría argumentar que se trata de una visión idealizada y romántica de la cultura humana”, agrega Casilli. “A veces el propio arte es imitación, repetición de lo idéntico, manierismo. Pero no creo que el problema se plantee en términos de ‘¿cuál es la esencia del espíritu humano? ¿Puede la IA reproducirla?’”.

—¿Por qué no?

“No creo que ninguna de las personas que construyen hoy los grandes sistemas de aprendizaje automático se plantee: ‘Ahora quiero construir un cerebro artificial’. Al contrario, las personas que he conocido se hacen preguntas mucho más terrenales. ‘¿Cómo puedo optimizar estos parámetros?’. ‘¿Cómo puedo obtener esta herramienta sin pagar millones?’”.

“Quienes tienen grandes pretensiones filosóficas de revolucionar el mundo y renovar el espíritu humano con la IA son los dueños de las empresas para las que trabajan estos científicos. Los Elon Musk, los Jeff Bezos… esta generación que cree haber encontrado la clave para interpretar el universo. Pero ellos nunca han puesto sus manos en el juego. No son técnicos, son demagogos. Nadie está trabajando realmente para construir una inteligencia artificial sobrehumana”.

—¿A qué sí habría que temer?

“Mientras todo el mundo está ocupado preguntándose ‘esta IA ¿es consciente?’, no nos hacemos otras preguntas. Por ejemplo, si esta IA es segura o si contiene riesgos potenciales. ¿Qué pasaría si una organización criminal o un régimen autoritario la utilizaran a gran escala? ¿Se han examinado estos riesgos? Parece que no”.

—¿Ha habido problemas?

“Microsoft es uno de los grandes financistas de ChatGPT y utilizó esta tecnología para mejorar su motor de búsqueda Bing. El resultado fue desastroso. Pocos días después de lanzarlo entre un número limitado de usuarios, Bing empezó a acosarlos con peticiones amorosas, amenazó con revelar supuestos delitos, sugirió formas de robar un banco y otras amenidades. ¿Era Microsoft consciente de ello? Aparentemente sí, porque ya había probado la IA de Bing en la India hace cuatro meses e incluso entonces había mostrado un comportamiento aberrante. ¿Qué se hizo para mejorarlo? No mucho, porque la empresa estaba demasiado ocupada impulsando debates sobre si su IA era realmente animada o no”.

Entre la pedagogía y el peligro de plagio

Antonio Casilli sabe que sus colegas en la universidad recurren a este tipo de chat robot o simplemente chatbot: “He conocido a un par que lo usa para escribir informes sobre sus actividades o para empezar a apuntar ideas para las clases, que luego desarrollan, por supuesto”, cuenta. “En cuanto a mis estudiantes, sé que lo utilizan porque me lo han confesado sinceramente”. Para él no es problema, no teme al plagio, y hasta puede ser una oportunidad; ha hecho experimentos pedagógicos que bautizó como “Challenge ChatGPT”. “Por ejemplo, les digo a mis estudiantes que busquen información con la IA; luego, que la consulten en los libros de texto; y después, que cuestionen la información proporcionada inicialmente por el chatbot”.

“En mi profesión, cada diez años hay un nuevo pánico moral, una nueva amenaza que pretende perturbar todo y destruir el pacto pedagógico que supuestamente existe entre profesores y discentes. Primero el uso de Google parecía un desastre; luego el uso de Wikipedia parecía un cataclismo y hoy ChatGPT. Mi estrategia siempre ha sido decirme a mí mismo ‘mis estudiantes y yo vivimos en la misma realidad, y aprendemos juntos utilizando las herramientas que tenemos a nuestra disposición’. Si la herramienta hoy es ChatGPT, usémosla”.

—Con todo lo que ya sabes del ChatGPT, ¿qué le preguntarías hoy?

“Puede que te sorprenda, pero para mí, ChatGPT es solo una herramienta, como un frigorífico o una calculadora. ¿Qué le pedirías a tu refrigerador? Que guarde comida. Pero no le harías ninguna pregunta. Y lo mismo a la calculadora. Esperarías que hiciera cálculos exactos, pero no querrías considerarla un ser humano sensible y consciente con el que pudieras mantener conversaciones. No querrías ‘antropomorfizarla’. Lo mismo puede decirse de ChatGPT. Aunque su interfaz es la de un bot de chat, no son preguntas lo que le haces: son instrucciones que le das a una máquina”.