ChatGPT y “el trabajo sucio de l’IA” (entrevista en El Mercurio, Chile, 26 febr. 2023)

En el diario chileno El Mercurio, el periodista Juan Rodríguez me hizo algunas preguntas sobre el reciente éxito de ChatGPT…

Mercurio-HD

Entrevista Lo humano y lo artificial

Conversar con el ChatGPT: ¿qué hay detrás de la pantalla?

Ha sido la canción del verano: en estos meses el comentario obligado es el chat que responde preguntas sobre los más variados temas, desde filosofía hasta el de la capacidad lectora de los chilenos. El sociólogo Antonio Casilli, autor del libro “Esperando los robots”, ha estudiado la realidad y retórica detrás de estas nuevas tecnologías y aquí da algunas claves para entenderlas.


“Compara las concepciones de virtud de Kant y Aristóteles”, le pidió al ChatGPT Raimundo Cox, del Instituto de Filosofía de la Universidad de los Andes.

“La concepción de virtud de Aristóteles se basa en la idea de eudaimonía, o felicidad, o prosperidad”, dijo el robot en parte de su respuesta. “Kant, por otro lado, se enfoca en las motivaciones detrás de nuestros actos”.

La respuesta es algo genérica y esquemática, pero acertada.

El lingüista Guillermo Soto, director de la Academia Chilena de la Lengua, le preguntó por el estereotipo “los chilenos no entienden lo que leen”.

“No, no es verdad que los chilenos no entienden lo que leen. Como en cualquier otra población, los chilenos varían en sus niveles de alfabetización y habilidades de comprensión lectora. Sin embargo, es injusto y equivocado hacer una generalización sobre toda una población basado en las acciones de unos pocos individuos”.

El periodista chileno Gazi Jalil le pidió ayuda literaria: “¿Quién me recomiendas para leer estos días: Gabriela Mistral o Lucila Godoy?”.

“Gabriela Mistral y Lucila Godoy son dos importantes poetas de América Latina y es una buena idea leer a ambas”, dijo, ecuánime y confundida, la inteligencia artificial (IA).

ChatGPT es uno más de varios robots que, se supone, hacen cosas que eran privilegio humano. Es un programa o inteligencia artificial diseñado para simular o mantener conversaciones con usuarios humanos, o sea, un chatbot. Fue lanzado el 30 de noviembre de 2022 y en principio es gratuito, pero se supone que se comenzará a cobrar. Ya en diciembre tenía un millón de usuarios.

La sigla secreta

Antonio Casilli es sociólogo y profesor del Instituto Politécnico de París. Se ha dedicado a investigar el impacto e influencia de la cultura digital en la vida cotidiana. Es autor, entre otros libros, de “Esperando a los robots” (Lom), un ensayo que alude a “Esperando a Godot” en el que revela el trabajo humano y precarizado que hay detrás de esa “magia” que parece ser la inteligencia artificial.

Casilli ha usado el ChatGPT, pero no para conversar: “Lo utilizo a diario como asistente de escritura, para redactar correos electrónicos, tomar notas o corregir y acortar textos. Para mi trabajo de autor, no es ni más ni menos revolucionario que la introducción de los primeros programas que permitieron dar formato a los textos, el siglo pasado”.

—¿Qué impresión le ha dejado el chat?

“A pesar de la retórica general, no le veo nada extraordinario en comparación con otros ejemplos de inteligencia artificial de este tipo. Son software que manejan un número enorme de parámetros (en el ChatGPT, hablamos de más de 170.000 millones) y que ‘aprenden’ a hablar y a generar texto a partir de ejemplos tomados de la web. La riqueza de ChatGPT reside en que dispone de un número impresionante de ejemplos, es decir, de datos. Utiliza una solución llamada Common Crawl, que lleva más de diez años tomando imágenes, videos, audio y texto de la web”.

—Vamos a lo básico, ¿cómo se programa un chat así?

“El secreto de cómo se programa reside en el acrónimo que encierra su nombre: esas misteriosas letras G-P-T. Empecemos por el final. La última letra, T, significa ‘Transformador’. Es el tipo de programa que se utiliza para descubrir regularidades en grandes masas de datos. En este caso, descubre correlaciones entre palabras. Predice, por ejemplo, que si se dice ‘no vayas a la derecha, ve a la…’ lo más probable es que la siguiente palabra sea ‘izquierda’. Por eso el chat parece entender el lenguaje humano. En realidad, lo único que hace es calcular probabilidades. En base a estas probabilidades puede generar textos, lo que explica la primera letra, G, que significa ‘Generativo’”.

—¿Y la P?

“Significa ‘Preentrenado’, lo que alude al hecho de que el chat no aprende a calcular todas las probabilidades en el momento en que uno lo utiliza, sino que se ha ‘preentrenado’ a sí mismo a partir de la enorme masa de datos que ya ha estudiado. En algún lugar hay alguien que enseña a este chat a generar textos. Ese alguien no es quien cabría esperar, como los científicos que lo crearon, sino gente que hace ‘el trabajo sucio de la IA’. Estas personas se contratan a través de plataformas especializadas que encuentran trabajadores independientes, dispuestos a trabajar por salarios muy bajos. Por eso suelen ser de países de renta baja, como Kenia o Filipinas”.

—En enero, la revista Time reveló que OpenAI usó trabajadores kenianos, a quienes pagó menos de dos dólares por hora, para hacer que ChatGPT fuera “menos tóxico”.

“Los ingenieros consideran este trabajo indigno de ellos. He mantenido muchas conversaciones con arquitectos de sistemas informáticos. Un ingeniero de IBM que me dijo: ‘Conseguimos ‘pequeños indios’ para que hagan el trabajo de preparar los datos, ellos son los que hacen el barrido después de que nosotros pasemos’. En resumen, el trabajo del clic que se subcontrata a Kenia, India o Venezuela está infravalorado, pero es necesario para crear los datos que constituyen los ejemplos sobre los que ChatGPT se ‘preentrena’. Es el corazón de toda inteligencia artificial, pero es un trabajo repetitivo”.

Casi nada que temer

En un artículo titulado “El sueño de la máquina creativa”, el filósofo español Daniel Innerarity explica por qué no hay que tenerles miedo al ChatGPT ni al arte generado por inteligencia artificial. Dice que la IA “crea” identificando y reproduciendo patrones, mientras que la creatividad humana “implica siempre una cierta transgresión”.

“Estoy de acuerdo”, dice Casilli. “Lo que dice Innerarity es cierto en el campo del arte y la creación humana, y también lo es en el campo de la informática. Los modelos matemáticos que subyacen a ChatGPT buscan descubrir regularidades. La inspiración, en cambio, es hija de la conexión inesperada, del gesto irracional, de la excepción”.

“Por supuesto, se podría argumentar que se trata de una visión idealizada y romántica de la cultura humana”, agrega Casilli. “A veces el propio arte es imitación, repetición de lo idéntico, manierismo. Pero no creo que el problema se plantee en términos de ‘¿cuál es la esencia del espíritu humano? ¿Puede la IA reproducirla?’”.

—¿Por qué no?

“No creo que ninguna de las personas que construyen hoy los grandes sistemas de aprendizaje automático se plantee: ‘Ahora quiero construir un cerebro artificial’. Al contrario, las personas que he conocido se hacen preguntas mucho más terrenales. ‘¿Cómo puedo optimizar estos parámetros?’. ‘¿Cómo puedo obtener esta herramienta sin pagar millones?’”.

“Quienes tienen grandes pretensiones filosóficas de revolucionar el mundo y renovar el espíritu humano con la IA son los dueños de las empresas para las que trabajan estos científicos. Los Elon Musk, los Jeff Bezos… esta generación que cree haber encontrado la clave para interpretar el universo. Pero ellos nunca han puesto sus manos en el juego. No son técnicos, son demagogos. Nadie está trabajando realmente para construir una inteligencia artificial sobrehumana”.

—¿A qué sí habría que temer?

“Mientras todo el mundo está ocupado preguntándose ‘esta IA ¿es consciente?’, no nos hacemos otras preguntas. Por ejemplo, si esta IA es segura o si contiene riesgos potenciales. ¿Qué pasaría si una organización criminal o un régimen autoritario la utilizaran a gran escala? ¿Se han examinado estos riesgos? Parece que no”.

—¿Ha habido problemas?

“Microsoft es uno de los grandes financistas de ChatGPT y utilizó esta tecnología para mejorar su motor de búsqueda Bing. El resultado fue desastroso. Pocos días después de lanzarlo entre un número limitado de usuarios, Bing empezó a acosarlos con peticiones amorosas, amenazó con revelar supuestos delitos, sugirió formas de robar un banco y otras amenidades. ¿Era Microsoft consciente de ello? Aparentemente sí, porque ya había probado la IA de Bing en la India hace cuatro meses e incluso entonces había mostrado un comportamiento aberrante. ¿Qué se hizo para mejorarlo? No mucho, porque la empresa estaba demasiado ocupada impulsando debates sobre si su IA era realmente animada o no”.

Entre la pedagogía y el peligro de plagio

Antonio Casilli sabe que sus colegas en la universidad recurren a este tipo de chat robot o simplemente chatbot: “He conocido a un par que lo usa para escribir informes sobre sus actividades o para empezar a apuntar ideas para las clases, que luego desarrollan, por supuesto”, cuenta. “En cuanto a mis estudiantes, sé que lo utilizan porque me lo han confesado sinceramente”. Para él no es problema, no teme al plagio, y hasta puede ser una oportunidad; ha hecho experimentos pedagógicos que bautizó como “Challenge ChatGPT”. “Por ejemplo, les digo a mis estudiantes que busquen información con la IA; luego, que la consulten en los libros de texto; y después, que cuestionen la información proporcionada inicialmente por el chatbot”.

“En mi profesión, cada diez años hay un nuevo pánico moral, una nueva amenaza que pretende perturbar todo y destruir el pacto pedagógico que supuestamente existe entre profesores y discentes. Primero el uso de Google parecía un desastre; luego el uso de Wikipedia parecía un cataclismo y hoy ChatGPT. Mi estrategia siempre ha sido decirme a mí mismo ‘mis estudiantes y yo vivimos en la misma realidad, y aprendemos juntos utilizando las herramientas que tenemos a nuestra disposición’. Si la herramienta hoy es ChatGPT, usémosla”.

—Con todo lo que ya sabes del ChatGPT, ¿qué le preguntarías hoy?

“Puede que te sorprenda, pero para mí, ChatGPT es solo una herramienta, como un frigorífico o una calculadora. ¿Qué le pedirías a tu refrigerador? Que guarde comida. Pero no le harías ninguna pregunta. Y lo mismo a la calculadora. Esperarías que hiciera cálculos exactos, pero no querrías considerarla un ser humano sensible y consciente con el que pudieras mantener conversaciones. No querrías ‘antropomorfizarla’. Lo mismo puede decirse de ChatGPT. Aunque su interfaz es la de un bot de chat, no son preguntas lo que le haces: son instrucciones que le das a una máquina”.