france

Comment enseigner à l’heure de ChatGPT (Le Parisien, 22 févr. 2023)

Dans le quotidien Le Parisien, la journaliste Claire Barthelemy relate d’une expérience que j’ai conduit dans le cadre de mon cours ‘Internet & Society’ à Télécom Paris | Institut Polytechnique de Paris. Mes étudiant•es ont été invité•es à participer à un ChatGPT challenge…

Pour la petite histoire, j’ai résumé mon approche à ChatGPT dans le contexte de l’enseignement universitaire dans ce fil Twitter, où je fournis par ailleurs quelques exemples d’expériences pédagogiques basées sur l’IA.

D’autres expériences assez intéressantes sont présentées, en anglais, dans ce billet du blog d’Ethan Mollick, professeur de gestion à l’Université de Pennsylvanie.


ChatGPT : « Il ne faut pas faire semblant d’être dans un monde qui ne travaille qu’avec son cerveau »

Par Claire Berthelemy Le 22 février 2023 à 16h47


On ne présente plus ChatGPT, l’intelligence artificielle qui fait peur à de nombreux enseignants. Pas tous visiblement, puisqu’un prof de l’Institut Polytechnique de Paris a décidé d’intégrer le système avec un objectif : l’apprentissage de ses élèves. Antonio Casilli enseigne la sociologie à des étudiants d’école d’ingénieurs « de niveau master 1», précise-t-il sur son post Facebook.

Son idée ? Demander à ses étudiants d’utiliser ChatGPT pour leur apprendre à vérifier l’information fournie par l’outil « et réviser les bases de sociologie grâce à une phase de travail bibliographique et l’envoi de toute la conversation pour évaluation ».

Un exercice 100% basé sur ChatGPT

Ainsi en TD, les élèves ont eu à se lancer dans un ChatGPT Challenge, « comme j’ai déjà fait faire des Wikipedia challenge, où les élèves devaient alimenter des pages Wikipedia », précise Antonio Casilli pour qui ChatGPT n’est pas un outil de triche mais peut être un outil d’apprentissage.

30 minutes pour poser des questions à ChatGPT « pour générer une conversation qui répète ce qui a été dit en classe la semaine d’avant » et qui leur impose d’avoir compris et « de poser les bonnes questions pour avoir les bonnes réponses » ; 20 minutes ensuite pour travailler sur la bibliographie du texte puis à vérifier la véracité des réponses de ChatGPT.

Des élèves soulagés

Côté étudiants, après les nombreuses interdictions de s’en servir dans l’enseignement supérieur, l’utilisation de ChatGPT peut être difficile à assumer. Pas chez les étudiants d’Antonio Casilli : « Il y a eu un certain soulagement, de ne pas avoir à mentir en disant qu’ils n’avaient jamais utilisé l’outil. Mais ils ont été aussi soulagés quand je l’ai évoqué parce que leurs enseignants sont parfois méfiants dans d’autres contextes. Je sais que certains, qui font du code notamment, ont du mal à s’en saisir, car quand ils lui demandent du code, ChatGPT leur produit d’énormes erreurs. »

Ils savent aussi que d’autres exercices vont pouvoir leur être proposés. « Utiliser différents prompts pour obtenir la même réponse, ou des réponses qui se ressemblent énormément, pour voir ce qu’est un consensus et ce qu’est une connaissance consensuelle ; ou leur donner n’importe quel texte scientifique post 2021 et voir comment à partir de différents prompts ChatGPT est capable de le reproduire », énumère l’enseignant.

« Si avant on utilisait la calculette, les processeurs, on peut utiliser ChatGPT »

Il nous précise : « ChatGPT n’est en soi pas révolutionnaire, l’IA propose juste de générer des textes sans expliquer pourquoi. C’est excellent pour improviser, pour faire de la mise en forme de texte ou de la traduction, mais pas pour une recherche factuelle d’infos. D’autre part, ce sont des fonctionnalités que d’autres logiciels permettaient de faire avant. »

L’enseignant de socio, « assez vieux pour [se] servir de Google ou de Wikipedia », a intégré l’outil dans sa pratique avec ses élèves pour une raison simple : « Il ne faut pas faire semblant d’être dans un monde qui ne travaille qu’avec son cerveau uniquement. Je travaille avec les outils dont les élèves et moi disposons. Si avant on utilisait la calculette, les processeurs, on peut utiliser ChatGPT pour enseigner. »

The real dangers of facial recognition: mass obedience and online labor exploitation

Facial recognition is a scam, but that doesn’t mean we should underestimate the threat it poses to freedom and fundamental human rights.

Case in point: Russian media MBKh discovered that Moscow police officers illegally “monetize” footage of 175,000 surveillance cameras on forums and messenger groups. For the equivalent of 470$, anyone can have access to facial recognition lookup services that, when provided with the picture of an individual, match it with passerby from hundreds of cameras, along with a list of addresses and times they were caught on camera. 

Interestingly enough, face recognition tech *does not work*, and the journalist has to grudgingly admit its low accuracy:

“As for the accuracy of the results, none of the photos returned were of the investigator. However, the facial features were similar to the input and the system assessed a similarity of 67%.”

According to the journalist, the explanation for this suboptimal performance is “the limited number of cameras connected to the face recognition algorithm”. Apparently, the sample is too small, but the technology is not fundamentally called into question…

Another explanation (often ignored by journalists, ever ready to believe the AI hype and therefore disregard its actual dangers) is introduced by a 2018 New York Times coverage of China’s surveillance-industrial complex: mass surveillance systems are not automated per se and are largely based on the intervention of crowds of micro-workers who cherry-pick millions of videos, cut out silhouettes of individual and tag metadata, fill in databases and annotate information:

“The system remains more of a digital patchwork than an all-seeing technological network. Many files still aren’t digitized, and others are on mismatched spreadsheets that can’t be easily reconciled. Systems that police hope will someday be powered by A.I. [emphasis added] are currently run by teams of people sorting through photos and data the old-fashioned way.”

“The old-fashioned way” here means “by hand”… Data annotation, triage, enrichment, especially for the computer vision models underlying face recognition algorithms, is a blossoming market. Recent research by Bonnie Nardi, Hamid Ekbia, Mary Gray, Sid Suri, Janine Berg, Six Silberman, Florian Schmidt, Trevor Paglen, Kate Crawford, Paola Tubaro and myself witnesses its development in sectors as diverse as home automation, transportation, advertising, health, entertainment… and the military. It is based on a workforce of hundreds of million of online laborers, alternatively called microworkers or crowdworkers. They work long hours, with precarious contracts and exploitative working conditions, and are paid very low wages (in some cases less than a cent per micro-task). Although they are attested in the global North, they are predominantly based in developing and emerging economies—such as Russia and China. But the companies that recruit them to package their annotated data and resell it as surveillance technologies, are mainly located in so-called liberal democracies. Despite the Chinese market supremacy, US, French, Japanese, Israeli and Finnish corporations are spreading these technologies all over the world, according to the 2019 AI Global Surveillance Index.

Despite the importance of these “humans in the loop” that constitute the secret ingredients of AI-based technological innovation, the threats of facial recognition, smart cities and predictive policing must not be minimized. The glorification of AI turns it into a powerful psychological deterrent and a disciplinary device. “The whole point,” explains an expert interviewed by the New York Times, “is that people don’t know if they’re being monitored, and that uncertainty makes them more obedient.”

Any action aimed to fight against the alleged omnipotence of these technologies begins with the recognition of their fictitious nature. If automated surveillance is made up of men and women who train, control and impersonate “artificial artificial intelligence“, it is from the awareness of their role in a dystopian and inhuman system that a change is going to come.