reconnaissance faciale

[Vidéo] [Séminaire #ecnEHESS] Anna Jobin (ft. Paolo Cirio) : “Quelles valeurs pour l’éthique de l’IA ?” (wébinaire, 28 janv. 2021, 19h)

La troisième séance d’approfondissement de notre séminaire #ecnEHESS Étudier les cultures du numérique (organisée en collaboration avec la Gaîté Lyrique) e eu lieu en version wébinaire le jeudi 28 janvier 2021, de 19h à 21h.

Dans ce séminaire, Anna Jobin (chercheuse HIIG Berlin, projet Shaping AI) dressera une cartographie de l’éthique de l’intelligence artificielle à partir de son projet The global landscape of AI ethics guidelines (2019). Dans son intervention elle passe en revue des douzaines de “chartes éthiques” adoptées dans le courant des dernières années par les producteurs mêmes de ces solutions technologiques.

Dans le rôle de discutant/contrepoint, l’artiste Paolo Cirio, auteur du projet Capture censuré par le Ministère de l’Intérieur français en octobre 2020, revient sur les enjeux éthiques de la généralisation de la reconnaissance faciale. Son intervention se déroule en anglais.


Vers une convergence de l’éthique de l’IA

Anna Jobin (HIIG Berlin)

Zoom
Jeudi 28 janvier 2021
19h-21h



L’intelligence artificielle “éthique” est devenue un nouveau centre d’attention dans les discussions publiques et académiques. Cela s’est notamment manifesté par une avalanche de déclarations de principes et directives éthiques publiées par des organisations les plus diverses ces dernières années. Qui sont ces organisations? Que disent réellement ces documents ? La roue est-elle réinventée à chaque fois ? Et quelle est la compréhension de l’éthique qui motive ces recommandations sur l’IA éthique ? Une analyse minutieuse de ces documents montre que, malgré une convergence apparente sur certains principes éthiques en surface, on ne retrouve aucun principe éthique commun. Qui plus est, ces documents présentent des divergences substantielles. Divergences concernant notamment la manière dont les principes éthiques sont interprétés, pourquoi ils sont jugés importants, à quelle question, à quel domaine ou à quels acteurs ils se rapportent et comment ils devraient être mis en œuvre.

Quel processus, et qui, définit au final ce qui est éthique dans le domaine de l’IA? Les enseignements riches émanant d’un focus sur les principes éthiques invitent de fait à élargir la réflexion sur la gouvernance de l’IA.

L’enfer de la reconnaissance faciale est pavé de débats sur son “acceptabilité sociale”

Dans la rubrique “Fausses bonnes idées”, Libération publie une tribune signée par des député•es LREM, des représentants de think tank, mais aussi des ONG, des chercheur•es et des journalistes. Le texte propose un moratoire “urgent” sur la reconnaissance faciale et un “débat social lors d’une convention citoyenne”. Non pas une interdiction de cette technologie de surveillance de masse, mais une suspension de son usage “sans le consentement préalable et éclairé” des individus concernés, le temps de mettre en place un énième “Grenelle de l’innovation”.

Tout en étant un défenseur des usages et des appropriations citoyennes des technologies numériques, je reste néanmoins convaincu que certaines innovations naissent et demeurent des instruments de domination. Pour celles-là se pose une question foncière, à savoir si la limite de leur introduction doit être franchie. Dans le cas de la reconnaissance faciale, ce n’est pas un moratoire que je défends, mais une interdiction pure et simple.

Cette tribune est hélas semée de chausse-trappes conceptuelles qui finissent par faire le jeu des thuriféraires et des producteurs de ces technologies. Je ne rentre même pas dans la question du “consentement” au flicage facial. Les institutions étatiques, tout comme les acteurs du privé, ont à leur disposition un arsenal de leviers psychologiques, de ruses du design et de chantages au déni de service pour forcer ce consentement. Sans parler de la difficulté de qualifier ce dernier d'”éclairé” dans un contexte d’application d’algorithmes opaques, biaisés et inefficaces pour traiter les données collectées par les caméras qui intègrent du tracking et de la reconnaissance de visage.

Mais ce que je tiens surtout à souligner ici, c’est la nature problématique de la notion d’”acceptabilité”, présentée dans ce texte comme un acquis théorique et un horizon politiquement souhaitable. En sociologie de l’innovation ce concept est désormais devenu synonyme d’approche top-down des technologies, où la société civile ne peut que se prononcer sur le degré d’acquiescement face à des dispositifs élaborés par des acteurs dont les valeurs et les finalités divergent largement du bien commun. Cela revient à dire : “les ingénieurs ont déjà inventé un truc dont personne ne veut ; maintenant faites une étude d’acceptabilité pour repérer des éléments de langage qui nous permettront de mieux le faire gober aux citoyens”.

Une autre position problématique défendue dans cette tribune est la solution-miracle du “débat” citoyen. Je suis pour ma part âprement critique à l’égard de ce type d’outil, que je considère comme un simulacre de discussion démocratique sujette à tout type de manipulations et restrictions de la parole. Si la démocratie est à envisager comme le gouvernement par la discussion, les “débats” dont LREM raffole consistent dans la meilleure des hypothèses à orchestrer un bon chœur d’opinions jusqu’à ce que le sujet ne soit plus à la mode. Dans la pire (v. “le Grand débat national”), ils se transforment en plateformes de propagande de l’exécutif, sans qu’à la fin aucun des points de vue exprimés lors de la consultation ne soit concrètement pris en compte.

Quant à moi, je partage avec les autres membres de la Quadrature du Net la conviction qu’il est possible d’interdire par la délibération locale et par la loi cette pratique de surveillance de masse, dont les dégâts sociaux sont déjà sous nos yeux, en Europe comme dans d’autres continents.

Sur BFMTv (17 déc. 2018)

Nice et Marseille testeront des dispositifs de reconnaissance faciale à l’entrée de deux lycées

Elsa TRUJILLO (Journaliste) 17/12/2018 à 14h34

Des portiques dotés d’une technologie de reconnaissance faciale seront déployés dès janvier 2019 dans le lycée des Eucalyptus, à Nice, et dans le lycée Ampère, à Marseille, pour contrôler l’entrée des élèves.

Des portiques virtuels pour remplacer les pions. Deux lycées de la région Provence-Alpes-Côte d’Azur- celui des Eucalyptus, à Nice, et le lycée Ampère, à Marseille – expérimenteront dès janvier 2019 des dispositifs de reconnaissance faciale pour contrôler l’identité des lycéens à leur entrée.

Les portiques virtuels seront développés par la société américaine Cisco, rapporte Nice-Matin. Si un intrus essaie de pénétrer sans autorisation, et que son profil ne correspond pas à la base de données détenue par l’établissement, une alerte sera envoyée au personnel en charge de la surveillance.

Le quotidien niçois fait état d’un “feu vert” de la CNIL pour le lancement d’un tel projet. En réalité, l’autorité française de protection des données a accompagné la région Provence-Alpes-Côte d’Azur pour définir les modalités d’élaboration de cette initiative. “Ce projet de portiques virtuels a pour but d’évaluer l’efficacité d’un contrôle d’accès par comparaison faciale à l’entrée des deux lycées concernés”, complète la CNIL auprès de BFM Tech.

“L’expérimentation est basée sur le consentement des personnes concernées. Les personnes qui n’auront pas accepté le traitement de leurs données biométriques ne seront pas concernées.” Une séparation physique sera mise en place pour séparer les lycéens ayant accepté des autres, qui feront l’objet d’un contrôle classique.

Deux classes à Nice

Pour cette phase d’expérimentation, seules deux classes, soit environ une soixantaine d’élèves, seront concernées à Nice, relève le quotidien local. Les portiques sont censés “apporter une assistance aux agents assurant l’accueil du lycée afin de faciliter et réduire la durée des contrôles, lutter contre l’usurpation d’identité et détecter le déplacement non souhaité d’un visiteur non identifié”, fait savoir la Région.

Les réserves sont néanmoins nombreuses. Le Syndicat national des enseignements de second degré (SNES) s’enquiert du coût du projet, de l’utilisation des fichiers, qui comprendront notamment les horaires d’entrée et de sortie des élèves, et du remplacement du personnel par des machines. 

“L’un des problèmes majeurs de ce projet a trait au régime commercial qui sera appliqué à ces données”, complète Antonio Casilli, professeur de sociologie à Télécom ParisTech et à l’EHESS. “Leur circulation dans les infrastructures d’une entreprise américaine constitue une forme de valorisation abusive. Par ailleurs, la reconnaissance faciale est en soi répressive, invasive et discriminante et a tendance à comprendre des biais et à surcibler des minorités. En l’occurrence, elle habituera les lycéens au fait d’être constamment enregistrés, comparés et jugés.”

Les deux lycées niçois et marseillais ne sont pas les premiers établissements à tester la reconnaissance faciale dans la région. Des bornes intégrant cette technologie ont été mises en place au terminal 2 de l’aéroport de Nice, pour fluidifier le contrôle aux frontières. Le deuxième aéroport français, qui fait face à une forte hausse de fréquentation, entend ainsi limiter l’attente de ses voyageurs.