Monthly Archives: September 2017

Une intelligence artificielle révèle les préjugés anti-LGBT (et anti-plein d’autres gens) des chercheurs de Stanford

 

Et bien, lisez le papier original sur PsyArXiv.

L’ETUDE
Dès les premières lignes de l’étude (avec un lignage revendiqué de la physiognomonie et de Cesare Lombroso) jusqu’aux derniers paragraphes (“la fin de la vie privée est inévitable est c’est la faute aux usagers qui s’affichent tout le temps sur les réseaux”), en passant par l’explication du fonctionnement de l’IA par un lien ténu avec l’hypothèse—qualifiée ici de théorie—des “prenatal hormones”, on a vite épuisé son stock de médicaments antireflux.
 
Sans parler des biais méthodologiques : les auteurs testent un réseau de neurones contre des humains. Leur mission ? Regarder des photos de visages et dire si la personne représentée est gay ou hétéro. Mais les photos sont tirées d’un site de rencontre en ligne et la base de profils de personnes gays sur laquelle le réseau de neurones s’entraîne est collectée à partir d’usagers de Facebook qui ont liké des pages “gay”. Parce qu’évidemment la manière de se présenter sur les plateformes sociales est une réalité objective…  Et la complexité des motivations qui poussent une personne à aimer un contenu se réduisent à une adhésion univoque à la prétendue orientation dudit contenu…
 
Autre biais méthodologique : d’où viennent les évaluateurs humains vis-à-vis desquels cette IA s’avère plus performante ? Ils sont des micro-travailleurs d’Amazon Mechanical Turk payés quelques centimes de dollar par clic 1. Mais pas des micro-travailleurs au hasard. Que des citoyens étasuniens. Les américains, c’est connu, sont exactement comme tous les autres citoyens de n’importe quelle autre nation de notre grande et belle planète, quand il s’agit d’interpréter des indices sociaux et des repères de comportements. Et les particularités culturelles à l’œuvre dans la stigmatisation sexuelle ou dans l’étiquetage social de l’orientation sexuelle, on s’en fout.
 
 
De toute façon, il y a plus grave que ça. L’article est basé sur une vision absolument binaire, essentialiste et exclusive des orientations sexuelles humaines : t’es gay/lesbienne ou tu ne l’es pas. Le type de vision on ne peut plus hétéronormative, qui n’admet pas de situations intermédiaires  ou de négociations légèrement plus sophistiquées de l’identité sexuelle, des comportements et des formes d’appartenance aux communautés LGBTQ.
Qui plus est, de manière assumée les résultats de l’étude ne concernent que des images de personnes blanches. Mais c’est pas grave, hein. Ce n’est pas comme si les systèmes de reconnaissance faciale étaient au centre d’une polémique internationale à cause de leurs biais racistes et de leur difficulté avérée à tenir les mêmes niveaux de performance quand le visage analysé n’est pas 100% “caucasien”…
 
L’AUTEUR MICHAL KOSINSKI
 
Derrière tout ça, une question cruciale se pose : pourquoi construire une IA pour détecter l’orientation sexuelle d’inconnus ? “Parce que”, comme le suggère l’experte en open data Ellen Broad, “cela vous dérange que les personnes gay puissent vous ressembler” ?

Mais non, ce n’est pas ça, se justifient les auteurs. Leur argument de base est “qu’ils ont construit une intelligence artificielle qui détecte les personnes homosexuelles parce que certains gouvernements persécutent les homosexuels et alors ils ont voulu alerter l’opinion publique qui ignore que c’est facile de persécuter les homosexuels, et pour ce faire ils ont concocté un outil pour les persécuter, mais ils l’ont fait justement pour qu’ils ne soient pas persécutés”.
 
C’est clair, non ?
 
Les doutes s’installent quand on réalise que l’un des deux auteurs, Michal Kosinski, ça fait un moment qu’il pratique ce petit numéro de l’apprenti sorcier qui fait un truc “juste pour voir”, et après ce n’est pas sa faute si ça part en sucette. Considérez par exemple le rôle qu’il a joué dans l’élection de Trump et dans le Brexit (quand son outil de profilage des usagers de Facebook a été repris par Cambridge Analytica—et le reste est de l’histoire).
 
LA NOTE (INCRIMINANTE) DES AUTEURS
 
De toute manière, ni l’article ni la réputation de l’un des auteurs ne suffisent pour conclure que l’étude est motivée par des convictions anti-LGBTQ ou par des formes plus ou moins latentes d’intolérance ethnique, sexuelle, etc.
 
Pour arriver à cette conclusion, il faut lire un autre document que les auteurs ont publié au vu du tollé que leur article a provoqué. Dans cette note, ils répondent à leurs critiques, et par la même occasion nous donnent un éclairage sur les a priori racistes et sexistes sous-jacents à leur démarche.

On commence par ce joli stéréotype masculiniste de base : “plus une femme est extravertie, plus elle est attrayante”.

> […] Character can influence one’s facial appearance.
> For example, women that scored high on extroversion
> early in life tend to become more attractive with age.
> Second, facial appearance can alter one’s character.

On poursuit avec une apologie de la physiognomonie, parce que, vous savez, la science ne progresse que quand cela convient aux visions obscurantistes des scientifiques.

> However, the fact that physiognomists were wrong
> about many things does not automatically invalidate
> all of their claims. The same studies that prove that
> people cannot accurately do what physiognomists
> claimed was possible consistently show that they were,
> nevertheless, better than chance.
>
> Thus, physiognomists’ main claim—that the character
> is to some extent displayed on one’s face—seems to be
> correct (while being rather upsetting).

A ne pas rater, l’argument classique de l’homophobe : “mais moi j’ai des amis gay!” — lesquels, évidemment, sont toujours bien coiffés et avec des talents de photographes.

> We could be easily convinced that gay men (our gay
> male friends for sure!) have better hairstyles and facial
> hairstyles, and take better pictures.

Mais les auteurs sont vénères pour le shitstorm au centre duquel ils se trouvent. C’est pourquoi il dédient à leurs critiques ce joli mix d’argumentum ad verecundiam et d’interdiction de prise de parole s’ils/elles n’ont pas une formation en machine learning et en psychologie…

> If you are an expert in human sexuality and AI and,
> after carefully reading the paper, have decided that
> this research is rubbish, then please tell us – we would
> be delighted to know. In such case, however, it’s results
> are invalid and do not put anyone at risk.

…avec bonus de paternalisme passif-agressif (“après, si tu veux te ridiculiser en nous critiquant, vas-y, on ne va pas t’en empêcher”).

> If you are not an expert in human sexuality and AI,
> and thus cannot judge the quality of the research
> without making a fool of yourself, but believe that
> this research puts gay people at risk then please

Êtes-vous prêt pour le grand finale ? Pourquoi s’emmerder à réfuter les accusations de biais ethnique, quand on peut tout simplement rejeter tout ça sur les participants non-blancs : “l’étude est limitée à des participants blancs parce que les non-blancs sont proportionnellement plus homophobes et ne se laissent pas recruter à cause de leur préjugés”.

> Despite our attempts to obtain a more diverse sample,
> we were limited to studying white participants from the
> U.S. As the prejudice against gay people and the adoption
> of online dating websites is unevenly distributed across
> groups characterized by different ethnicities, we could not
> find sufficient numbers of non-white gay participants.

Et le pompon de la pomponnette : The Universalization of Whiteness ! “Même si l’IA ne marche que pour les blancs, les résultats sont tout de même généralisables à tout le monde parce que ce qui est valable pour les blancs américains vaut automatiquement pour les groupes de population de cultures ou d’origines ethniques différentes.”

> Unfortunately, however, our results are likely to generalize
> beyond the population studied here. The same of similar
> biological, developmental and cultural factors that are
> responsible for differences between gay and straight
> individuals, are likely to affect people of other races as well.

[ADDENDUM 11 sept. 2017] Un twitto apporte cette intéressante information  :
Faception est une startup qui commercialise des solutions de reconnaissance faciale. Parmi ses clients, les agences de sécurité de plusieurs pays (des Etats-Unis et d’autres, mais la liste n’est pas divulguée) et les agences spécialisées dans le recrutement (par ex. Manpower). A vous de voir dans quelle mesure le fait d’être identifié.e en tant que gay ou lesbienne pourrait jouer contre vous, dans ces contextes spécifiques. Un article de 2016 semble suggérer que la recherche sur reconnaissance faciale et orientation sexuelle récemment publiée par le chercheur de Stanford a un lien direct avec l’activité de cette entreprise.
  1. Oui, bien sûr, Amazon Mechanical Turk. Parce que si vous suivez mes travaux, vous devez désormais être au courant du fait qu’il n’y a pas d’intelligence artificielle : ce n’est que du digital labor invisibilisé…

Dans Le Monde (02 sept. 2017)

Non, Google ne dit pas tout de nous

Nos requêtes sur le moteur de recherche révèleraient nos secrets les mieux cachés, écrit un économiste américain. Pas si sûr, répondent des sociologues, qui mettent en garde contre un « fantasme de vérité ».

LE MONDE | | Par Luc Vinogradoff

Sur Internet, tout le monde ment, ne serait-ce que par omission. Mécanisme bien connu des sociologues et des sondeurs, le « biais de désirabilité sociale » pousse chacun à se montrer sous son meilleur jour, et donc à mentir.

« Sérum de vérité numérique »

Pourtant, selon l’économiste américain Seth Stephens-Davidowitz, il existe un espace où chacun de nous se montre honnête : la fenêtre des recherches Google dans laquelle l’humanité envoie 40 000 requêtes par seconde. « Les gens ont tendance à révéler à Google des choses qu’ils ne diraient jamais sur les réseaux, ni à quiconque dans la vraie vie » , assure l’auteur de Everybody Lies. Big Data, New Data, and What the Internet Can Tell Us About Who We Really Are (Dey Street Books, 358 p., non traduit).

Selon l’ouvrage, Google agit comme un « sérum de vérité numérique » , une page blanche à laquelle nous pouvons « révéler nos craintes les plus profondes, nos secrets, nos questions embarrassantes ». Sous couvert d’anonymat, l’utilisateur confie au moteur de recherche, au travers de ses requêtes, ce qu’il ne dirait jamais en public : discriminations enfouies, préjugés cachés, préférences sexuelles inavouées. Pour M. Stephens-Davidowitz, il s’agit là de « la plus importante base de données jamais collectée sur la psyché humaine ».

Voir en Google un « sérum de vérité », et prendre pour argent comptant toutes ces données, s’avère pourtant une approche sinon simpliste, du moins faillible. Antonio Casilli, sociologue spécialisé dans les cultures numériques, met en garde contre ce qu’il appelle un « fantasme de vérité » . Ces informations ne révèlent pas une vérité cachée sur les utilisateurs, explique-t-il, parce que « la vérité ne réside pas forcément dans ce que les gens disent, ou dans ce que l’on en extrait » . Ce qui déclenche une recherche Google est bien plus composite.

Ce que l’on cherche et ce que l’on fait

« C’est le discours actuel des promoteurs du big data, abonde Dominique Cardon, professeur au Médialab de Sciences Po. Mais il ne faut pas faire confiance à ce que les gens recherchent, il faut regarder ce qu’ils font. » Ainsi, ce n’est pas parce que quelqu’un cherche le nom d’un candidat sur Google qu’il votera pour lui, ou parce qu’il lance une requête sur une pratique sexuelle qu’il l’exerce. Dominique Cardon considère que les données des requêtes Google font certes émerger un « signal » , mais il est impossible d’en mesurer « la fréquence et la force ». Un chercheur qui se pencherait sur ce matériau peinerait à en tirer une interprétation fiable. « Ce serait compliqué », souligne Dominique Cardon, car il faudrait « comparer les requêtes à la réalité du comportement » .

C’est le danger de s’appuyer uniquement sur le déclaratif . Ce que disent les individus, même quand ils pensent exprimer la vérité, ajoute Antonio Casilli, « doit être traité avec beaucoup de finesse » pour en tirer un enseignement. « Seules des méthodes complexes et croisées permettraient d’extraire de ces données des analyses valables. » Or, pour comprendre et exploiter ces masses d’informations, il faut aussi savoir qui les récolte et pourquoi. La multinationale qui les possède et les utilise pour vendre de la publicité ne consacrera ni temps ni budget à des recherches qui ne lui rapporteraient rien.

L’idée que les serveurs de Google recèlent un trésor d’information pure et inexploitée doit être « abordée avec précaution et méfiance » , conclut le chercheur. Cette confiance en un « sérum de vérité » lui rappelle un autre « grand fantasme des scientifiques sociaux américains du XXe siècle » : le « polygraphe », ou détecteur de mensonge, ce système de mesure des réactions physiologiques censé révéler si une personne dit ou non la vérité, dont la communauté scientifique est revenue.