intelligence artificielle

Une intelligence artificielle révèle les préjugés anti-LGBT (et anti-plein d’autres gens) des chercheurs de Stanford

 

Et bien, lisez le papier original sur PsyArXiv.

L’ETUDE
Dès les premières lignes de l’étude (avec un lignage revendiqué de la physiognomonie et de Cesare Lombroso) jusqu’aux derniers paragraphes (“la fin de la vie privée est inévitable est c’est la faute aux usagers qui s’affichent tout le temps sur les réseaux”), en passant par l’explication du fonctionnement de l’IA par un lien ténu avec l’hypothèse—qualifiée ici de théorie—des “prenatal hormones”, on a vite épuisé son stock de médicaments antireflux.
 
Sans parler des biais méthodologiques : les auteurs testent un réseau de neurones contre des humains. Leur mission ? Regarder des photos de visages et dire si la personne représentée est gay ou hétéro. Mais les photos sont tirées d’un site de rencontre en ligne et la base de profils de personnes gays sur laquelle le réseau de neurones s’entraîne est collectée à partir d’usagers de Facebook qui ont liké des pages “gay”. Parce qu’évidemment la manière de se présenter sur les plateformes sociales est une réalité objective…  Et la complexité des motivations qui poussent une personne à aimer un contenu se réduisent à une adhésion univoque à la prétendue orientation dudit contenu…
 
Autre biais méthodologique : d’où viennent les évaluateurs humains vis-à-vis desquels cette IA s’avère plus performante ? Ils sont des micro-travailleurs d’Amazon Mechanical Turk payés quelques centimes de dollar par clic 1. Mais pas des micro-travailleurs au hasard. Que des citoyens étasuniens. Les américains, c’est connu, sont exactement comme tous les autres citoyens de n’importe quelle autre nation de notre grande et belle planète, quand il s’agit d’interpréter des indices sociaux et des repères de comportements. Et les particularités culturelles à l’œuvre dans la stigmatisation sexuelle ou dans l’étiquetage social de l’orientation sexuelle, on s’en fout.
 
 
De toute façon, il y a plus grave que ça. L’article est basé sur une vision absolument binaire, essentialiste et exclusive des orientations sexuelles humaines : t’es gay/lesbienne ou tu ne l’es pas. Le type de vision on ne peut plus hétéronormative, qui n’admet pas de situations intermédiaires  ou de négociations légèrement plus sophistiquées de l’identité sexuelle, des comportements et des formes d’appartenance aux communautés LGBTQ.
Qui plus est, de manière assumée les résultats de l’étude ne concernent que des images de personnes blanches. Mais c’est pas grave, hein. Ce n’est pas comme si les systèmes de reconnaissance faciale étaient au centre d’une polémique internationale à cause de leurs biais racistes et de leur difficulté avérée à tenir les mêmes niveaux de performance quand le visage analysé n’est pas 100% “caucasien”…
 
L’AUTEUR MICHAL KOSINSKI
 
Derrière tout ça, une question cruciale se pose : pourquoi construire une IA pour détecter l’orientation sexuelle d’inconnus ? “Parce que”, comme le suggère l’experte en open data Ellen Broad, “cela vous dérange que les personnes gay puissent vous ressembler” ?

Mais non, ce n’est pas ça, se justifient les auteurs. Leur argument de base est “qu’ils ont construit une intelligence artificielle qui détecte les personnes homosexuelles parce que certains gouvernements persécutent les homosexuels et alors ils ont voulu alerter l’opinion publique qui ignore que c’est facile de persécuter les homosexuels, et pour ce faire ils ont concocté un outil pour les persécuter, mais ils l’ont fait justement pour qu’ils ne soient pas persécutés”.
 
C’est clair, non ?
 
Les doutes s’installent quand on réalise que l’un des deux auteurs, Michal Kosinski, ça fait un moment qu’il pratique ce petit numéro de l’apprenti sorcier qui fait un truc “juste pour voir”, et après ce n’est pas sa faute si ça part en sucette. Considérez par exemple le rôle qu’il a joué dans l’élection de Trump et dans le Brexit (quand son outil de profilage des usagers de Facebook a été repris par Cambridge Analytica—et le reste est de l’histoire).
 
LA NOTE (INCRIMINANTE) DES AUTEURS
 
De toute manière, ni l’article ni la réputation de l’un des auteurs ne suffisent pour conclure que l’étude est motivée par des convictions anti-LGBTQ ou par des formes plus ou moins latentes d’intolérance ethnique, sexuelle, etc.
 
Pour arriver à cette conclusion, il faut lire un autre document que les auteurs ont publié au vu du tollé que leur article a provoqué. Dans cette note, ils répondent à leurs critiques, et par la même occasion nous donnent un éclairage sur les a priori racistes et sexistes sous-jacents à leur démarche.

On commence par ce joli stéréotype masculiniste de base : “plus une femme est extravertie, plus elle est attrayante”.

> […] Character can influence one’s facial appearance.
> For example, women that scored high on extroversion
> early in life tend to become more attractive with age.
> Second, facial appearance can alter one’s character.

On poursuit avec une apologie de la physiognomonie, parce que, vous savez, la science ne progresse que quand cela convient aux visions obscurantistes des scientifiques.

> However, the fact that physiognomists were wrong
> about many things does not automatically invalidate
> all of their claims. The same studies that prove that
> people cannot accurately do what physiognomists
> claimed was possible consistently show that they were,
> nevertheless, better than chance.
>
> Thus, physiognomists’ main claim—that the character
> is to some extent displayed on one’s face—seems to be
> correct (while being rather upsetting).

A ne pas rater, l’argument classique de l’homophobe : “mais moi j’ai des amis gay!” — lesquels, évidemment, sont toujours bien coiffés et avec des talents de photographes.

> We could be easily convinced that gay men (our gay
> male friends for sure!) have better hairstyles and facial
> hairstyles, and take better pictures.

Mais les auteurs sont vénères pour le shitstorm au centre duquel ils se trouvent. C’est pourquoi il dédient à leurs critiques ce joli mix d’argumentum ad verecundiam et d’interdiction de prise de parole s’ils/elles n’ont pas une formation en machine learning et en psychologie…

> If you are an expert in human sexuality and AI and,
> after carefully reading the paper, have decided that
> this research is rubbish, then please tell us – we would
> be delighted to know. In such case, however, it’s results
> are invalid and do not put anyone at risk.

…avec bonus de paternalisme passif-agressif (“après, si tu veux te ridiculiser en nous critiquant, vas-y, on ne va pas t’en empêcher”).

> If you are not an expert in human sexuality and AI,
> and thus cannot judge the quality of the research
> without making a fool of yourself, but believe that
> this research puts gay people at risk then please

Êtes-vous prêt pour le grand finale ? Pourquoi s’emmerder à réfuter les accusations de biais ethnique, quand on peut tout simplement rejeter tout ça sur les participants non-blancs : “l’étude est limitée à des participants blancs parce que les non-blancs sont proportionnellement plus homophobes et ne se laissent pas recruter à cause de leur préjugés”.

> Despite our attempts to obtain a more diverse sample,
> we were limited to studying white participants from the
> U.S. As the prejudice against gay people and the adoption
> of online dating websites is unevenly distributed across
> groups characterized by different ethnicities, we could not
> find sufficient numbers of non-white gay participants.

Et le pompon de la pomponnette : The Universalization of Whiteness ! “Même si l’IA ne marche que pour les blancs, les résultats sont tout de même généralisables à tout le monde parce que ce qui est valable pour les blancs américains vaut automatiquement pour les groupes de population de cultures ou d’origines ethniques différentes.”

> Unfortunately, however, our results are likely to generalize
> beyond the population studied here. The same of similar
> biological, developmental and cultural factors that are
> responsible for differences between gay and straight
> individuals, are likely to affect people of other races as well.

[ADDENDUM 11 sept. 2017] Un twitto apporte cette intéressante information  :
Faception est une startup qui commercialise des solutions de reconnaissance faciale. Parmi ses clients, les agences de sécurité de plusieurs pays (des Etats-Unis et d’autres, mais la liste n’est pas divulguée) et les agences spécialisées dans le recrutement (par ex. Manpower). A vous de voir dans quelle mesure le fait d’être identifié.e en tant que gay ou lesbienne pourrait jouer contre vous, dans ces contextes spécifiques. Un article de 2016 semble suggérer que la recherche sur reconnaissance faciale et orientation sexuelle récemment publiée par le chercheur de Stanford a un lien direct avec l’activité de cette entreprise.
  1. Oui, bien sûr, Amazon Mechanical Turk. Parce que si vous suivez mes travaux, vous devez désormais être au courant du fait qu’il n’y a pas d’intelligence artificielle : ce n’est que du digital labor invisibilisé…

Corriere della Sera (Italie, 29 mai 2017)

Ne La Nuvola del Lavoro, inserto online del Corriere della Sera consacrato alle evoluzioni dell’economia e dell’impiego, un resoconto dettagliato e ricco di una mia conversazione con la giornalista Barbara D’Amico.

Jobless Society/Non è vero che i robot ci ruberanno il lavoro

29 MAGGIO 2017 | di Barbara D’Amico

(Antonio Casilli, sociologo ed esperto di lavoro digitale)

(Antonio Casilli, esperto di lavoro digitale)

(di Barbara D’Amico)

E’ uno dei relatori di Altri lavori, altri lavoratori, titolo della seconda edizione del Jobless Society Forum (Milano, 30 maggio) – incontro pubblico di confronto internazionale sui temi della rivoluzione 4.0 e del futuro del lavoro – ma Antonio Casilli studia già da anni l’evoluzione di ciò che viene definito digital labour e che in genere si riassume in questa domanda: i robot e l’intelligenza artificiale ruberanno davvero il lavoro agli uomini?

«Sono un sociologo e studio soprattutto il lavoro e la trasformazione del lavoro portata dall’introduzione delle piattaforme digitali, quindi posso definirmi un sociologo del lavoro digitale», spiega a La Nuvola Casilli, italiano, classe 1972 ma professore associato di Digital Humanities presso il Telecommunication College of the Paris Institute of Technology (Télécom ParisTech).

Con una serie di pubblicazioni all’attivo sull’impatto della tecnologia sull’organizzazione del lavoro, Casilli presenta una posizione peculiare rispetto all’idea secondo cui l’intelligenza artificiale e i robot sono una minaccia per operai, freelance e impiegati (ne avevamo già parlato a ridosso della pubblicazione del Rapporto McKinsey sui lavori potenzialmente soppiantabili dall’intelligenza artificiale).

«Io non concordo con la linea secondo cui l’Intelligenza Artificiale (AI) farà perdere posti di lavoro – spiega – La robotizzazione non è un processo lineare ma una scelta manageriale: è chi decide in azienda che sceglie di rimpiazzare il lavoratore, non il robot che non può fare scelte. Il robot non è che una specie di pretesto che il capitalista delle piattaforme usa per sbarazzarsi del ‘lavoratore salariato’ e reclutarlo in un secondo momento come coworker». In questo modo però un lavoratore può svolgere più task, magari imparare qualcosa di nuovo? «Non direi, concordo certamente con quella corrente di pensiero che sostiene che la tecnologia trasformerà, come già avviene, le competenze; però sono meno ottimista di alcuni miei colleghi sulle vere competenze che saranno introdotte… Non basta dire che si impareranno nuove cose e che da qui a 50 anni avremo lavoratori migliori perché più allineati con il mercato digitale e il loro lavoro sarà meno abbrutente».

Secondo Casilli infatti, le competenze richieste ai nuovi lavoratori del digitale – i microworkers – sono in realtà più povere e meno creative di quanto non avvenisse in passato, specialmente per alcune tipologie di mestiere. Colpa di uno dei processi più evidenti messo in moto dall’introduzione di servizi digitali come quelli offerti da Google, Facebook, Amazon: e cioè quello che porta alla “dataificazione” e alla cottimizzazione dei mestieri.

«Pensi al postino che una volta consegnava solo lettere e oggi invece consegna e registra quelle consegne su un tablet – continua Casilli – Ecco, l’attività che svolge si tramuta in dato e la raccolta o l’inserimento dei dati diventa una task. Le task portano alla cottimizzazione, la trasformazione di mestieri complessi in lavoro a cottimo per cui si è pagati sulla base di una specifica task».

Uno dei casi più interessanti secondo il docente di Digital Humanities è quello creato da Amazon con la piattaforma Amazon Mechanical Turk  (letteralmente piattaforma del “Turco meccanico”, espressione che si riferisce a un finto automa del Diciottesimo secolo creato per giocare a scacchi ma che in realtà al suo interno era animato da un uomo in carne ed ossa). «Se lei è una impresa e vuole che qualcuno svolga per lei delle funzioni/task può andare sulla piattaforma di Amazon e reclutare o ingaggiare in unica soluzione anche 10 mila persone che realizzino delle microtask – spiega Casilli – Ad esempio rispondere a questionari, classificare delle immagini, inserire dati. Qui il principio del crowdsourcing è spinto all’estremo ma dimostra anche una cosa importantissima: che l’Intelligenza Artificiale così di default non funziona perché ha bisogno di imparare, di fare machine learning. E chi insegna all’AI ad essere intelligente per svolgere un lavoro? Le folle di microworkers».

Se i robot, o meglio l’insieme di codice e software che determina la produzione di una azienda, non sono in grado di scippare il lavoro all’uomo (e nonostante il tono allarmistico, persino il rapporto del World Economic Forum di gennaio 2016 in realtà mostra che il processo di “scippo” delle mansioni è più complesso e richiede massicci investimenti tecnologici), è indubbio che la digitalizzazione del lavoro stia comunque impoverendo competenze e salario di persone in carne e ossa.  Un problema a cui però ancora non è stata trovata soluzione.

«Più che di salario io credo che nell’era del digital labour sia più corretto parlare di reddito universale e reddito di cittadinanza. La struttura stessa del mercato del lavoro in un contesto di mercato digitale deve superare la logica salariare perché oggi il compenso purtroppo è legato alla task mentre dovrebbe essere legato al fatto stesso che il lavoratore è connesso alla piattaforma digitale: se la vera ricchezza su cui oggi contano Amazon, Google&Co sono i dati prodotti dagli utenti e se noi tutti produciamo dati allora tutti, in quanto prosumers, dovremmo accedere a un reddito universale».

Ma lei come finanzierebbe una misura simile? «Attraverso una fiscalità digitale commisurata alla produzione di valore delle piattaforme: se si tassassero le digital company sulla base della produzione dei dati potremmo redistribuire quella componente di ricchezza a vantaggio dei lavoratori digitali».

Oggi non sembra possibile difendere i microworkers e i sindacati faticano a trovare strumenti rappresentativi di questa fetta sempre più consistente di lavoratori. «Invece il sindacato è oggi più importante che mai a dispetto del fatto che non sia percepito come realtà capace di difendere le istanze delle fasce più esposte – precisa Casilli – Però, le posso dire? C’è una grande effervescenza sul tema del digital labour in ambito sindacale, soprattutto in Europa. In Germania e Svezia ad esempio. Nel 2016 è stata lanciata la Carta di Francoforte in cui i sindacati svedesi e tedeschi si chiedono quali saranno i diritti dei digital workers. Inoltre alcuni stanno creando piattaforme sindacali digitali: è il caso del sindacato dei metalmeccanici tedeschi che ha creato una piattaforma rivolta ai lavoratori digitali, quindi se lei lavora per Amazon o Uber si può iscrivere e segnalare anomalie, abusi ecc… Oppure altri sindacati in Francia hanno iniziato a pensare a forme di app per coordinare gli scioperi, parlare direttamente con gli operai».

E in Italia? «In Italia ci sono 40 anni di subordinazione e para-subordinazione nel mondo del lavoro da mettere sul piatto e l’idea che mi sono fatto è che spesso si diano una parte dei lavoratori di questo vecchio mondo per spacciati, ma appunto è un’idea sbagliata». Inoltre, in quest’ottica di trasformazione, avrà senso tra 30 anni parlare ancora di gerarchie nel mondo del lavoro? «La vera risposta è che le gerarchie si riconfigureranno in un asse back office e front office – conclude Casilli – Oggi la struttura gerarchica delle imprese classiche è quella rappresentata da direttori, quadri, esecutori… Invece le piattaforme digitali ci obbligano a rivedere gli organigrammi: ora conta l’API, l’interfaccia stessa della piattaforma».

Ovvero? «Tutto quello che accade al di qua dell’interfaccia  (le consegne dei cibo, il trasporto del passeggero, e via dicendo) è quello che fanno i microworkers, al di là invece ci sono decisioni prese da un software ma soprattutto decisioni manageriali. Meno struttura piramidale, quindi, e più struttura binaria. Ma al di là dell’organizzazione del lavoro quello che mi preme far passare è che in realtà il digital labour è molto materiale, molto più tangibile di quanto si creda. C’è stata una grande tradizione di ricerca italiana sul lavoro immateriale, ma le piattaforme invece ci mostrano che è tutt’altro che così: il lavoro digitale comporta anche problemi di salute, di sicurezza, aspetti che dobbiamo tenere in considerazione». Nessun allarmismo, dunque, ma un sano bagno di realtà che forse ridimensionerebbe i timori sul futuro del lavoro (e sui lavori del futuro) e non ci farebbe cogliere impreparati da una travolgente avanzata tecnologica.

[Séminaire #ecnEHESS] Mary L. Gray “Amazon MTurk: les coulisses de l’intelligence artificielle” (10 avril 2017, 17h)

Enseignement ouvert aux auditeurs libres. Pour s’inscrire, merci de renseigner le formulaire.

Pour la séance du 10 avril 2017 EHESS Etudier les cultures du numérique, nous avons l’honneur d’accueillir Mary L. Gray, chercheuse chez Microsoft Research et membre du Berkman Center for Internet and Society de l’Université Harvard. Mary Gray a été l’une des pionnières des études sur Amazon Mechanical Turk et sur les liens entre micro-travail et intelligence artificielle.

Pour suivre le séminaire sur Twitter : hashtag #ecnEHESS.

ATTENTION : Le siège habituel étant fermé pour les vacances universitaires, cette  séance se déroulera le lundi 10 avril 2017, de 17h à 20h, amphi Opale, Télécom ParisTech, 46 rue Barrault, 13e arr. Paris.

Title: What is Going On Behind the API? Artificial Intelligence, Digital Labor and the Paradox of Automation’s “Last Mile.”

Speaker: Mary L. Gray

Abstract: On-demand digital labor has become the core “operating system” for a range of on-demand services. It is also vital to the advancement of artificial intelligence (AI) systems built to supplement or replace humans in industries ranging from tax preparation, like LegalZoom, to digital personal assistants, like Alexa. This presentation shares research that starts from the position that on-demand “crowdwork”—intelligent systems that blend AI and humans-in-the-loop to deliver paid services through an application programming interface (API)—will dominate the future of work by both buttressing the operations of future enterprises and advancing automation. For 2 years Mary L Gray and computer scientist Siddharth Suri have combined ethnographic fieldwork and computational analysis to understand the demographics, motivations, resources, skills and strategies workers drawn on to optimize their participation in this nascent but growing form of employment.  Crowdwork systems are not, simply, technologies. They are sites of labor with complicated social dynamics that, ultimately, hold value and require recognition to be sustainable forms of work.

La présentation et les débats se dérouleront en anglais.


Séminaire organisé en collaboration avec ENDL (European Network on Digital Labour).

Qui entraîne les IA et les drones ? Les internautes (Le Figaro, 22 mars 2017)

Dans Le Figaro no. 22586, en kiosque le mercredi 22 mars 2017, un article sur les liens entre digital labor et l’intelligence artificielle.  L’enquête est née des échanges entre la journaliste Elisa Braün, Mark Graham (Oxford Internet Institute) et moi-même.

 

Les internautes travaillent aussi pour les géants du Web
Braun, Elisa

Chez Google, il n’y a pas de petites économies. Un internaute veut changer son mot de passe ? Alors qu’il pense simplement prouver qu’il n’est pas un robot en cliquant sur un panneau de signalisation dans une série d’images, il entraîne les intelligences artificielles développées par l’entreprise et améliore sans le savoir des logiciels de conduite autonome à comprendre le Code de la route.

L’intelligence artificielle a beau promettre un futur rempli de machines entièrement autonomes, elle a encore besoin en coulisses de millions de petites actions humaines. « La plupart des services en ligne ont besoin de beaucoup d’êtres humains pour fonctionner » , explique au Figaro Mark Graham, géographe d’Internet à l’université d’Oxford et spécialiste de ces formes de travail invisibles de l’économie numérique. Cette activité, qui mobilise l’internaute moyen comme plusieurs centaines de millions de travailleurs insoupçonnés, a même un nom : le digital labor.

La ruée vers l’intelligence artificielle a amplifié ce phénomène. Google, Facebook, Microsoft et IBM ont chacun leurs propres laboratoires de recherche dans le domaine. Ces entreprises misent particulièrement sur cette technologie pour assurer leur avenir et ont recruté les meilleurs chercheurs pour réaliser leurs ambitions. Mais pour fonctionner correctement et réaliser leurs prouesses, les intelligences artificielles ont besoin de beaucoup d’attention humaine. Pour qu’un ordinateur reconnaisse un chaton parmi des milliards d’images, un humain doit d’abord lui montrer des milliers de photos de chatons. Cette phase d’entraînement ne revient pas aux grands savants mais à des internautes, qui se chargent de cliquer sur de nombreuses images de chatons jusqu’à ce que l’intelligence artificielle ait compris les traits distinctifs des félins et puisse prendre le relais.

Pour trouver cette main-d’oeuvre, les grandes entreprises adoptent différentes stratégies. Certaines font faire une partie de ce travail à leurs utilisateurs, sans même que ceux-ci en aient conscience. Lorsqu’un utilisateur de Facebook signale une image violente sur son flux d’actualités, il aide par exemple les algorithmes de modération du réseau social à repérer plus finement les contenus choquants postés chaque jour par milliers. Du côté de Google, la reconnaissance de caractères sur des « Captcha » (ces dispositifs qui apparaissent pour vérifier qu’un utilisateur n’est pas un robot) a longtemps permis d’aider les robots de l’entreprise à lire les pages de livres abîmées sur Google Books et à les indexer sur le moteur de recherche.

Les grandes entreprises adoptent une autre stratégie pour les sujets plus sensibles (comme la recherche militaire) ou laborieux (comme la reconnaissance de milliers d’images). Elles font appel à des internautes faiblement rémunérés sur des plateformes spécifiques de digital labor. Certaines ont même lancé leur propre système, de façon plus ou moins assumée. Google passe par EWOK, Amazon détient le service Mechanical Turk, Microsoft se sert de l’UHRS, et la technologie Watson, d’IBM, s’appuie sur la plateforme Spare5 (récemment rebaptisée Mighty AI). Sans connaître le commanditaire de leur travail, les internautes qui fréquentent ces sites doivent parfois reconnaître des pistes d’atterrissage sur des vues aériennes. « Je suis assez certain que certains travaux que nous observons servent pour entraîner les drones » , explique Mark Graham, qui a dirigé une importante étude auprès de centaines de « tâcherons du clic » en Afrique subsaharienne et en Asie du Sud-Est. Google, qui demande parfois à ses utilisateurs de repérer des pales d’hélicoptère sur des images pour recouvrer son mot de passe, est aussi propriétaire de Boston Dynamics, une entreprise investie dans la fabrication de robots militaires.

« Face à ce genre de cas, il faut se demander quel type d’intelligence artificielle nous aidons à développer » , note Antonio Casilli, sociologue à Télécom ParisTech et spécialiste du digital labor. Outre les finalités de ce type de travail, ses conditions posent aussi problème aux experts car elles perpétuent des inégalités. D’ici à 2019, 213 millions de travailleurs devraient pourtant intégrer le marché du digital labor, selon les chiffres de l’International Labour Organisation. L’utilisation des plateformes qui mettent en relation les entreprises et ces millions de travailleurs augmente de 25 % chaque année, selon les chiffres cités par l’étude de Mark Graham. Or, la rémunération de ces micro-tâches ou de ce travail n’est absolument pas régulée. Beaucoup de ces microtravailleurs passent 18 heures par semaine en moyenne à rechercher un travail précaire et épuisant. En France, le Conseil national du numérique a récemment lancé une grande consultation sur le digital labor. Les chercheurs européens se sont déjà fédérés en un réseau, European Network on Digital Labour (ENDL). –

"Alan Turing : impardonnable ?" – podcast d'Antonio Casilli (France Culture, La Grande Table, 24 avr. 2012)

Podcast de La Grande Table, le magazine culturel de la mi-journée sur France Culture, consacré à la figure du mathématicien (et père de l’intelligence artificielle) Alan Turing, à l’occasion du centenaire de sa naissance. Pour en parler avec Raphaël Bourgois, Marc Weitzmann, Hervé Le Tellier et le sociologue Antonio Casilli, auteur de Les liaisons numériques. Vers une nouvelle sociabilité ? (Ed. du Seuil).

Pour écouter d’autres podcast d’Antonio Casilli sur France Culture.

Alan Turing, l’« impardonnable » ? Pionnier de l’intelligence artificielle, père des ordinateurs numériques contemporains, mathématicien de génie, cryptanalyste capable de craquer les codes super-secrets de l’armée nazie, de son vivant Alan Turing est persécuté à cause de son homosexualité. Après son arrestation en 1952, il est obligé à un choix cornélien : la prison ou la castration chimique. Il choisit la deuxième option, mais n’arrivera pas à surmonter ce traumatisme. En 1954 il se donne la mort en croquant… une pomme empoisonnée.

Les circonstances de son décès redeviennent d’actualité aujourd’hui. Alors que les célébrations pour le centenaire de sa naissance s’enchaînent partout dans le monde (v. le grand colloque à l’ENS de Lyon début juillet), en Angleterre une polémique autour de l’opportunité politique d’accorder officiellement le pardon à ce génie de l’informatique oppose les 21 000 signataires d’une pétition présentée au gouvernement britannique et la Chambre des Lords, officiellement contraire à cette mesure.

Pourtant les raisons pour accorder ce pardon sont évidentes : les travaux d’Alan Turing ont eu une influence remarquable sur les mathématiques, mais aussi dans des domaines fort éloignés tels la biologie, la philosophie et les sciences de l’ingénieur. Alors pourquoi, après toutes ces années, Turing est encore “impardonnable” ? Non pas à cause de sa sexualité, même si la question du traitement des “déviants sexuels” enflamme encore l’opinion publique britannique.

Peut-être cet acharnement doit être imputé moins à sa vie privée qu’à son héritage scientifique. Pour sa transdisciplinarité, pour sa puissance visionnaire, le travail de Turing soulève des questions imposantes, auxquelles nous n’avons pas encore trouvé une réponse. La possibilité même de l’intelligence artificielle ne cesse de provoquer de débats passionnés au sein de la communauté scientifique. Si la pensée est un processus simulable, qu’en est-il de la spécificité de la pensée humaine ?

Sans parler de l’hypothèse de la Singularité (la confluence d’hommes et machines en une superintelligence), autour de laquelle les géants des nouvelles technologies créent des initiatives spectaculaires (v. la Singularity University de Google) et que Turing avait préfiguré en 1950, avec le célèbre Test qui porte son nom : une épreuve pour évaluer la capacité des machines à se faire passer pour des êtres humains.

Selon le scientifique anglais les ordinateurs numériques auraient été capables de passer son test avant la date symbolique de l’année 2000. Pour la petite histoire, à l’occasion de l’édition 2000 du Loebner Prize in Artificial Intelligence, aucun des logiciels en lice n’est arrivé à tromper les juges. De ce point de vue-là, la prophétie de Turing ne s’est réalisée… Est-ce aussi pour cela qu’il demeure “impardonnable” ?