On ne la voit pas. On ne la sent pas. On ne l’entend pas. On ne peut la toucher. Elle n’a aucun goût. Et pourtant elle est partout. L’intelligence artificielle, dont on ne sait guère ce que masque son nom, opère « discrètement ». Dans les usines, les bureaux, les fermes, les hôpitaux, les supermarchés, les laboratoires de recherche, les compteurs électriques, les antennes et lampadaires de nos rues, elle structure nos vies l’air de rien. Pour mieux nous recruter, nous surveiller, nous contrôler, nous conseiller, nous orienter en douceur, elle opère à la chaîne des algorithmes selon des normes et des critères paramétrés. Pour nous permettre de profiter au quotidien des merveilles de l’hypercapitalisme, elle s’intègre à nos décisions individuelles et collectives.
Parcourant les formes itératives des mathématiques, elle se mêle de prédiction au moyen de méthodes statistiques, probabilitaires et d’apprentissage machine (machine learning) par le traitement de données massives (big data). Elle s’agite dans le monde actuel au-delà des mondes virtuels. À en croire les sociologues Bilel Benbouzid et Dominique Cardon, l’IA dite « connexionniste » semble investir l’ensemble de nos vies : « La prédiction calculée devient aussi, dans la police, l’assurance, la gestion des entreprises, la surveillance, la justice, l’attribution de crédits et certaines politiques publiques, une technologie de plus en plus fréquemment mobilisée pour promettre la modernisation des services tout en installant un nouveau régime d’anticipation des événements.1 »
Contre la peur, osons connaître les IA !
Faut-il se rebeller contre pareil état de fait, qui s’impose à nos modes de vie sans la moindre délibération démocratique ? Est-il encore possible ou même souhaitable de jeter ces IA invisibles, voire indiscernables, à la poubelle du numérique ? Ne faudrait-il pas, avant de clamer l’urgence et le « danger » qui vient, oser les connaître ? Construire une culture critique de l’IA, qui associerait artistes, écrivains, chercheurs, ingénieurs, mathématiciens, logiciens, penseurs, philosophes, artisans et bien sûr citoyens dans une même dynamique de réflexion, n’est-ce pas là une promesse faite à l’avenir ?
Celle de voir un jour émerger une intelligence collective à partir de l’artifice des IA.
Nous sommes portés à croire en cette potentialité, aussi lointaine semble-t-elle aujourd’hui. Toutefois, l’une des difficultés majeures de cet exercice tient à la pléthore protéiforme des technologies au centre des écosystèmes du capitalisme contemporain. Prenons par exemple l’Hôpital Universitaire de Yonsei, en Corée du Sud, dont l’opérateur SK Telecom fait le modèle de l’hôpital digital. Rien que dans ledit édifice une multitude de technologies fusionnent autour d’opérations médicales et logistiques. Des données massives (big data) sont mises en corrélation, le matériel médical est connecté au moyen de l’Internet des objets, des mobiles de connexion 5G assurent la vélocité dans la transmission de l’information, des systèmes de réalités virtuelles et augmentées confèrent une plus ample visibilité aux personnels soignants et des IA s’intègrent çà et là au cœur de ce dispositif High Tech. On comprend bien que pour mieux diagnostiquer les maladies et surtout mieux contrôler et sécuriser l’intégralité de cet édifice futuriste, les IA s’associent à une ribambelle de technologies. Mais pas toujours pour le meilleur… Comme le dit son communiqué de mai 2019, le nouvel hôpital « proposera différents services digitaux aux patients et aux visiteurs : assistant vocal dans la chambre, guidage par réalité virtuelle dans l’hôpital et reconnaissance faciale pour renforcer la sécurité », etc. De la même façon dans l’agriculture, les drones et les engins autonomes pour les champs et les silos, la téléconsultation de vétérinaires, la « gestion » des animaux et des cultures via des puces RFID ou des objets connectés sont indissociables d’un pilotage au moyen des IA. L’agriculture raisonnée carbure à l’intelligence artificielle qui saura singulariser les doses de pesticides au mètre carré près. Dormez tranquilles écologistes, l’IA veille sur votre santé !
Pour en finir avec l’idolâtrie béate du « bourgeois numérique »
La mauvaise nouvelle, donc, c’est qu’il s’avère compliqué de connaître et de critiquer ce nouveau monde des IA, encore en devenir, et inséparable du tout numérique. La bonne nouvelle, c’est que, depuis le numéro 72 de Multitudes, où nous nous amusions du crétinisme de ce « Bourgeois numérique » qui se pâme devant les miracles des IA, la servitude volontaire de notre Monsieur Jourdain a été révélée au grand jour.
À l’instar de l’espionnage déclaré a posteriori « involontaire » d’Alexa (la boîte vocale intelligente d’Amazon) en mai 2018, chacun connaît désormais le caractère encore peu fiable et plutôt inefficace de bien des IA qu’on nous présente comme de petites déesses. Plus généralement, tout un chacun peut constater que les IA dont nous disposons aujourd’hui sont beaucoup moins performantes que ne le laisse croire l’image médiatique d’une IA omnisciente transcendant les lois de l’esprit. Force est de constater que notre dispositif technologique actuel est constitué uniquement d’« IA faibles2 », qui s’attèlent à des tâches simples et répétitives de rangement tels que l’Edge Rank de Facebook ou le PageRank de Google. Ces IA ne font en réalité qu’ordonner des pages, des données, etc. selon des critères paramétrés, tout en permettant une extension du domaine du profilage.
On est loin des figures de l’ordinateur/esprit capable de transcender la machine. L’adage qui dit que « l’esprit est au cerveau ce que le programme est au hardware informatique3 » est aujourd’hui remis en question. On constate d’ailleurs quotidiennement, au contact des IA, que ces dernières ne font que répéter inlassablement la même tâche. Elles modulent, déplacent, hiérarchisent et ordonnent la position de symboles, de données ou de signaux sans que ces derniers n’aient de signification particulière pour l’IA. Les 0 et les 1 que l’ordinateur digital analyse, en effectuant ses opérations, ne sont que des numéros ordinaux, et non des nombres ayant un sens, une intention ou un lien de référence avec le monde. Car, en réalité c’est nous qui nouons ce lien avec le monde, qui dotons les opérations de la machine de références et qui transposons une intention dans les opérations. En d’autres termes, nous sommes les sens et la conscience des machines.
Pour ne pas tomber dans le piège de la béatitude, il faut donc distinguer la pensée de la computation, se défaire de la métaphore du cerveau/machine et faire preuve de lucidité, en particulier sur ce que coûtent réellement ces outils en termes environnementaux. Luc Julia, pourtant co-créateur du Siri d’Apple et vice-président innovation de Samsung, écrit par exemple, à propos de l’IA de DeepMind, filiale de Google : elle « consomme plus de 440 000 watts par heure juste pour jouer au go, alors que notre cerveau fonctionne avec seulement 20 watts par heure et peut effectuer bien d’autres tâches… La réalité est que les méthodes et algorithmes utilisés en IA sont très différents des raisonnements effectués par les humains, qui utilisent une quantité infime d’énergie et de données. À l’avenir, au lieu de continuer dans la voie du big data, il faudrait se tourner vers le small data, qui consommerait beaucoup moins d’énergie.4 »
Même type de gueule de bois à propos de la croyance qui octroie à l’IA la faculté de créer autant d’emplois qu’elle en détruira, selon le dogme de la « destruction créatrice » de l’économiste Joseph Schumpeter. D’un côté, il y a les chiffres de l’OCDE (Organisation de coopération et de développement économiques), qui n’en finissent pas de grimper malgré l’indécrottable prudence de l’institution : dans son rapport sur L’avenir du travail publié le 25 avril 2019, elle affirme que la robotisation devrait faire disparaître 14 % des emplois d’ici à vingt ans, la France étant « plus exposée que la moyenne, avec 16,4 % de postes menacés et 32,8 % transformés par l’automatisation.5 » Et de l’autre côté, l’enquête sur « le travail du clic » du sociologue Antonio A. Casilli, socle de son livre En Attendant les robots, démontre qu’à supposer qu’il n’y ait pas demain de « chômage technologique », ce serait au prix d’une immense précarisation du travail, partout dans le monde via les plateformes comme Amazon Mechanical Turk : « Toutes et tous, les centaines de millions de travailleurs à la demande et de tâcherons du clic, les milliards d’usagers des plateformes de médias sociaux, nous avons ainsi devant nous une longue carrière de dresseurs d’IA.6 »
Autre constat à faire rougir de honte : les biais statistiques de l’intelligence artificielle. Sur ce terrain, la conférence TED de Joy Buolamwini, doctorante au MIT, femme noire et militante, a largement dépassé depuis sa mise en ligne fin 2018 le million de vues. Elle se déclare « en mission pour stopper une force invisible qui prend de l’ampleur, une force que j’appelle «le regard codé», mon expression pour le biais algorithmique7 ». Elle dénonce avec acuité la façon dont des « jeux de test » peu variés, mal préparés voire mal intentionnés d’IA (qui reflètent au demeurant le sexisme ou le racisme du grand nombre ou le préjugé de ceux qui sélectionnent consciemment ou inconsciemment les exemples qui nourrissent le machine learning utilisé par exemple pour la reconnaissance faciale) alimentent les discriminations, en particulier vis-à-vis des femmes et de la population noire. Soit une critique indispensable, de l’ordre de la culture de l’intelligence artificielle, qui rejoint les travaux d’une autre chercheuse américaine, Kate Crawford, co-fondatrice du AI Now Institute à New York, mais aussi les analyses de l’anthropologue Pascal Picq dans son livre L’intelligence artificielle et les chimpanzés du futur8 : « Il existe un danger bien réel : celui des algorithmes qui utilisent les data dans certains domaines. Ainsi du logiciel Compas proposé aux tribunaux américains pour évaluer les risques de récidive des condamnés ou de PredPol, pour la police prédictive. Nous avons l’illusion que ce type d’IA, puisqu’elle repose sur les mathématiques, est une intelligence froide, objective et impartiale. Or elle produit des résultats qui peuvent être faux ou éthiquement réprouvés… Cela veut dire que les machines mettent en exergue nos propres biais, ancrés dans nos représentations culturelles ! L’IA nous enjoint à réfléchir sur nos travers.9 » Pour peu, bien évidemment, que ceux qui l’utilisent soient conscients de ces risques forts de biais… et veuillent y remédier.
IAIAIA : Intelligence animale, intelligence artificielle, intelligence ad hominem
Le premier article de cette Majeure, signé par la philosophe Anne-Laure Thessard, « Compétition symbolique entre les espèces – Animaux/Humains/IA », pourrait se situer en écho des mots de Pascal Picq, lorsqu’il explique : « Dans son arrogance anthropocentrée, l’Homme pense être le seul détenteur de l’intelligence. Une idée largement répandue en Occident, qui porte la figure de l’ingénieur-mathématicien au pinacle de l’évolution. Il faut nous dégager du complexe de supériorité que nous entretenons avec les animaux et du complexe d’infériorité face aux machines. D’un côté, les animaux sont méprisés ; de l’autre, les robots vénérés. […] Nous devons être prêts à comprendre les bouleversements qui nous guettent : définir en quoi les intelligences humaines, animales et artificielles se ressemblent et diffèrent peut nous y aider.10 »
Mais pour avancer dans ce sens, encore faut-il nous interroger, sans a priori, en utilisant tout notre héritage culturel en la matière, sur la notion d’intelligence allouée à nos machines. C’est ce que se propose de faire d’abord l’article titré non sans ironie « Le troisième âge de l’intelligence augmentée, dite artificielle », ensuite notre conversation de conclusion, non sans un zeste de désaccord, avec la philosophe Catherine Malabou. Car il existe non pas une, mais des intelligences artificielles, avec une multitude de variations au sein de chaque famille. Il y a celle du machine learning, aujourd’hui à la mode et qui suppose un « dressage », dite « connexionniste » et liée à ce qu’on appelle les réseaux de neurones, qui imitent au mieux, de façon grossière et centrée sur un unique objet, l’intelligence d’un enfant de moins de six ans. Le modèle de celle qui avait auparavant le vent en poupe, dite « symboliste » ou « cognitiviste », était plutôt son aîné de 7 à 12 ans, et aboutissait à des ébauches plus analytiques mais toujours focalisées sur telle ou telle tâche spécifique sans signification pour la machine. Sous ce regard, nos IA d’aujourd’hui ne seraient-elles pas les mécaniques préhistoriques de la multitude des « intelligences » machiniques de demain, à supposer que celles-ci adviennent un jour ?
Un imaginaire de sciences fictions
Il n’en reste pas moins que, dans le programme du candidat à la mairie de Paris Cédric Villani, entre sa quatrième proposition, « Développer des logements mieux répartis sur le territoire parisien », et sa sixième, « Garantir un accueil collectif des enfants dès l’âge de moins de 2 ans », l’on découvre sa cinquième ambition : « Utiliser l’intelligence artificielle pour coordonner les feux, fluidifier la circulation, anticiper les embouteillages et réduire les temps de transport ». Cet usage prosaïque, ne nécessitant guère une superintelligence embarquée, est-il du genre à « Donner un sens à l’intelligence artificielle », pour reprendre le titre du rapport de ce même Cédric Villani, qui a fait date dans l’Hexagone lors de sa publication en mars 2018 ?
Force est de reconnaître que, malgré ses défauts, ce document a été l’un des premiers actes de culture de la sorte. Ne serait-ce que parce qu’il reconnaît, dans son introduction, une vérité masquée par bien des apôtres technoscientifiques de l’IA : « La (science) fiction, les fantasmes et les projections collectives ont accompagné l’essor de l’intelligence artificielle et guident parfois ses objectifs de long terme : en témoignent les productions fictionnelles abondantes sur le sujet, de 2001 l’Odyssée de l’espace, à Her en passant par Blade Runner et une grande partie de la littérature de science-fiction. Finalement, c’est probablement cette alliance entre des projections fictionnelles et la recherche scientifique qui constitue l’essence de ce qu’on appelle l’IA.11 »
Mieux, Cédric Villani et ses collaborateurs font vivre leurs visions de l’IA non seulement au travers de vœux pieux et d’idées plus ou moins convenues pour l’État et nos industries, mais au travers de nouvelles de science-fiction qui émaillent leur rapport. Et c’est ainsi que transparaît, dans la nouvelle « Perte de commande » d’Anne-Caroline Paucot, l’un des effets pervers de l’âge de l’assistance en devenir que portent ces machines-là. Ou comment un couple heureux en vient à se déchirer à cause de d’une petite IA de l’ère de la prévoyance intégrale. Qui dispose de leurs data à tous deux…
Cette intelligence artificielle-là, serviable mais insidieuse, aussi brillante qu’irritante, est un peu celle de l’écrivain Alain Damasio dans Les Furtifs, dont nous publions un extrait d’anthologie. De la même façon nous avons sélectionné pour cette Majeure huit autres fulgurances tirées d’œuvres de science-fiction. Du film A.I. de Steven Spielberg à l’IA psychologue et plutôt réjouissante de Li-Cam dans son roman utopique Résolution, en passant par l’œil mémorable de Hal dans 2001 l’Odyssée de l’espace, créé non seulement par Stanley Kubrick mais par le prospectiviste et auteur de science-fiction Arthur C. Clarke.
Comme l’article « Dans les imaginaires de l’IA » le décortique, la réalité contemporaine de l’IA tient d’un même élan du fantasme de la créature intelligente et de la réalité d’une mécanique esclave de nos actions les plus insignifiantes. De Hal qui tue ses collègues humains dans son vaisseau vers les étoiles à l’enceinte connectée qui nous donne le temps qu’il fait. Et c’est cette entité duale qui s’est concrétisée sur une scène du monde réel le 8 mai 2018, lors de la conférence annuelle de démonstration de ses innovations par Google, via l’enregistrement d’une conversation. Le téléphone sonne. Une femme appelle pour prendre un rendez-vous chez le coiffeur. Elle hésite un peu, distille quelques « hum » et laisse traîner ses syllabes sur un ou deux bouts de phrase. Son interlocutrice du salon de coiffure lui répond, note sa demande et propose une date de rendez-vous. Qui est acceptée. Sauf que l’appelante n’est pas la cliente, mais son IA de nouvelle génération, de la famille Google Duplex. Et qu’elle ne s’est pas présentée comme telle12. D’où une polémique dans les jours suivants, et une précision tardive des responsables de l’entreprise, comme quoi l’assistant vocal déclinerait à l’avenir son identité mécanoïde au préalable de toute demande téléphonique. Voire. Car l’anecdote montre à quel point « l’âge de l’assistance », nouvel horizon de l’ogre de Mountain View, cultive les fantasmes du remplacement de l’humain par la machine.
IA et expériences de pensée
La philosophe et docteure en sciences juridiques Antoinette Rouvroy a raison de critiquer la « gouvernementalité algorithmique ». Soit selon ses termes « un certain usage, actuellement dominant, prédateur, que je dirais «contre-nature» (eu égard aux possibilités offertes par ces machines) du data-mining, du machine learning et de tout ce que l’on place sous le signe de l’intelligence artificielle au service de « rationalités sectorielles » visant à optimiser des états de faits insoutenables au profit de bureaucraties publiques et privées soucieuses, pour les unes, de ne plus assumer la charge et la responsabilité de « décider » en situation d’incertitude et, pour les autres, de sélectionner et de faire advenir, parmi les possibles co-présents, le possible qui maximise leur intérêt sans que celui-ci soit nécessairement aligné avec l’intérêt commun.13 »
Mais cet indispensable travail critique ne peut se faire sans inclure l’expérience de pensée philosophique qui entoure les IA. Le principe même de l’IA n’est-il pas né du test imaginaire proposé par Alan Turing en 1950 ? La machine symboliste de Turing qui fonctionne par la transmission mécanique d’une information initiale inscrite sur un ruban en input, qui est ensuite transformée par un bloc logique qui « lit » puis donne une réponse en output (information résultante), ne prend tout son sens qu’à la lumière du célèbre « test de Turing ». C’est donc par une expérience de pensée qui relève de la psychologie comportementale, que l’évaluation de l’intelligence artificielle peut s’établir. En usant de l’effet boîte noire du dispositif expérimental : un individu dialoguant avec un interlocuteur x ou y, sans savoir si ce dernier est une machine ou un humain, doit deviner l’identité de son correspondant. Avec ce simple test, Turing entendait établir la possibilité pour une machine disposant d’une mémoire universelle de simuler la pensée. Toutefois, pour cela comme l’indique Turing, « nous ne souhaitons pas pénaliser la machine pour son incapacité à briller dans des concours de beauté, et nous ne voulons pas pénaliser l’homme parce qu’il perd quand il court contre un avion14 ». Il faut donc feindre et imiter le comportement humain sans trop abuser de ses faiblesses. Dans le prolongement de cette expérience de pensée, l’article « De la loi des grands nombres aux grands nombres qui font la loi – IA, jeu de l’imitation et vote démocratique » propose de questionner l’extension sociétale du jeu de l’imitation de l’IA. En poussant à son paroxysme le test de Turing, l’article offre une nouvelle approche de la théorie du choix social en considérant la modification logico-formelle qui découlerait de l’inclusion d’une IA candidate dans le vote par agrégation des préférences. Ce jeu, qui peut sembler à la fois absurde, dangereux et provocateur, a pour vocation de dégourdir l’esprit et de poser une simple question problématisant le fondement des démocraties : Est-ce que nous serions assez stupides pour élire une machine à la tête de l’État si celle-ci réussissait le test de Turing et se faisait passer pour un être humain ?
Ce texte est donc lui-même un jeu articulé sur une démonstration mathématique, cherchant à provoquer l’intelligence par des équations pleines de sérieux et d’artifice. Il ressemble, sous ce prisme, aux expérimentations que mènent d’ores et déjà des artistes plasticiens, comme le film Attack The Sun, dont des dialogues ont été générés par une IA au cours même du tournage, qui suit la dérive d’un youtuber californien paraissant sombrer dans une folie de tuerie. C’est exactement ce dont Fabien Zocco nous entretient ici, au même titre qu’il évoque les prémisses de la fréquentation tumultueuse des IA par des artistes contemporains. L’enjeu, que décrit autrement le scientifique et musicien Jean-Claude Heudin, est non seulement d’opérer un féroce travail critique, mais d’expérimenter les multiples manières de composer, par exemple de la musique, avec telle ou telle intelligence artificielle, ou pourquoi pas (tout) contre elle. Car cultiver nos IA ne consiste pas à les dresser bêtement, mais à les connaître. Ou en ouvrir ou en détourner les boîtes parfois si obscures, comme tentent de l’accomplir les designers Jürg Lehni et Douglas Edric Stanley, interviewés par Anthony Masure…
Cultiver nos IA, c’est en déshabiller les leurres. En décrypter les si humaines manipulations. C’est nous en approprier les imaginaires pour mieux les renvoyer, transformés, à la face des multinationales qui les programment. C’est nous donner peu à peu les moyens de ne plus subir des IA trop fantasmatiques pour être intelligentes, et peut-être à terme de concevoir les nôtres… par les mots, les images ou même le code et les mathématiques.
1 « Machines à prédire », par Bilel Benbouzid et Dominique Cardon, Réseaux, no 211, mai 2018, p. 9-33 : www.cairn.info/revue-reseaux-2018-5-page-9.htm#
2 L’IA est dite forte lorsqu’elle prend les traits métaphoriques de l’incarnation d’un esprit conscient dans un corps à travers l’implémentation d’un programme dans une machine. Elle est dite faible lorsqu’elle se cantonne à un traitement de symboles, de données ou de signaux sans que ces derniers n’aient de signification pour elle.
3 John R. Searle, Du cerveau au savoir, Paris, Hermann, 1985, p. 37-38.
4 Luc Julia, L’intelligence artificielle n’existe pas, First Éditions, 2019, p. 278-279.
5 « La robotisation devrait faire disparaître 14 % des emplois d’ici à vingt ans, selon l’OCDE », Par Marie Charrel, Le Monde, 25 avril 2019.
6 Antonio A. Casilli, En attendant les robots, Enquête sur le travail du clic, La couleur des idées / Seuil, 2019, p. 304.
7 Joy Buolamwini, « Mon combat contre les algorithmes biaisés »,TEDxBeaconStreet :
www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms?language=fr
8 Pascal Picq, L’intelligence artificielle et les chimpanzés du futur, Odile Jacob, 2019.
9 « Pour le paléoanthropologue Pascal Picq, Darwin éclaire les start-up », interview par Marie Peronneau, Capital, 15 avril 2019.
10 Ibid.
11 Rapport de Cédric Villani : « Donner un sens à l’intelligence artificielle (IA), Pour une stratégie nationale et européenne », 28 mars 2018, Ministère de l’Enseignement Supérieur, de la Recherche et de l’Innovation, p. 9.
12 « L’incognito du robot », par Martin Untersinger, Le Monde, 26 mai 2018.
13 « Gouvernementalité algorithmique : 3 questions à Antoinette Rouvroy et Hugues Bersini », double interview par Catherine De Poortere, Point Culture, 2 décembre 2019.
14 Ibid., p. 63.
Sur le même sujet
- Il faut défendre les invulnérables.
Lecture critique de ce qu’on s’est laissé dire, à gauche, sur la pandémie de covid - Le français, c’est de l’italien mal gaulé
Entretien avec Gauz - MULTITUDES À LA MAISON ROUGE
- Icônes 80. ACBE/Johann Hauser/Óscar Fernando Morales/Janko Domsic/Szabolcs Bozó/Giovanni Bosco/Dwight Mackintosh/José Manuel Egea/Alberto Jorge Cadi/Louis Bec/Guo Fengyi/Davood Koochaki/Mihai Zgondoiu/
- Les extraterrestres de la science-fiction
Articles les plus consultés
- Il faut défendre les invulnérables. Lecture critique de ce qu’on s’est laissé dire, à gauche, sur la pandémie de covid
- Des écoles d’art et design en lutte Contribution à une (re)politisation du champ de l’art
- Le partage du sensible
- Les circuits courts alimentaires De la complexité à la coopération logistiques
- La politique en Amérique du sud, un pendule instable