IA Mamamouchi
Pour en finir avec le Bourgeois numérique

 

Si Molière était encore parmi nous, qu’aurait-il pensé de notre Bourgeois numérique de cette fin d’année 2018, si enchanté de découvrir les miracles de l’intelligence artificielle (IA) ? N’aurait-il pas gratifié cet héritier du Bourgeois gentilhomme, inspiré comme il se doit par sa Mama IA Google, d’un nouveau titre de grand Mamamouchi ?

Tandis que sa fille lutine avec son maître de musique sous l’imparable prétexte de sa leçon de conversation avec SIRI sur son iPhone, notre Monsieur Jourdain numérique reçoit sa leçon de maintien quotidienne : dernières applis dopées à l’IA, ville intelligente, voiture intelligente, aspirateur intelligent, consommateur intelligent (prosumer), enceintes intelligentes, grille-pain intelligent, etc. Le voilà répétant à l’envi : tout ce qui est numérisé, connecté en grand volume, véloce et varié, ça, c’est du bien bon Big Data ; nourrissez-en des machines apprenantes et vous prendrez des décisions intelligentes. Vous reconnaîtrez un chat, un chien, un visage, un panneau de signalisation. Prodigieux, dit Jourdain qui se pâme, « voilà certes ce que je savais faire à six ans. Je ne savais pas que je faisais de l’intelligence par artifice sans le savoir. » L’IA est désormais la prose du monde. Au point qu’une soubrette, qui n’a pas encore été remplacée par une hôtesse automate, pouffe avec l’épouse du grand Mamamouchi du Numérique : « Ma foi, Madame, tout deviendrait-il intelligent au fur et à mesure que nous devenons comme Monsieur Jourdain ? » Autrefois, pour braire, les ânes faisaient Hi Han. On peut se demander si aujourd’hui ils n’ânonnent pas IA ! IA ! Pour éviter la contagion de cette bêtise plus naturelle qu’artificielle, qui pousse notre fou du digital à imposer à tous de s’équiper céans d’Alexa, de l’enceinte intelligente d’Amazon, d’un must à installer dans l’espace câblé de son salon, ne nous faut-il pas faire exploser quelques idées reçues de cette IA-là ?

Idée reçue 1 :
l’IA est d’ores et déjà efficace et fiable

C’était en mai 2018. Un couple de l’Oregon, aux États-Unis, a découvert qu’une de ses conversations venait d’être enregistrée, et que cet enregistrement avait été transmis à l’un des contacts de son carnet d’adresses. Mais qui diable était coupable de cette action d’espionnage ? Alexa, ou plus précisément son IA. Car chaque pièce de la maison était munie des équipements d’Amazon, afin de tout commander par reconnaissance vocale via l’enceinte si intelligente : la température, les lumières, le système de sécurité, la musique d’ambiance, etc. Et c’est ainsi qu’un responsable d’Amazon, s’excusant mille fois de tant d’indiscrétion, a expliqué l’affaire au couple déconfit, puis au journaliste du magazine en ligne The Verge qui l’a interrogé :

« Alexa s’est réveillée en raison d’un mot dans une conversation de fond ressemblant à son nom. Ensuite, la conversation qui a suivi a été entendue comme une demande de « message d’envoi ». À ce moment-là, Alexa a dit à haute voix « À qui ?». Puis la conversation de fond a été interprétée comme un nom dans la liste de contact des clients. Alexa a alors demandé à haute voix, « [le nom du contact], n’est-ce pas ? » Alexa a ensuite interprété la conversation de fond comme « correcte ». Aussi improbable que soit cette série d’événements, nous évaluons des options pour rendre cette affaire encore moins probable. »

Improbable ? Déjà en mars 2016, c’est une IA de Microsoft, le robot conversationnel (ou chatbot), Tay, qui proférait sur Twitter des insultes sexistes et racistes après 24 heures d’apprentissage automatique auprès d’interlocuteurs se la jouant nazillons. Et maintenant c’est Alexa qui « se tromperait », comme bien d’autres babioles connectées qui nous enregistrent à l’insu de notre plein gré. Que ces intelligences artificielles qui envahissent notre vie quotidienne, des services client aux consultations médicales en ligne, soient de plus en plus performantes, sans aucun doute. Mais il faut être un grand Mamamouchi de Mama IA Google pour croire qu’elles pourraient être infaillibles.

Idée reçue 2 :
l’IA est
intelligente

Qu’est-ce que « l’intelligence » selon les apôtres de l’intelligence artificielle de la Silicon Valley et de bien des start-up ? À l’instar d’un Laurent Alexandre en France, ils en restent à cette intelligence mesurée par le QI, se voulant opérationnelle pour la satisfaction de nos seuls intérêts. Peut-on, in fine, réduire le concept d’intelligence à de la puissance de calcul et à de la vitesse d’enregistrement, de décision et d’exécution ?

Rappelons que philosophes, psychologues et autres sociologues se sont affrontés tout le XIXe et la moitié du XXe siècle sur la définition de l’intelligence. Que les QI, produits d’une tentative de quantifier la norme des individus, longtemps panacée des institutions militaires (qui réformaient les hommes de moins de 1,60 m de taille) se sont trouvés aussi critiqués que la localisation cérébrale et les désastreuses lobotomies opérées dans les années 1950 pour « guérir » de ses pulsions. Adaptation, vitesse de calcul et d’application de formes de raisonnement logique, loin de s’avérer les critères de plus en plus pertinents de l’Intelligence avec un grand I, ont été remis en cause pour leur simplisme, quand ce n’était pas leur racisme ou leur sexisme, installant l’être humain dans la position d’unique détenteur de l’intelligence, refusée aux animaux. La prise en compte de l’art de manier le langage et de la compréhension des contextes a conduit à rejeter un monisme de l’intelligence au profit des intelligences, des formes plurielles de culture et de sensibilité.

Pourtant, paradoxalement, c’est la notion de programme informatique (de logiciel) alliée à la réflexion de Darwin sur l’évolution des espèces vivantes qui est parvenue à fournir la définition la moins contestée de l’intelligence. Car un programme est une suite d’instructions pour faire opérer à un ordinateur des calculs plus vite et sans erreurs que ce que ferait un cerveau ordinaire. Mais ces béquilles à la rationalité humaine que sont devenus les algorithmes, opérations séquentielles de calcul, peuvent-elles être considérées comme de l’intelligence ? Non. Les programmes, les ordinateurs, les applications et les systèmes de fonctionnement des machines effectuant ces tâches requièrent en amont une vaste dose d’intelligence humaine, des mathématiques à la logique et à l’informatique, en passant par les sciences physiques de l’électronique. L’intelligence s’exerce moins dans la voie balisée que dans la situation imprévue, nécessitant des chemins de traverse, donc de dresser des ponts inattendus entre des situations de vie n’ayant rien à voir les unes avec les autres. Même utile et sophistiqué, l’automatisme est bête, si l’on entend par bêtise une incapacité à donner une réponse nouvelle à une question dont la réponse n’a pas été préprogrammée. Surtout lorsque, bien souvent, la réalité nous joue le vilain tour de nous confronter à un événement non probabilisable – si par probabilisable on entend ce qui peut faire l’objet d’un calcul d’occurrence.

La puissance de l’intelligence humaine consiste à concevoir ces machines, savoir s’en servir à bon escient en fonction des contextes, interpréter des résultats bruts et surtout inventer ex nihilo des solutions nouvelles à des problèmes nouveaux. On voit immédiatement que l’intelligence humaine – mais aussi animale – se décline d’emblée au pluriel : mémoriser, calculer, se hisser à l’abstraction algébrique, reconnaître des formes, les classer, raisonner sur des propriétés géométriques certes. Mais surtout : comprendre des énoncés linguistiques, effectuer des tropes de langage (dont les deux figures majeures de la métonymie et de la métaphore), être conscient de sa position dans un espace, interpréter des contextes et des sentiments, et éprouver des états de conscience. Bref, comprendre des situations complexes et réagir de façon non préprogrammée à un choc exogène majeur. Sachant que par complexe, on entend toute situation caractérisée par un grand nombre de variables, selon des fonctions non linéaires, dont le tout n’est pas décomposable et réductible à la somme des parties.

Idée reçue 3 :
autonome, l’IA apprend toute seule

À ces arguments sur la multiplicité et l’imprévisibilité de l’intelligence et de ses voies, les moins bêtes des Monsieur Jourdain du numérique répondent : certes, mais dès lors que l’IA s’avère capable d’apprendre par elle-même, tout devient possible, à moyen ou sinon long terme, à défaut du très court terme.

Car effectivement, les automates, algorithmes et machines de nouvelle génération ne se contentent pas d’exécuter un programme prédéterminé, comme le faisaient déjà les machines transfert dans les années soixante. Elles peuvent adapter l’exécution d’une tâche en prenant en compte des variations de données qualifiant le milieu d’intervention à partir de capteurs, et ainsi corriger des automatismes. Elles peuvent mémoriser les expériences et les résultats obtenus, bref elles peuvent imiter l’apprentissage humain de type inductif : essais et erreurs, puis validation ou création d’une nouvelle information au cas par cas. À une différence près, de taille : l’expérience d’un seul cerveau humain occupé une vie entière à ces essais-là, ne produirait qu’une médiocre généralisation, surtout s’il reste cantonné à un seul territoire. Dès que les humains se regroupent et surtout cumulent et confrontent leurs expériences sans rapport les unes avec les autres, le potentiel naît d’une apparition d’un savoir inédit.

Autrement dit : aussi performantes que deviennent les diverses formes d’intelligence artificielle dans la traduction automatique, le jeu d’échecs ou de go, la prise de décision en situation complexe via l’analyse d’une immensité de données, elles restent conçues en amont par des humains, et ne peuvent encore passer d’un territoire à un autre, par exemple d’une analyse médicale aux conseils de bricolage, puis à la mise en place d’une réforme des retraites. Une voiture « autonome » risque d’autant plus l’accident que l’occupation et l’activité des conducteurs humains sur des infrastructures routières ne vont pas être calculables de sitôt. Et cette « autonomie », relative à une tâche, ne lui permet pas de faire des courses et de nettoyer la maison de son maître après l’avoir conduit à bon port. Comme l’écrit Jean-Gabriel Ganascia dans Le mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? (Science ouverte, Seuil, 2017), au sens technique, l’autonomie des IA qui apprennent d’elles-mêmes « signifie qu’il existe une chaîne de causalités matérielles allant de la prise d’information par des capteurs, à la décision, puis à l’action, qui ne fait pas intervenir d’agent extérieur, en particulier d’agent humain. Mais d’un autre côté, au plan philosophique, l’autonomie tient à la capacité à se donner sa propre loi, à savoir les règles et les finalités de son comportement. » Or, dit-il, l’humain « qui configure l’algorithme d’apprentissage par renforcement choisit lui-même le critère à optimiser, sans que la machine soit en mesure de le changer. »

Idée reçue 4 :
l’IA
aura ses réseaux de neurones ou ne sera pas

Dynamiter le ridicule de notre Bourgeois numérique suppose de nous extirper de son réductionnisme en matière d’intelligence artificielle. Ce sera l’un des objets du dossier que Multitudes prépare, entendant lancer ici un appel à articles.

Il n’y a pas une, mais une multitude d’intelligences artificielles, sur le fond comme sur la forme. L’apprentissage par renforcement, sur des programmes du type réseaux de neurones tels qu’ils ont été adoptés par les géants de la Silicon Valley, n’est par exemple qu’une voie parmi bien d’autres. Contrairement à ce qu’on entend trop souvent dans les médias, cette école « connexionniste » n’est pas la seule à créer des mécaniques auto-apprenantes. Et ce d’autant que les réseaux de neurones ont cet immense défaut de fonctionner comme une boîte noire que l’on ne peut décrypter précisément. Les algorithmes de cette famille sont plus obscurs que transparents, au contraire de ceux qui pratiquent la voie « symboliste », que l’on peut coupler avec ce qu’on appelle la « logique floue » et alimenter d’une immense masse de données pour permettre là aussi l’auto-apprentissage.

Idée reçue 5 :
l’IA
créera autant d’emplois qu’elle en supprimera

Le Monsieur Jourdain de 2018 est un croyant. Pour lui, pas de doute, la thèse de l’innovation comme « destruction créatrice », de l’économiste Joseph Schumpeter, est une vérité éternelle : après une courte période d’adaptation, l’intelligence artificielle créera autant d’emplois qu’elle en aurait détruits par ailleurs. Il ignore les multiples études annonçant un chômage massif, analysées par Bruno Teboul dans son livre Robotariat, Critique de l’automatisation de la société (Éditions Kawa, 2017), mais aussi par Bernard Stiegler et nous-mêmes (par exemple dans Réinventer le travail sans l’emploi, note de l’Institut Diderot). Notre homo numericus n’en démord pas : non, mille fois non, Monsieur Teboul a tort d’annoncer une « disruption destructrice » en lieu et place de la « destruction créatrice ». Les lendemains de l’IA sont forcément chantants.

Gardons-nous de transformer le dogme schumpétérien, qui a pu s’avérer juste à une époque, en évangile pour toujours. En toute matière impliquant le cœur même de nos sociétés, la prudence s’impose. Il n’y a nulle raison d’adopter tel credo plutôt qu’un autre, mais une nécessité d’envisager toutes les hypothèses, suivant plutôt en cela une science-fiction multipliant les hypothèses autour de l’humain que la prospective langue de bois du marketing. Les plus honnêtes et avertis parmi ceux qui auscultent la montée en puissance d’une automatisation beaucoup plus performante que celle d’il y a une petite cinquantaine d’années prennent d’ailleurs mille précautions dans leurs analyses. D’un point de vue pratique, préviennent ainsi les chercheurs de McKinsey, l’ampleur et la rapidité de l’automatisation ne dépendront pas que de sa faisabilité technique, loin s’en faut, mais de facteurs financiers, sociétaux et humains. Chômage par l’IA il y aura, nouveaux emplois aussi. Mais de là à croire que les robots et les mécaniques algorithmiques, comme les « algorédacteurs » du journalisme, ne mettront personne au chômage, il y a un monde. Et puis, que des boulots de machine soient accomplis demain sans humain, est-ce une si mauvaise nouvelle ? N’est-ce pas l’opportunité de réinventer nos sociétés ?

Idée reçue 6 :
point besoin d’éthique pour bâtir notre monde d’IA

Avec les données massives du Big data, dont se nourrissent nos IA les plus à la mode, la vérité devient statistique, ce qui a plusieurs conséquences. La première, bien connue des informaticiens, est que si vous entrez dans un algorithme des données bonnes à mettre à la poubelle, ce qui sortira du programme sera également à jeter à la poubelle (garbage in, garbage out). Autrement dit, la méthodologie de recueil des données et son examen critique est moins que jamais une formalité sans réelle importance. Sans bonne culture statistique, vous écrivez sans sourciller n’importe quoi. La seconde conséquence est que sans discriminant logique rigoureux, si la vérité est donnée par un nombre très grand d’exemples collationnés, alors vous entrez dans le royaume des fake news, c’est-à-dire de la manipulation. Inondez un réseau social d’une ribambelle de messages débiles ou douteux à partir d’un grand nombre de faux comptes : si ceux-ci sont repris par beaucoup de citoyens peu regardants, les mécaniques d’auto-apprentissage des IA des Twitter et autres Facebook privilégieront « tout naturellement » ces propositions les plus partagées, qui en deviendront leur étalon de mesure. Et l’on sait maintenant le rôle qu’ont joué ces dynamiques nauséeuses dans le Brexit ou l’élection de Trump.

Que penser, ainsi, de l’Académie des Technologies lorsqu’elle dénonçait en avril 2018 la trop grande importance accordée à l’éthique par le rapport Villani sur l’intelligence artificielle ? Ne mérite-t-elle pas le titre de grand Mamamouchi de la Mama IA ? Pour des affaires simples, probabilisables sans dommage, l’IA inductive est plutôt efficace. Mais elle est faible quand on a affaire à des situations complexes, non pas noires ou blanches, mais pleine de nuances de gris, avec des centaines de variables, des variations non linéaires. Il faut dès lors quitter la dichotomie noir ou blanc, vrai ou faux pour décider. Dans toutes les situations possibles mais non probabilisables, mieux vaut la logique floue. L’un des exemples les plus facile à comprendre est le domaine des décisions de justice. Vous ne condamnez pas quelqu’un sur la base d’une probabilité statistique, fût-ce à 90 % de chance de tomber juste. Autrement, vous êtes dans le film Minority Report de Spielberg, d’après une nouvelle de Philip K. Dick. Tout individu appartenant à un groupe présentant un fort coefficient de criminalité ne peut être arrêté préventivement et condamné à l’aune de son facies statistique, sauf précisément à vouloir le faire se conformer à la moyenne de son groupe et partant, donc à auto-justifier cette moyenne. Qu’il s’agisse de la façon dont les algorithmes nous conforment à notre propre norme, des fake news ou du fichage généralisé des Ouïghours en Chine, que nous souhaitions une transparence des algorithmes ou une vigilance sur les décisions d’économie comme de justice, nos intelligences artificielles ne peuvent se passer de l’éthique, de la sociologie, de la philosophie… Mais aussi de la science-fiction, d’un travail critique sur ces imaginaires qui en sont l’une des sources majeures.

Idée reçue 7 :
l’IA
sera bientôt plus intelligente que l’humain

Bien d’autres idées reçues de notre Monsieur Jourdain de l’ère numérique méritent d’être déshabillées, voire jetées au cabinet. Par exemple, cette idée défendue par beaucoup, dont Bill Gates et Elon Musk, que d’ici une génération à peine, « nous serons à ce point surclassés, au niveau de l’intelligence, que nous nous retrouverons face à l’IA comme nos animaux de compagnie face à nous » (« We are already cyborgs », Elon Musk, Code Conférence 2016). Mais dites-nous en quoi l’une et l’autre des deux familles d’intelligences que Musk mentionne, la machinique et l’humaine, seraient ou non comparables ? Pourquoi ne pas imaginer une multitude de scenarios ? Mieux, des intelligences d’un autre ordre, inattendues ? Allons-nous les réduire au catalogue éculé de nos préconceptions des formes matérielles ou immatérielles de matière grise ?

En matière d’IA, soyons techno-critiques en renvoyant dos à dos, dans ce dossier à venir, autant les grincheux technophobes réactionnaires que les béats de la technique qui s’imaginent en Messieurs Jourdain du progrès. Laissons grandes ouvertes les possibilités de résistance, de réappropriation et de détournement, scrutons les multiples usages des intelligences qui sont déjà sous notre nez au lieu de réinventer la machine à café. Tant qu’à la fin ce Monsieur Jourdain-là, de la famille numericus, en prendra de la graine. Or donc, à vos plumes digitales ou non, chers scripteurs.

 

Moulier-Boutang Yann

Professeur de sciences économiques à l’Université technologique de Compiègne, il enseigne l’économie et la culture européenne à l’Université de Shanghaï. Il a publié, entre autres, Liberté, égalité, blabla (Autrement, 2012), L’abeille et l’économiste (Carnets Nord, 2011) et Le capitalisme cognitif (Éditions Amsterdam, 2007). Co-directeur de Multitudes.

Kyrou Ariel

est rédacteur en chef de la revue Visions solidaires pour demain et membre du collectif de rédaction de Multitudes. Coscénariste du film documentaire Les mondes de Philip K. Dick (Nova Prod, Arte, 2016), il est l’auteur de plusieurs livres, parmi lesquels L’emploi est mort, vivre le travail ! (Mille et Une Nuits / Fayard, 2015) avec Bernard Stiegler, Ceci n’est pas un blasphème (Inculte / Actes Sud, 2015), Révolutions du Net (Inculte, 2012) ; Google God (Inculte, 2010) ou encore ABC Dick : Nous vivons dans les mots d’un écrivain de science-fiction (Inculte, 2009).