78. Multitudes 78. Printemps 2020
Majeure 78. Cultivons nos intelligences artificielles

Le troisième âge de l’intelligence augmentée, dite artificielle

Partagez —> /

Si l’on met de côté sa préhistoire, c’est-à-dire la machine de Turing et l’architecture von Neumann de 1935 à 1949, l’informatique a adopté en matière de neuro-cognition et de biologie cérébrale deux attitudes distinctes au cours du temps. Dans une première période, elle élabora implicitement ou explicitement un modèle de recherche selon lequel le cerveau était censé fonctionner logiquement, donc rationnellement. On en inférait que le cerveau imitait biologiquement un processus du type de celui de l’ordinateur1, même si l’on ne savait pas encore comment. Dans « logiquement », il y a « logos », et dans le logos grec il y a raison, compte, proportion. On laissait donc au second plan ce qui, dans le langage, n’était pas de l’ordre du programme informatique, c’est-à-dire d’une logique formalisée grâce aux mathématiques, oubliant donc le traitement du signal symbolique, de l’image, ainsi que la perception.

Dans la seconde période, à la suite des déceptions que cette première hypothèse rencontra, le programme fut renversé en son contraire. Pour arriver à résoudre des problèmes complexes, c’est-à-dire le traitement de phénomènes brassant plusieurs centaines de variables, évoluant de façon non linéaire (avec des décélérations et des accélérations), interagissant immédiatement et pas successivement, l’informatique chercha (ou prétendit chercher) à imiter le fonctionnement du cerveau. Cette imitation ne visait pas une compréhension des fonctionnements biologiques et chimiques du cerveau, qui demeurait une boîte noire. Pourquoi une boîte noire ? Parce que l’on regardait en amont de la boîte les intrants ou entrants (des faits, des classes d’objets, des symboles, des images, des intensités de perception) et à la sortie, en aval, les comportements, entendus comme des réponses ou solutions satisfaisantes. L’intelligence de la boîte cérébrale consistait à fournir une réponse la plus adaptée (pertinence) voire la meilleure possible (principe d’optimisation).

Dès lors, on parla de plus en plus « d’intelligence artificielle ». Autrement dit : de machines dotées de la capacité d’apprendre (machine learning) et de corriger par elles-mêmes des programmes qui permettaient de reconnaître de l’image (celle d’un chat ou d’un piéton par exemple) et d’y associer automatiquement des réponses. En particulier le classement en catégories, les ontologies susceptibles d’être mémorisées, puis de se prêter à un traitement sous formes de suites d’instructions de calcul à opérer, bref les algorithmes.

On découvrit vite que les machines à calculer, les computers en anglais ou ordinateurs en français, avaient une mémoire et une vitesse d’exécution des opérations mathématiques bien supérieures au cerveau biologique, qui oublie ou déforme. Nous comptons très mal. Nous faisons des erreurs grossières dans nos souvenirs, même les plus récents. D’où déjà, sans doute, ce premier fantasme d’une sur-intelligence des machines à calculer. Fantasme de la toute-puissance de la machine qui est réactivé chaque fois qu’Intel annonce que la dernière version de son microprocesseur peut réaliser davantage d’opérations par millionième de seconde que la version précédente. Le dernier avatar de ce vertige quantitatif nous est d’ailleurs fourni par la puissance et la mémoire annoncées de l’informatique quantique.

Privilégier l’intelligence humaine
dans un monde par essence incertain

L’économiste Herbert Simon, Prix Nobel d’économie 1978, avait montré tout cela, mais il avait ajouté une distinction importante. Celle de la rationalité substantive, distincte de la rationalité procédurale : « Le comportement est substantivement rationnel quand il est en mesure d’atteindre les buts donnés à l’intérieur des limites imposées par les conditions et les contraintes données. Notons que, par définition, la rationalité du comportement ne dépend de l’acteur que d’un seul point de vue – celui des buts. Une fois ces buts fixés, le comportement rationnel est entièrement déterminé par les caractéristiques de l’environnement dans lequel il a lieu2. »

Simon, toujours dans le même article, définissait la rationalité procédurale comme suit : « Le comportement est rationnel de manière procédurale quand il est le résultat d’une réflexion appropriée. Sa rationalité procédurale dépend du processus qui l’a généré. Quand les psychologues utilisent le terme «rationnel», c’est généralement à la rationalité procédurale qu’ils pensent. William James par exemple, dans ses Principles of Psychology, utilise le mot «rationalité» comme synonyme de «processus de réflexion particulier appelé raisonnement». Inversement, le comportement tend à être décrit comme «irrationnel» en psychologie quand il représente une réponse impulsive à des mécanismes affectifs sans une intervention adéquate de la pensée.

C’est peut-être parce que la «rationalité» ressemble de trop près au «rationalisme» et parce que la psychologie s’intéresse plutôt au processus qu’au résultat que les psychologues ont tendance à utiliser des expressions comme «processus cognitif» et «processus intellectif» quand ils écrivent sur la rationalité du comportement. Ce changement dans la terminologie pourrait avoir contribué à augmenter le fossé entre les concepts de rationalité substantive et procédurale. »

À l’époque, Herbert Simon voulait montrer que l’économie néo-classique dominante, qui ramenait tout à des problèmes d’optimisation, supposait que l’être humain soit doté d’une intelligence divine, c’est-à-dire de capacités de calcul parfaites et d’une mémoire sans failles, qu’il n’ait pas à raisonner dans un monde incertain, et enfin qu’il dispose de toute l’information nécessaire. Or ces trois postulats ne se rencontrent jamais dans le cas de l’intelligence humaine, intelligence finie, contrainte, entravée (bound rationality). Le propre de l’intelligence humaine est de devoir raisonner et agir dans un environnement incertain. Cet environnement n’est pas simplement risqué, le risque étant calculable, et il doit composer avec des moyens en information faibles et coûteux, ainsi qu’avec un cerveau loin d’être transcendant. La rationalité humaine, expliquait Herbert Simon, n’est pas substantielle, mais procédurale : elle suppose la faculté à s’interroger en permanence sur la procédure à suivre ; à choisir non pas la meilleure possible3, mais la première qui fonctionne en incluant, dans les coûts, ceux de la recherche, du contexte global, de la procédure à suivre et des moyens à disposition. De ce point de vue, la rationalité d’un collectif humain, quand il doit prendre une décision, sera fortement procédurale et pas substantielle. La décision ne relève pas seulement de la rationalité substantielle, mais d’un accord sur la procédure, ce qui au demeurant pourrait être la définition la plus précise du politique.

Herbert Simon avait mis l’accent sur la composante proprement humaine de l’intelligence. Il s’opposait ainsi aux économistes standards, qui s’en tenaient à de l’optimisation de l’utilité marginale du producteur, du consommateur, toutes choses égales par ailleurs (ceteris paribus sic stantibus). Ces économistes-là congédiaient en effet, de façon savante ou cuistre, la complexité du réel, la singularité des situations et toute évaluation lucide des insuffisances de l’hypothèse farfelue de l’homo œconomicus (qui elle-même rejette dans l’irrationnel tout raisonnement autre qu’utilitariste). Constamment, Simon manifesta dès lors son dédain pour les tentatives de réintroduire dans la rationalité limitée qu’il prônait du calcul économique traditionnel (optimisateur et statistique).

Certes, le programme d’automatisation et de calculabilité de la rationalité humaine, dans ses formes complexes de décision collective, pouvait arguer de l’attention que l’informatique accorde par définition au métaniveau du programme et à sa rationalité, bien plus qu’aux problèmes des données. Il y a en effet dans l’algorithmisation du monde une abstraction mathématique qui incite à se poser la question formelle des règles générales qui doivent gouverner les procédures de traitement des données et les normes de calcul. Même si le matériau sur lequel opère le programme informatique est empirique et si le traitement procède par calcul de taux de corrélation (qui ne permet pas de conclure à des causalités), il n’y a pas plus logique et rationnel que le raisonnement informatique.

Il y a cependant deux failles béantes qui séparent l’automatisation des processus rationnels cérébraux de l’intelligence globale humaine, qu’il soit homo sapiens ou homo faber.

Première faille de l’IA : le manque de rigueur méthodologique sur la constitution et le traitement des données

La première de ces failles est remédiable. Elle concerne la rigueur méthodologique en matière de constitution des fameuses données et de toute démarche statistique sérieuse. Ce n’est pas parce qu’il devient relativement facile de calculer vite et à des échelles vertigineuses que tout devient « de la donnée ». Les données résultent toujours, comme par exemple dans le cas de résultats d’enquête d’opinion, d’une construction intellectuelle d’hypothèses, de procédures chargées de peser les biais et de tracer le domaine dans lequel ces « données » peuvent être utilisées, en dehors duquel elles ne sont pas pertinentes.

On sait que Chris Anderson, le rédacteur en chef de la revue Wired4, avait lancé en 2008 une polémique désormais fameuse, en disant que la science de la donnée (entendons s’appuyant sur le big data) rendait inutile la méthode scientifique hypothético-déductive. Pour cette dernière, depuis le XVIe siècle, il y a un abîme infranchissable entre une loi universelle (de type « quel que soit y, on vérifie qu’il obéit à la fonction f (x), f étant une fonction définie et x, une variable ») et l’inférence empirique qui généralisent les résultats d’un nombre fini d’exemples. La méthode inductive, ou sagesse traditionnelle issue de l’expérience, si large soit-elle, n’est pas une preuve scientifique. La méthode expérimentale de la science moderne surgit quand, pour toute relation causale établie dans son universalité, on construit un dispositif qui en montre la fausseté : un seul contre-exemple suffit à détruire le caractère universel de la loi. Or, argumente Chris Anderson « avec suffisamment de données, les chiffres parlent d’eux-mêmes ». Il suffirait selon lui de remplacer, dans la formulation des lois de la science, le domaine de validité (universelle notée n + 1 exemple), donc un nombre infini d’exemples, par un très grand nombre de données, par exemple en grammaire quelques milliards d’occurrences de l’orthographe d’un nom, car n très très grand est voisin de n + 1. Il ressort de cette « petite » correction que dans un monde digitalisé, captant les données en très grand nombre, le raisonnement empirique inductif ne fait plus l’objet d’une malédiction, et que l’on pourrait s’y passer de la théorie en général, donc du raisonnement hypothético-déductif. Une des conséquences, et ce n’est pas la moindre, c’est que, selon Anderson, la mesure des corrélations statistiques peut se substituer sans dommage au raisonnement causal. La décision devrait donc être tirée par les données massives (Big Data Driven Decisions) et plus par la science traditionnelle. Lors cette controverse, trop peu enseignée chez les informaticiens et dans la culture numérique, il fut rapidement établi, en réponse à Chris Anderson, que pour s’appuyer sur des données massives et leur « déluge », leur « tsunami » disruptif, il fallait du « Big Judgement »… et donc à l’inverse une méthodologie impitoyablement hypothético-déductive.

On peut aller plus loin, car ceci nous mène tout droit à l’intelligence dite artificielle ou automatisée. Quand vous vous appuyez, pour raisonner, sur des données massives, il est essentiel de se retourner de façon critique sur les procédures d’établissement desdites données, et de vérifier qu’elles ne contiennent pas un biais, à l’instar des premiers sondages d’opinion aux États-Unis, avant l’élection de 1933, qui se trompèrent totalement sur le résultat car l’enquête avait été effectuée par téléphone alors que le téléphone n’équipait qu’une petite minorité des ménages américains. Aujourd’hui, des Intelligences augmentées par des programmes d’ordinateur, entraînées sur des échantillons biaisés (composés par exemple presque uniquement d’hommes, de Blancs, etc.) vont reproduire des solutions discriminatoires à l’égard des minorités. On peut considérer que les médias, particulièrement la télévision, les médias procédant essentiellement par les images, le son et l’audiovisuel, ne vont pas refléter une opinion publique raciste, mais former en revanche cette opinion publique à énoncer des jugements biaisés. C’est élémentaire, mais bon à rappeler. Tout comme le fait qu’une corrélation si forte soit-elle ne vaut pas causalité.

Dans le domaine de la constitution de l’opinion publique, de la majorité ponctuelle lors d’une consultation électorale, une éthique ou déontologie du numérique, de la « donnée massive », reste à écrire, à enseigner, à pratiquer et à défendre – par exemple en explicitant le « making of » de procédures trop souvent non dites. Car le prix risque d’être très cher à payer, en fake news, voire sous la forme d’un populisme qui n’est pas toujours anti-démocratique et anti-électoral et qui peut virer à la démocratie « illibérale » ou à la dictature plébiscitaire.

On ajoutera que, dans les domaines où règnent l’incertitude radicale, la difficulté conjoncturelle ou intrinsèque de disposer des informations et très peu d’outils testés rationnellement, la règle d’autoréférentialité sert souvent aux humains de gouvernance – voir l’exemple de la monnaie, mais aussi le langage dans ses usages. Prenons l’exemple de la grammaire d’une langue : cette dernière obéit à des règles « logiques » qui font l’objet d’un accord implicite ou explicite. Ces règles peuvent faire l’objet de transgressions délibérées (le style) ou involontaires (les fautes). Une faute répétée par presque tous les locuteurs et scripteurs, comme par exemple faire suivre quoique ou bien que de l’indicatif, peut finir par faire tomber la règle en désuétude.

S’appuyer sur le big data comme le font les automates de traduction (Google, Reverso, etc.), c’est-à-dire sur les usages constatés sur l’Internet, est un bon indicateur de tendances à l’œuvre dans la langue française, mais certainement pas du caractère erroné de cet emploi des propositions subordonnées concessives. Ce qui est en revanche particulièrement pertinent pour ce type d’exemple, c’est que l’interactivité numérique et les traces de cette dernière, stockées dans les données massives, exercent un pouvoir important voire déterminant sur l’accord autoréférentiel. Exactement comme l’existence des Bourses dont les transactions s’effectuent essentiellement en ligne et en réaction souvent automatiques (le fast trading) sont capables de modifier fortement les mécanismes autorégulateurs et requièrent tout un nouveau domaine de régulation et de définitions de procédures de comportement licites ou illicites.

C’est un domaine encore balbutiant mais une longue série de mini-crises (en particulier les crises financières, les crises épidémiologiques suscitant de nouvelles formes de biopouvoir) est en train de faire émerger l’idée qu’une culture numérique comportera nécessairement un volet éthique et pas simplement des modes d’emploi ou d’adaptation aux technologies nouvelles comme on l’entend trop souvent.

Deuxième limite de l’IA : prendre aujourd’hui pour modèle l’intelligence intuitive de l’enfant de moins de 6 ans, qui plus est très difficilement

Le deuxième obstacle qui sépare les processus de décision automatisée dénommés intelligence artificielle des processus cognitifs et décisionnels humains, d’une humanité complète et pas d’autant plus lobotomisée qu’elle met le cerveau à toutes les sauces, est plus difficile à combler. Mais il constitue à notre sens la véritable frontière et le défi actuel du monde numérique.

Nous avons déjà établi au début de cet article, qu’après l’échec du programme de Wiener d’un cerveau humain fonctionnant comme un ordinateur, l’automatisation des décisions humaines s’était tournée vers l’élaboration d’artefacts mathématiques grâce à l’informatique cherchant à « imiter » la façon dont se comporterait le cerveau entendu comme une boîte noire, qui serait confrontée dans la chambre noire de la boite crânienne à des inputs informationnels et produirait des décisions rationnelles. Ce programme d’automatisation se situe en stricte continuité du projet des automates de Vaucanson, des métiers Jacquard à cartes perforées et des machines à vapeur qui permettent aux machines de se substituer aux muscles de la locomotion.

Mais si les muscles se caractérisent par un résultat simple, le mouvement, donc une animation, et que leur fonctionnement est relativement simple (consommation d’énergie et production de contractions et détentes dans l’architecture d’un squelette), pour le cerveau c’est une autre histoire, nettement plus complexe. Dans la modélisation du cerveau comme une boîte noire productive (la technologie cérébrale organique étant inconnue, pour l’instant), le modèle cybernétique du signal et de son traitement a joué un rôle crucial. L’environnement externe et interne, étant composé de signaux fournis par les sens transmis vers la boîte noire, produit avec un délai plus ou moins long (de l’arc réflexe à la décision longuement mûrie et exposée oralement ou de façon écrite) des réactions adaptatives ou transformatrices. Étant donné la variété des conduites humaines, y compris celles dites habituelles, communes, sensées, rationnelles (sans compter celles qui sont déviantes de la « normalité »), le projet trop ambitieux de remplacer le cerveau humain en bloc s’est rapidement subdivisé en des programmes plus régionaux, exposant les typologies de l’intelligence, telle que les sciences neuro-cognitives les fournissaient. De la localisation des fonctions cérébrales de Broca, aux niveaux ou genres d’intelligence produits par le cerveau, jusqu’aux débats sur la plasticité cérébrale.

Les premières opérations cérébrales qui ont été mimées par l’informatique sont des opérations logiques et mathématiques formelles assez simples, du type de l’inférence logique, du classement, de la mesure, des tableaux à double entrée. On y ajouta également des opérations numériques et, ce qui est assez différent, l’inférence logique, l’exigence de généralisation (sous forme de règles statistiques) puis la maturité rationnelle étudiée par Piaget au cours de ses face-à-face pendant plusieurs années qui conduit l’enfant de 7 ans à 12 à maîtriser le raisonnement, la reconnaissance et la capacité d’expliquer ses propres erreurs. On s’accorde (à condition de souligner le rôle central dans le bon fonctionnement de ces processus du corps intermédiaire entre les deux hémisphères cérébraux) à parler d’un rôle décisif du cerveau gauche5. Celui-là même qui est affecté dans la perception analytique, en particulier des lettres dans l’écriture.

Si la rationalisation du travail a pu s’appuyer aisément sur ces « automatismes » pour remplacer partiellement du secrétariat ou commander le rythme global du travail d’exécution par planification, les résultats de ces embryons d’intelligence analytique assistée par ordinateur ont donné très peu de résultats dans les fonctions sensori-motrices, même très simples, dans un environnement changeant et complexe.

C’est alors que se fit jour un programme beaucoup plus ambitieux qui tirait parti de l’évolution des connaissances en neuro-cognition des enfants dès avant l’âge de raison. Comment des enfants, dès leur plus jeune âge, arrivent-ils à apprendre le langage, à acquérir des facultés cognitives indéniables (reconnaissance de visages dès trois semaines, une coordination sensori-motrice dans l’espace) ? Autrement dit, le programme d’automatisation informatique s’est tourné vers le cerveau dans ses premiers développements après la naissance, visant à imiter et reproduire les comportements enfantins.

Cela correspondait tout à fait à la transduction décrite par Anderson : l’enfant va apprendre à réaliser toute une série d’opérations sans avoir les connaissances analytiques, par exemple la compréhension des nombres. Au reste, nombre de vivants animés, donc des animaux apprennent à faire sans comprendre. Le principe des machines apprenantes (machine learning) reproduit en moins rapide ce que fait l’enfant. L’enfant très jeune n’a besoin que de quelques exemples pour reconnaître un même visage, alors que la machine, qui ne comprend rien à ce qu’elle fait, y parviendra au bout d’un bien plus grand nombre d’exemples maintes fois répétés par la méthode de l’essai / erreur. Qui plus est dans des limites assez fortes, puisque au-delà d’un angle de 16o l’image d’un visage n’est plus reconnue comme appartenant à la même personne, alors que le petit d’homme, comme tous les animaux qui constituent des proies, apprend à reconnaître un vivant même de dos. Et ce grâce aux neurones miroir bien utiles dont l’ersatz de cerveau machine est totalement dépourvu actuellement.

Il reste qu’en faisant sauter le verrou de la « rationalité », en réhabilitant le rôle de l’imitation minée par une machine qui n’a aucune empathie contrairement au vivant, ce programme connexionniste (par opposition au programme d’intelligence artificielle symbolique) est parvenu à des résultats spectaculaires. Comme le dit modestement Yann Le Cun qui pilote les programmes d’IA chez Facebook, l’âge de mes automates n’est pas supérieur à six ans d’âge mental. C’est peu, s’il s’agit de rationalité ou de ce que l’on réservait (à tort) au vocable d’intelligence. C’est beaucoup quand on pense à ce que peut le corps d’un enfant de six ans, langage inclus.

Ce programme de recherche connexionniste est aussi appelé celui des réseaux de neurones. Conformément au « comme si » qui gouverne le deuxième âge de l’intelligence assistée par ordinateur, il ne s’agit pas de neurones comme réalité biologique et chimique, car ce rapprochement n’est qu’une métaphore. Il ne s’agit donc que d’une transposition caractérisée par l’hypothèse : tout se passe comme si les instructions informatiques assemblant des programmes, les exécutant, les corrigeant, traitaient les données de la même façon que les neurones biologiques traitent l’information. Ce n’est que très récemment6 que la recherche en informatique essaie de construire un nano-neurone artificiel pour de bon. Le véritable air de famille, plus structuraliste à la Lévi-Strauss que biologique et neurologique, tient à ce que nous avons exposé plus haut de la réhabilitation de l’induction généralisante. Avec l’avènement des données massives, il devient possible de mimer dans son principe cette première forme d’intelligence humaine. Il est probable que cette intelligence mineure doit être réhabilitée alors qu’elle a fait l’objet d’un solide mépris cartésien et « rationaliste » dans l’éducation nationale française.

Renouer avec un certain type d’intelligence symbolique ?

La deuxième grande école de l’Intelligence dite artificielle, est l’intelligence symbolique, qui ne se satisfait plus des résultats partiels du programme d’imitation du cerveau gauche et qui s’attaque désormais à la complexité, aux facultés synthétiques et enfin à la conscience de soi dans ses avatars les plus transhumanistes.

Avant d’exposer certaines des lignes de clivage qui la traversent, revenons sur le cerveau droit comme siège des facultés d’aperception du tout différent de la somme des parties (donc du complexe), de la production de synthèse, de connaissances qui excèdent (débordent, enveloppent ou minent comme on voudra) la certitude cartésienne qui allie le clair et le distinct, ce que Leibniz comme Spinoza récusèrent. Pour faire vite, disons que le dessin industriel recourt au cerveau gauche de façon dominante, tandis que le dessin artistique suppose comme dans le piano que la main gauche soit capable de jouer séparément de la main droite, que la main cesse d’obéir au cerveau gauche analytique et suive directement le cerveau droit et exprime dans un trait synthétique la vérité d’un caractère (la caricature est une modalité de cette connaissance).

Il peut paraître tentant de chercher à modéliser en un programme informatique, par exemple un logiciel de dessin, la vérité du portrait d’une œuvre artistique. Ou bien, plus modestement, de remplacer un tastevin (ou tâte-vin) qui arrive à reconnaître à la dégustation les millésimes et la marque de grands vins. On voit que l’expertise humaine dans ce qu’elle a de plus rare et de plus idiosyncratique est dans la ligne de mire de l’automatisation de l’intelligence. Plusieurs essais de fabrication automatique par robot de la bande-annonce de films ont été réalisés et comparés au travail réalisé par des scénaristes. De fait, on est très loin d’un résultat probant, et les scénarios de films réalisés avec l’assistance d’ordinateurs (comme la suite de la Guerre des Étoiles par les studios Disney) tiennent plus du pastiche, ce qui est déjà honorable, et tiendront dans peu de temps de la combinatoire plus ou moins cultivée, donc finalement de l’académisme au meilleur sens du terme, donc plus d’un programme d’éducation et de formation artistique que de l’œuvre créatrice, novatrice à proprement parler.

Le principal chemin emprunté par l’intelligence symbolique assistée par ordinateur demeure celui de l’exploration de données massives sur les comportements humains (rendue possible par l’Internet généralisé sur les plateformes participatives et l’Internet des objets) de façon à rechercher des lois éventuelles collant le mieux à ces données. Ce qui suppose évidemment que les données soient cohérentes, correctes et non biaisées involontairement ou volontairement.

On peut parvenir à lire dans les données massives des tendances ou des lois de comportement qui ont échappé jusqu’ici au champ de l’investigation rationnelle.

Une branche particulièrement intéressante du programme de l’intelligence artificielle s’intéresse en amont aux définitions de la rationalité et de la logique. La méthode de la recherche de corrélation statistique demeure prisonnière d’une logique aristotélicienne du tiers exclu. Comme on a pu montrer que des géométries non euclidiennes, celles qui n’acceptent pas le cinquième postulat d’Euclide comme celle de Lobatchevski (1829) ou de Riemann (1869), étaient parfaitement cohérentes, des logiques et mathématiques qui s’affranchissent du principe du tiers exclu sont parfaitement viables (voir les travaux de Zadeh (1965), de Kaufman et Gupta, et de Zyed Zalila). Un énoncé peut être la fois vrai et faux. Ce type de logique mathématique est particulièrement intéressant pour modéliser des situations complexes. Il a donné lieu à des résultats très probants dans le domaine de l’automatisation de l’opération qui consiste à garer une voiture ainsi que dans divers domaines relevant de la perception complexe du goût.

Vers un troisième âge de l’IA, s’appuyant sur toute l’intelligence humaine… dont celle qui naît entre 12 et 19 ans

Néanmoins, dans son programme d’imitation des conduites humaines comme la prise de décision en situation complexe, il demeure des ambiguïtés que seul un retour sur l’analyse récente des composantes de l’intelligence humaine peut permettre de lever à l’avenir.

Le paradigme cérébral de l’intelligence automatisée emprunte le plus souvent son armature logique à la définition que donne Stanislas Dehaene du traitement de l’information. Il écrit en effet : « Créer un modèle de traitement de linformation, cest la manière qu’a notre cerveau de scientifique pour essayer de se comprendre lui-même. L’évolution du cerveau a créé un système qui est capable dinternaliser, cest-à-dire de faire des modèles internes et de développer des algorithmes biologiques, qui sont peut-être différents de ceux qu’on voit dans un ordinateur, mais des algorithmes tout de même. Et qui dit algorithme, dit capacité de le reproduire dans une machine dune autre nature, en silicone par exemple7. »

Or ce postulat qui se retrouve dans toutes les branches de l’IA connexioniste comme symbolique, bute sur une théorie de l’intelligence humaine et de ce qui lui est propre, qui a été radicalement remise en cause par les travaux d’Olivier Houdé dans son livre L’intelligence humaine n’est pas un algorithme 8. En résumant très sommairement les travaux de ce chercheur spécialiste du développement cognitif de l’enfant, on peut dire qu’il corrobore d’un côté les deux types d’intelligence humaine jusqu’ici imitées par l’informatique, celle sensori-motrice de zéro à 6 ans, celle de Piaget de 7 à 12 ans. Mais de l’autre, il en souligne les limites : dans le modèle connexioniste, la reconnaissance d’image joue un rôle déterminant. Or le modèle piagétien, correspondant à l’aspect le plus complet de son travail critique, laisse de côté ce qu’il appelle le troisième système de l’intelligence qui ne se met en place que tardivement, entre 12 et 19 ans, et qu’il appelle le système de la résistance cognitive, ou la faculté inhibitrice qui permet à l’humain complètement développé de résister à ses impulsions et émotions sensori-motrices, mais aussi au système 2 que l’on peut nommer rationnel ou piagétien. Ce troisième système, situé dans le cortex préfrontal, joue un rôle décisif dans la prise de décision responsable.

Ce système d’inhibition joue par exemple un rôle dans l’apprentissage de la lecture, quand l’enfant doit apprendre à résister à la fonction de ses neurones miroir qui lui font refuser a priori de distinguer un p d’un q et un b d’un d (expérience intervenant dans la dyslexie mise en évidence par son collaborateur Grégoire Boorst). Autrement dit pour dépasser les réflexes sensori-moteurs, il faut désapprendre.

Mais ce troisième niveau de l’intelligence est aussi celui qui apprend et incorpore les valeurs (à commencer par le respect de la vie de l’autre, constitutive de la conscience de soi, l’empathie rationnelle, le désintéressement, le sens de ce qui est interdit et de ce qui est une transgression).

Or ces valeurs ne sont ni des algorithmes, ni des propriétés logiques ou mathématiques. Rien n’est plus rationnel qu’un tueur en série, ou un fou dont le délire est structuré de façon admirablement et monstrueusement logique. Autrement dit, l’intelligence accomplie comprend la dimension éthique, celle de la loi, du surmoi social.

On peut prolonger la remarquable démonstration de Houdé : ce n’est qu’en prenant en compte ce troisième étage de l’intelligence, celui qui nous constitue comme humain et non comme dieu qui joue aux dés mathématiques, ou comme enfant innocent, que l’informatique dans son automatisation de l’intelligence humaine obtiendra des résultats plus satisfaisants. Comment ? Sans doute en revenant au traitement automatique du langage qui n’est ni un pur signal émotionnel (fût-il codé en émojis), ni un algorithme logique. Les codes de l’humain en société ne s’impriment en notre cerveau et dans le cerveau collectif et ne nous servent comme ultime outil de décision que grâce au langage et aux connaissances non discursives ou algorithmiques.

Sans culture, pas d’éthique non plus.

Sur de telles bases pourrait naître un troisième âge de l’intelligence assistée par le numérique, et il devrait être bien autre chose que la fantasmagorie du transhumanisme.

1 Pierre Papon , « Le cerveau fonctionne-t-il comme un ordinateur ? », in Futuribles 2020/1 (no 434), p. 109-116.

2 Herbert Simon (1973), « De la rationalité substantive à la rationalité procédurale » : http://archive.mcxapc.org/docs/lesintrouvables/simon5.htm

3 Selon notre entendement humain, et pas un entendement divin sur le principe « Non le nôtre il est vrai », comme le disait Kant dans sa troisième Critique de la Faculté de Juger.

4 Chris Anderson, « The End of Theory : the Data Deluge Makes the Scientific Method Obsolete », Wired Magazine, 16/07/2008.

5 Lucien Israël, Cerveau droit, cerveau gauche, Paris, Plon, 2013.

6 Hugo Leroux, « Demain, un ordinateur inspiré de notre cerveau ? », Le journal du CNRS, @ https://lejournal.cnrs.fr/articles/demain-un-ordinateur-inspire-de-notre-cerveau ; voir aussi le projet Human Brain Project financé en 2013 par l’Europe qui visait à simuler grâce à un super-ordinateur dans ses ambitions initiales le fonctionnement global du cerveau humain, consulté le 12.01.2018.

7 Cité par Rewan Cario « L’étoffe de neurones », Libération, 17 octobre 2018 :

www.liberation.fr/debats/2018/10/17/l-etoffe-des-neurones_1686075

8 Olivier Houdé, L’intelligence humaine n’est pas un algorithme, Odile Jacob, 2019.