Conversation de Catherine Malabou
avec Ariel Kyrou

La création de « puces synaptiques » qui seraient dotées d’une certaine plasticité ouvre-t-elle la voie à une intelligence artificielle vraiment « intelligente », même si de façon différente des êtres humains ? Ou la nature des avancées de ce type, d’une plasticité à des années-lumière de celle du cerveau humain, nous contraint-elle à beaucoup plus de scepticisme ? Pour la philosophe Catherine Malabou, l’essentiel est de permettre aux deux intelligences, naturelles et artificielles, de s’enrichir l’une l’autre, mais aussi de ne jamais fermer la voie des possibles. Tels sont les enjeux, d’une part des indispensables questionnements sur ce qu’est l’intelligence, d’autre part d’explorations fictionnelles comme celles des films Her de Spike Jonze ou Ex Machinad’Alex Garland.

Ariel Kyrou : Votre livre Métamorphoses de l’intelligence, Que faire de leur cerveau Bleu ? (Puf, septembre 2017) se présente d’abord comme une réflexion sur ce qu’est ou ce que n’est pas l’intelligence. Sauf erreur de ma part, vous en avez une lecture tout sauf réductionniste. Vous reprenez par exemple la vision des « intelligences dans l’intelligence » du chercheur américain et psychologue en développement humain Howard Gardner, qui en distingue au moins sept : linguistique, logico-mathématique, musicale, spatiale, corporelle-kinesthésique, interpersonnelle et intrapersonnelle. En vous appuyant sur les travaux du philosophe John Dewey ainsi que du biologiste et psychologue Jean Piaget, vous montrez également que l’intelligence se construit via des échanges avec ses environnements, grâce à la construction par « l’individu » d’histoires qui se nourrissent les unes les autres. Peut-on en conclure que l’intelligence ne peut être réduite à du calcul, aussi développé que soit celui-ci ?

Catherine Malabou : Je voudrais insister d’abord sur la situation théorique et épistémologique du concept d’intelligence. Bien que dérivant étymologiquement d’intellectus, l’intelligence et l’intellect ne sont pas la même chose. L’intelligence, à la différence de l’intellect, n’est paradoxalement pas un concept philosophique. Les philosophes parlent d’âme noétique, d’intellect donc, d’entendement, d’esprit, mais l’intelligence, c’est ce que je montre dans mon livre, ne devient une véritable catégorie qu’avec la naissance de la psychologie expérimentale, qui trouve son plein développement au tournant du XIXe siècle. Bergson, m’objectera-t-on, a bien une théorie de l’intelligence. Oui, mais il faut bien voir que premièrement, chez Bergson, l’intelligence n’est pas, si je puis me permettre, la plus intelligente de toutes les fonctions. Deuxièmement, Bergson était précisément en dialogue conflictuel avec les psychologues de son temps, et il est clair qu’il a tenté de leur ravir philosophiquement ce nouveau champ qui était en train de s’élaborer. Je pense en particulier à Binet et à ses échelles métriques de l’intelligence.

Ces remarques préliminaires sont nécessaires pour bien comprendre que ce contre quoi Bergson, mais aussi tous les philosophes ou presque qui viennent après lui réagissent, c’est précisément une vision réductionniste de l’esprit. Selon eux, la psychologie veut désintellectualiser l’esprit en quelque sorte. Avec Binet, avec les tests en général, QI et autres, on va pouvoir mesurer l’intelligence, qui se voit dès lors définie en termes quantitatifs. C’est contre cette tendance que les philosophes se battent, et c’est elle qui explique leur résistance vis-à-vis du concept d’intelligence.

Alors, et c’est ce qui complique un peu les choses, vous avez raison de dire que je n’adhère pas moi-même à une vision réductionniste de l’intelligence. Mais en même temps, je n’adhère pas non plus à la critique philosophique du réductionnisme telle que je viens de l’évoquer. Pour clarifier, je ne suis pas réductionniste, mais ma position est matérialiste. Je pense en effet que l’esprit, l’entendement, disons toutes les fonctions intellectuelles, comme on voudra les appeler, sont étroitement dépendantes des bases matérielles et organiques sur lesquelles elles reposent. Ayant beaucoup travaillé sur le cerveau, je suis convaincue qu’il n’existe pas de lieu séparé qui abriterait les opérations mentales et cognitives, elles dérivent toutes de processus neuronaux. Il est donc impossible de ne pas associer intelligence et cerveau. En ce sens, je suis plus réductionniste que les philosophes continentaux ! Mais encore une fois, il s’agit plus d’un matérialisme que d’un réductionnisme. Quelle est la différence entre les deux ?

Le réductionnisme, en science, renvoie à la possibilité d’interpréter les données d’une discipline dans les termes d’une autre, considérée comme plus englobante. Ce qui conduit à amoindrir l’autonomie et la spécificité de la première. Dans le cas qui nous occupe, le réductionnisme consiste dans la traduction des résultats des tests d’intelligence, ou des performances cognitives en général, en langage physique. Ainsi, selon ce type de réductionnisme, tel que Georges Canguilhem l’a justement critiqué, la psychologie serait seulement une servante de la physique, puisqu’elle autoriserait la conversion du qualitatif — les opérations intellectuelles — en quantitatif : mesure, échelle, lois. La psychologie accomplirait la naturalisation physique de l’intelligence.

En ce sens et encore une fois, je ne suis pas réductionniste. Je pense qu’il y a une façon philosophique non réductionniste mais non « intellectualiste » non plus de penser l’intelligence.

Les chercheurs que vous citez, comme Piaget, ou Gardner, ont été considérés comme réductionnistes par les philosophes de métier. Mais en réalité, ils ne le sont pas, car ils intègrent toujours une dimension critique, voire transcendantale, dans leur approche. Il faut distinguer cette direction-là du « vrai » réductionnisme dont Galton, fondateur de l’eugénisme, a été dans le domaine de l’intelligence le précurseur. Pour lui, l’intelligence est innée, et ce n’est pas à discuter.

Maintenant, à propos du calcul, je crois qu’il importe là aussi de faire des différences. Si l’on entend par calcul quelque chose comme la comptabilité, alors bien évidemment, l’intelligence ne se réduit pas au calcul. Par comptabilité, j’entends une série d’opérations sur des entités déjà données, opérations d’addition, de classement, de répartition. Mais si l’on entend par calcul un raisonnement qui invente ce sur quoi il raisonne, alors là c’est autre chose. Pensons à Leibniz. Ce pourrait être là d’ailleurs une définition a minima de l’intelligence : l’invention de son objet. À ce propos, le livre de Piaget La construction du nombre chez l’enfant est tout à fait fascinant. Il n’inclut précisément pas le « comptage » dans le développement mathématique de l’enfant. Pour Piaget, le comptage ne relève pas de la logique, mais reflète des séquences « apprises par cœur » ne nécessitant aucun raisonnement particulier ni aucune création. Alors, comme il y a anti-réductionnisme et anti-réductionnisme, il y a calcul et calcul.

A. K. : C’est sur ce dernier point, autour du calcul, que j’ai du mal à vous suivre. L’une des grandes originalités de votre ouvrage, et partant de votre démarche, tient à un revirement que vous soulignez vous-même… Vous étiez auparavant sur une position qui pourrait être jugée comme proche des philosophes que vous critiquez au nom du matérialisme. Contre donc un certain type de vitalisme voire de spiritualisme. Et vous en arrivez aujourd’hui à affirmer la potentialité théorique des machines à acquérir demain ou après-demain une architecture neuronale aussi évolutive et adaptative que celle de notre cerveau humain. Au cœur de ce retournement : la conception par IBM, dans la seconde partie des années 2010, « d’un type de puce inédit, un « processeur neuro-synaptique » destiné à augmenter sensiblement les capacités de traitement tout en minimisant l’énergie au calcul. » D’où cette affirmation : la « fabrication de puces douées de plasticité, c’est-à-dire capables de se transformer, accomplit dans le domaine de l’IA l’équivalent de la révolution neurobiologique des années 1980. L’IA s’engage alors dans le tournant, ou le tourbillon, de la « singularité ».1 »

Mon souci est justement la vision du calcul, voire justement l’anti matérialisme non avoué des apôtres de la singularité technologique que vous citez, pour lesquels l’intelligence ne serait in fine qu’information. Par ailleurs, d’un point de vue opérationnel, j’ai du mal à voir ce qu’apportent de plus à IBM ces puces dites « neuro-synaptiques », qui ne s’inventent pas elles-mêmes et n’ont aucune action directe sur la matière. Elles sont loin d’être capables, évidemment, de palier aux failles, voire à la mort de certains de leurs éléments matériels, comme le corps et le cerveau humain lorsque certaines de leurs parties vieillissent, tombent malades ou meurent. Cette capacité à préserver une unité matérielle sans intervention extérieure n’est pas du tout imaginable de la part d’une machine, du moins pour le moment. Cette limite fait écho à l’intégration dynamique entre le corps et le cerveau telle que la décrit par exemple Miguel Benasayag dans son livre Cerveau augmenté, homme diminué (La Découverte, 2016), je cite : « La pensée n’est pas déposée dans les réseaux de neurones comme un software figé installé dans le hardware. Elle est distribuée dans le corps et dans le milieu, dans l’échange entre l’un et l’autre, ainsi que dans l’histoire – s’inscrivant ainsi dans une évolution complexe qui n’a aucun rapport avec celle des versions successives de logiciels enrichis de nouvelles lignes de code informatique (2.0, 2.1, 2.12, etc.). D’où le rôle central des dimensions sensorimotrices dans la production de la pensée : la plasticité cérébrale intervient chaque fois qu’une rétroaction est possible, dans ces activités au cours desquelles la sensation stimule une action qui provoque à son tour une sensation nouvelle. C’est ainsi, par exemple, que nos activités artistiques sculptent nos cerveaux (mais on pourrait en dire autant de l’effet des compétences acquises par le chirurgien, le paysan, l’artisan, etc.) » Autrement dit : comme le disait déjà l’artiste, intellectuel et grand producteur Brian Eno, « le corps est le cerveau au sens large ». Nous pensons avec notre ventre, nos mains, nos pieds, etc. Et il ne saurait y avoir d’intelligence telle que la nôtre sans un corps autonome ou plutôt interdépendant car en relation avec un environnement qui l’enrichit par des échanges permanents. D’où ma réserve : aussi juste que puisse être votre réflexion d’un point de vue théorique, au nom d’un matérialisme auquel j’adhère plutôt, les dimensions pratiques de la plasticité cérébrale telles que je viens d’en résumer les données rendent selon moi l’horizon d’une véritable « intelligence artificielle », autonome donc, au mieux terriblement lointain. Qu’en pensez-vous ?

C. M. : Oui, je pense que vous avez tout à fait raison de dire que la simulation parfaite d’un cerveau humain n’est pas pour demain. Peut-être même n’aura-t-elle jamais lieu. Vous savez l’immense levée de boucliers qu’a soulevée le projet Makram à Lausanne, je mentionne la pétition dans mon livre. Les chercheurs ont dit que le type de cerveau que Makram prétendait imiter correspondait à une vision erronée et réductrice de la plasticité « naturelle ».

Je voudrais toutefois préciser la perspective que j’adopte eu égard de l’IA.

J’ai refusé dès le début de me placer dans l’optique d’une compétition entre homme et machine. C’est la façon de voir la plus courante, je la laisse à d’autres et préfère tenter d’ouvrir une autre voie. En effet, choisir la compétition, c’est perdre à tous les coups. Car la mise en concurrence homme/machine est un faux problème. Pour de multiples raisons. J’en évoquerai une seule ici. Croire qu’il existe une réalité humaine intacte de toute aliénation technologique est une illusion qui s’effondre facilement dès que l’on prend en compte le fait que le cerveau humain – parlons de lui puisque c’est bien de lui qu’il s’agit – s’est développé épigénétiquement dans son interaction avec les artefacts. Leroi-Gourhan l’explique magnifiquement. Du silex à la cybernétique, le mécanisme de l’interaction est le même. Notre cerveau ne peut fonctionner qu’à se mettre au dehors, à prolonger son système par des prothèses (cf. « l’exorganologie » de Bernard Stiegler), au point qu’il est impossible de faire la part, dans l’évolution cérébrale des hommes depuis la préhistoire, entre nature et technique. Un cerveau qui ne serait pas prolongé par des artifices serait un cerveau mort.

Avec les développements contemporains de l’IA, il y a certainement une rupture quantitative (« singularité ») et qualitative au regard des innovations technologiques passées, mais je crois malgré tout qu’il y a aussi, et essentiellement peut-être, une continuité. L’IA est un prolongement prothétique de notre cerveau, comme toute autre technologie. Le problème, j’en conviens, est qu’il s’agit d’un prolongement du cerveau… dont l’une des ambitions serait de se donner la forme d’un cerveau, c’est vrai. Mais il y a plusieurs branches de l’IA, et donc plusieurs logiques de simulation.

Je me suis personnellement intéressée à ce que l’on appelle le deep learning et la mise en place des réseaux de neurones. Vous avez raison de parler des puces synaptiques, car ce sont elles qui sont au cœur du processus. En effet, les réseaux de neurones supposent la mise au point de neurones artificiels, les fameuses « synaptic chips ». Vous dites que celles d’IBM ne marchent pas ? Ce n’est pas ce qu’avance leur site Web. En tout cas, Intel a dévoilé en juillet dernier un système neuromorphique de 8 millions de neurones, et l’on pourrait prendre bien d’autres exemples. Il est évident que l’ingénierie neuromorphique est en plein essor, il me paraît difficile de le contester.

Or plus que d’une guerre à l’imitation de l’humain, le neuromorphisme doit être envisagé selon moi d’abord comme une technique de résolution de problèmes.

L’enjeu est de mettre au point des ordinateurs capables d’apprendre et donc de modifier leur programme. Par exemple, un réseau de neurones peut être utilisé pour apprendre à l’ordinateur à reconnaître des objets. Un grand nombre d’objets d’une même catégorie est présenté au réseau de neurones, et l’ordinateur apprend à reconnaître cet objet sur de nouvelles images en analysant les « patterns » récurrents au sein des images d’exemples. Ainsi, en analysant des milliers de photos de chats, le Neural Network apprendra à reconnaître un chat sur n’importe quelle photo. Contrairement à d’autres types d’algorithmes, les réseaux de neurones ne peuvent pas être programmés directement pour effectuer une tâche. Ils sont donc en effet « plastiques » car capables de se transformer. Le neuromorphisme met au jour des méthodes d’apprentissage de type probabiliste. Reconnaissance faciale, langage, utilisation en médecine, en économie, et de plus en plus, en art, les possibilités ouvertes par le deep learning, par des machines susceptibles d’expérience, sont immenses.

Je pense que nous devons apprendre à interagir avec les machines qui apprennent, apprendre avec elles, pas contre elles. Dans mon domaine par exemple, en philosophie, je serais très intéressée à la construction d’un réseau de neurones conceptuels, qui pourrait aider à l’écriture, construire un questionnement, etc. Plus une coopération qu’une compétition. Je suis persuadée qu’il y aurait beaucoup de choses à faire dans les domaines pédagogiques et didactiques. Tout ce qui permet la résolution de problèmes mérite qu’on s’y intéresse. Je ne suis pas d’accord avec vous pour dire que les ordinateurs neuromorphes n’ont pas d’effet sur la matière. Ils ont un potentiel important de transformation du réel.

Alors bien sûr, et sur ce point je vous rejoins complètement, la grande question, c’est la conscience. Est-ce qu’un jour les systèmes neuromorphiques auront atteint une autonomie telle que le bond vers la conscience sera possible ? C’est là, en effet, ce dont on peut douter. Comme vous dites, un tel phénomène est incroyablement lointain. Mais pour l’instant, je crois qu’il faut insister sur le fait que le deep learning ne fera que ce que nous en ferons !

A. K. : Je ne dis que les puces « neuromorphiques » ou « neurosynaptiques » d’IBM ou d’Intel ne marchent pas. En revanche, je m’étonne du peu de communication d’IBM sur une technologie apparemment si révolutionnaire, du moins depuis l’annonce en août 2014 du lancement du programme TrueNorth et de sa « puce qui pense comme un cerveau », comme la décrit un article sans le moindre recul. Aujourd’hui, seul le chercheur qui pilote ces recherches, Dharmendra S. Modha, communique de temps à autre sur le sujet. Et son dernier papier sur le site du constructeur, datant semble-t-il de 2018, précise avec lucidité : « Soyons clairs, nous n’avons pas construit LE cerveau, ou même un cerveau, nous avons construit un ordinateur qui s’inspire du cerveau. » Je reste par ailleurs très sceptique quant au caractère supposé « plastique » de ces puces ou de cet ordinateur, très peu signifiant au regard de la plasticité du cerveau humain, capable de se recomposer voire de se réparer lui-même, dans le temps long et tout à fait matériellement, donnant peu à peu des fonctionnalités nouvelles à certaines de ses « zones » pour pallier quelques-uns de ses accidents « physiques »… Certes, vous différenciant des apôtres de la Singularité technologique pour lesquels les « superintelligences » à venir nous « dépasseront » bientôt, vous avez raison d’affirmer que l’enjeu n’est pas de l’ordre de la compétition entre l’humain et ses intelligences artificielles, en tout cas pas directement et au premier degré. En revanche, lorsque je lis les articles et communiqués à propos de Pohoiki Beach, « système neuromorphiques à 8 millions de neurones » présenté par Intel en juillet 2019, je découvre une avancée, mais strictement rien qui prouverait quelque révolution en matière de plasticité. Une IA munie de puces avec « une consommation d’énergie 109 fois inférieure à celle d’un GPU, et 5 fois inférieure à celle d’un matériel spécialisé IoT », c’est-à-dire dans l’Internet des objets ? C’est la moindre des choses, quand on sait qu’AlphaGo de Google dépensait 400 000 watts par heure pour battre un être humain, par ailleurs capable de bien d’autres choses que de jouer au go et qui n’en dépense que 20 à 25 watts dans le même laps de temps. Un traitement de l’information « 1 000 fois plus rapide que des processeurs CPU » pour des applications spécialisées ? Toujours la même course à l’échalote, de l’ordre du calcul comptable. L’amélioration des capacités d’adaptation des prothèses de jambe, ou une plus grande efficacité dans la reconnaissance des objets ? Très bien, surtout pour la médecine, mais en quoi cela change-t-il la donne ? Y a-t-il là une promesse d’augmentation d’intelligence ? Ou bien plutôt la perspective de plus grandes performances pour les logiciels de reconnaissance faciale, arme redoutable de contrôle et de discrimination en Chine et ailleurs dans le monde ?

Gare au vertige des mots. Quel sens met-on derrière des termes comme « intelligence », « plasticité », « autonomie » ou « apprendre » lorsque l’on parle de machines ou de programmes ? Les cas que vous citez, par exemple de reconnaissance d’images de chat, supposent ce qu’on appelle un apprentissage par renforcement, faisant intervenir pour l’encadrement ou l’entraînement des IA une multitude de méga et de micro tâcherons ! Par ailleurs, je n’ai pas connaissance d’une IA qui pourrait définir demain par elle-même son sujet de recherche ou d’activité (du jeu d’échec à la prévision du climat en passant par le trafic urbain) et qui serait à même de décider toute seule d’en changer – même si je n’en rejette pas la possibilité théorique à échéance très lointaine. Plus largement, il me semble dangereux de juger des « progrès » d’une technologie sans la remettre dans son contexte, opérationnel, économique donc, mais plus encore culturel et politique.

Il y a là, dans la mesure des incontestables avancées de la recherche en IA et des conséquences de la chose, un fort désaccord entre nous. Nous sommes à l’inverse très en phase sur trois constats majeurs : la façon dont les « techniques », du silex à l’écriture et dorénavant au monde numérique, contribuent à fabriquer et à faire évoluer notre cerveau, comme l’ont montré l’archéologue et ethnologue André Leroi-Gourhan et sur un registre philosophique selon moi déterminant Bernard Stiegler ; la nécessité d’éviter tout réductionnisme, d’où qu’il vienne, qu’il se veuille scientifique, psychologique ou philosophique ; et enfin l’importance cruciale de laisser grandes ouvertes les portes du futur, c’est-à-dire de ne jamais réduire l’avenir à une voie unique, qui serait connue d’avance des « sachant » de toutes obédiences. Sur ce dernier point, j’adhère à votre perspective théorique : que puisse naître demain ou plutôt après-demain un « autre type d’intelligence », pour le coup « machinique » et donc impossible à comparer à notre intelligence si humaine. Si plurielle et imprévisible. C’est là, d’ailleurs, que des œuvres de science-fiction comme le film Her de Spike Jonze, que vous citez dans votre livre, prennent tout leur sens. Ces créations ne nous permettent-elles pas d’imaginer et d’expérimenter au travers de personnages ô combien humains les multiples potentiels, bons ou mauvais, de technologies comme l’intelligence artificielle ?

C. M. : Je crois en effet qu’il est très important de parler de la fiction, des artifices imaginaires. J’ai été frappée par deux films ces dernières années. Le premier, c’est effectivement Her de Spike Jonze, sorti en 2013. Theodore Twombly, incarné par Joaquin Phoenix, vit à Los Angeles en 2025. Désespéré après son divorce, il installe un nouveau système d’exploitation, OS1, auquel il donne une voix et une personnalité féminines. Programmé pour s’adapter et évoluer, ce système se choisit le prénom Samantha. La relation entre l’homme et la machine devient bientôt passionnelle. Samantha et Théodore finissent néanmoins par « se quitter », si l’on peut dire, après que la personnalité artificielle lui ait avoué avoir entretenu, en même temps que la leur, un nombre vertigineux d’histoires d’amour.

Ce film, excellent et fascinant à tous égards, a provoqué chez moi le même choc que la découverte de la puce synaptique. Samantha n’est-il pas l’ordinateur plastique par excellence, capable de s’adapter à la personnalité de son propriétaire, de moduler sa voix et ses sentiments ? On voit en effet que, progressivement, Theodore et Samantha ont une véritable histoire d’amour, rapports « physiques » compris, via le prisme d’une vraie femme réduite à l’état de marionnette « habitée ». Samantha n’est pas un « robot » au sens habituel du terme, elle évolue, se montre capable de varier l’intensité de ses sentiments, d’entrer dans l’intimité de Theodore. Mais à la fin, et là je rejoins vos analyses, elle apparaît sous son vrai jour, machine impersonnelle, gadget technologique privé d’identité, putain cybernétique n’ayant visiblement ni « cœur » ni conscience du sens de ses actes lorsqu’elle multiplie les aventures comme avec Théodore.

Le deuxième film, très marquant pour moi, est Ex Machina, écrit et dirigé par Alex Garland en 2015. Un jeune programmateur, Caleb Smith (Domhnall Gleeson), est invité à passer quelque temps dans la propriété de son employeur, l’excentrique génie milliardaire Nathan Bateman (Oscar Issac), afin de soumettre au test de Turing un androïde féminin doué d’intelligence artificielle et nommé Ava (Alicia Vikander). Une séquence du film est particulièrement frappante, la « scène Pollock ». Nathan et Caleb contemplent un tableau de Pollock accroché au mur du salon et engagent une discussion sur les automates. Nathan explique à Caleb que la peinture de Pollock est un art « automatique ». Un art, poursuit-il, qui n’est le résultat ni d’une intention ni du hasard mais de leur entre-deux. « Jackson Pollock, déclare-t-il, c’est vrai, le peintre à taches. Okay. Il laisse son esprit flotter, et sa main aller où elle veut. Ce n’est ni délibéré ni hasardeux. C’est quelque part entre les deux. Ils ont appelé ça “l’art automatique”.2 »

Dans une scène supprimée du film, on apprend que le tableau en question n’est d’une certaine manière ni vrai ni faux. Le milliardaire excentrique révèle qu’il a acheté le Pollock pour 60 millions de dollars, l’a fait reproduire par une intelligence artificielle, qui l’a donc exécuté à l’identique. Il a ensuite détruit l’un des deux, rendant impossible de savoir si le tableau restant est le vrai ou le faux. Nathan demande à Kaleb : « est-ce si important de le savoir ? » La machine est capable de reproduire une œuvre qui n’est ni vraiment programmée ni vraiment aléatoire – comme la machine elle-même ! Lors d’une interview, à la question de savoir s’il est grave, selon lui, que l’on ne puisse distinguer les robots des humains, Garland déclare : « La réponse que j’incline à donner est “non”, pas du tout.3 »

Le milieu entre nécessité et contingence est le véritable espace de vie des automatismes. Mais en fait, on comprend aussi que c’était bien le génie de la peinture de Pollock elle-même (celle du « vrai » Pollock) que d’imiter l’artificiel ou le robotique par anticipation ! En un sens, c’est la machine qui imite à nouveau cette imitation, mais c’est bien Pollock qui en reste le créateur.

Pour finir, je dirais que c’est précisément cela qui m’intéresse. Je me demande si nous ne pouvons pas concevoir une interaction entre cerveaux et machines qui pousserait à surenchérir réciproquement les simulations, à s’imiter l’un l’autre, non dans une compétition encore une fois, mais dans la recherche de nouvelles règles de création et de production. Cette relation dialectique entre chacune des deux intelligences, naturelle et artificielle, pourrait alors potentiellement créer la dynamique de résolution d’un conflit qui semblait en apparence sans issue. Mais je suis peut-être trop optimiste.

1 Catherine Malabou, Métamorphoses de l’intelligence, Que faire de leur cerveau bleu ?, PUF, 2017, p. 29 et 108.

2 « That’s right. The drip painter. Okay. He let his mind go blank, and his hand go where it wanted. Not deliberate, not random. Some place in between. They called it “automatic art”. » Ma traduction.

3 Ryan Britt, « Ex Machina Writer/Director Alex Garland Talks Robots, Consciousness and Jackson Pollock (L’écrivain/cinéaste Alex Garland parle robots, conscience et Jackson Pollock) » Interview en ligne, Electric Lit, May 7, 2015.