L’intelligence artificielle (IA) est-elle un programme de recherche scientifique ? Un simple échafaudage technologique des multinationales du numérique ? Une idéologie transhumaniste à la Raymond Kurzweil, d’origine américaine, reprise sans beaucoup de nuances en France par Laurent Alexandre ? Ou tout simplement une réalité industrielle et productive d’ores et déjà effective ?

Il est d’autant moins facile d’y voir clair que la chimère d’une machine remplaçant partiellement le cerveau humain a connu trois âges en soixante-quinze ans : d’abord celui de l’intelligence symbolique héritière de Leibniz, calculant tout de façon mathématique ; ensuite l’âge de l’IA dite « connexionniste » (réseau de neurones et boîte noire) qui permet de prendre des décisions dans un univers complexe après qu’ont été « élevées » des machines qui apprennent sans être capables d’isoler les fonctions et de régler les paramètres qui les commandent ; et maintenant celui de l’IA générative capable de répondre à des questions humaines par des réponses articulées dans un langage humain.

Cette trop courte synthèse tente :

1) de comprendre ce qu’est et d’où vient l’IA générative ;

2) d’analyser la conquête du complexe, du cerveau droit et de l’intelligence collective (le general intellect de Marx) par le capitalisme des plateformes et de nouvelles formes de productivité et de créativité qui pourraient devenir l’étalon de mesure de la valeur économique ;

3) de caractériser les segments du travail désormais sur la défensive face à cette conquête du complexe ;

4) de commencer à interroger le rôle avéré ou possible de l’IA générative dans la création littéraire et artistique1.

L’intelligence de l’IA est‑elle désormais celle du langage humain ?

L’expression « machine intelligente » apparaît chez Turing dès 1941. Dans la formulation de son test, Turing remplace une question fondamentale : « Est-ce qu’une machine est capable de penser ? », par une question pratique : « Une machine peut-elle agir de la même façon qu’un humain le fait de façon indiscernable ? » On ne définit plus la faculté de penser a priori, mais par un dispositif expérimental.

Le test de Turing a été perfectionné par le Winograd Schema Challenge (WSC)2: on part de la résolution par la machine d’une question toute simple, au cœur du langage naturel humain : « À qui et à quoi un simple pronom renvoie-t-il dans un énoncé ? » Si la machine est capable d’y répondre de façon juste, elle pourra être qualifiée d’intelligente.

Terry Winograd, qui a donné son nom à ce test d’intelligence, cite l’exemple suivant : « Les services municipaux refusent à des manifestants le droit de défiler dans la rue car ils craignent (ou défendent) la violence. » On voit bien que le pronom « ils », dans la langue naturelle, renvoie soit au sujet de la principale, soit à ceux qui veulent manifester. Craindre la violence peut vouloir dire : craindre la violence qui pourrait être occasionnée par les manifestants, mais aussi craindre la violence de la répression de la manifestation. Pour un humain, à la lecture, il n’y a guère d’ambiguïté, c’est la première réponse qui est la bonne. Pour la machine, qui envisage tous les cas de figures logiques (a-t-elle complètement tort ?), selon que le pronom « ils » se réfère à ceux qui autorisent ou pas la manifestation ou à ceux qui font la demande de manifester, elle choisit le terme craindre ou défendre. Nous sommes confrontés à une anticipation du futur qui souligne le caractère indécidable du langage commun. Car à première vue, soit les autorités refusent l’autorisation de manifester parce qu’elles anticipent la violence à venir des manifestants, soit les manifestants craignent une autre violence, celle de la police, sans oublier la synthèse des deux hypothèses auto-réalisatrices : les autorités déploient un grand nombre de policiers car elles craignent la violence à venir, et les manifestants exaspérés par le nombre de policiers se mettent à devenir violents.

Nous ne sommes pas ici dans la logique aristotélicienne du principe de contradiction (soit blanc soit noir) accompagné du principe du tiers-exclu (il n’y a pas de troisième terme possible), mais dans la logique stoïcienne du tiers inclus, qui ne serait modélisable que par les mathématiques du flou3. Autrement dit, le langage commun qui décrit des situations complexes est utilisé par l’intelligence humaine et cultive particulièrement l’ambiguïté, plus parlante in fine que l’algorithme binaire de l’IA générative la plus perfectionnée. La logique binaire fonctionne pour évoquer une limite précise (par exemple l’appartenance ou non à tel ensemble), mais elle ne marche plus dès lors qu’il s’agit d’esquisser des contours, des zones de double appartenance que seule l’ambiguïté du langage est à même de suggérer à celui ou à celle qui lit ou qui écoute.

Les difficultés et paradoxes de la traduction en sont les meilleures illustrations. Exemple bien connu : la résolution 242 de l’ONU suite à la guerre des Six-Jours en juin 1967 dans le cadre du conflit israélo-palestinien. Sa version française parle « des territoires occupés » où « des » peut être interprété comme une contraction de « de les », sous-entendu : « Israël doit rendre tous les territoires occupés ». Cette interprétation est donc celle des pays arabes. La traduction anglaise, en revanche, parle de façon générique d’« occupied territories », ce qui n’est pas « the occupied Territories » (= tous les territoires occupés). Dans la résolution anglaise, Israël est dès lors invité à se retirer de certains territoires occupés mais pas de tous comme dans le texte français. Sans ce double langage, il n’y aurait pas eu d’accord sur cette résolution des Nations unies.

Autrement dit ou écrit, l’amphibologie du langage (en genre et en nombre, par les deux opérations clés du langage : la métaphore et la métonymie) n’est pas nécessairement un défaut de précision par rapport à un langage entièrement univoque comme c’est le cas d’une formule mathématiquement déterminée. Il peut constituer, au contraire, la réponse intelligente humaine à une situation complexe. Quand l’écriture sophistiquée de la littérature romanesque ou de la poésie définie par des règles (l’impératif du nombre de syllabes prononcées, de la rime, ou des accents toniques) déplace les usages de sens commun, elle dit quelque chose sur la langue elle-même. Elle la renseigne sur son usage, ses potentiels, ses mésusages destinés à s’ancrer et à la faire évoluer. Mais elle produit également du sens complexe pour un cerveau humain. La psychanalyse pourrait-elle à son tour être menacée par une analyse-machine ? Beau sujet de science-fiction, rejoignant peut-être l’écriture automatique des surréalistes ou la mécanique des arts chez Raymond Roussel, que Philippe Bootz et Hermes Salceda rapprochent de l’IA générative4.

Les questions induites sont nombreuses. Elles font écho, par exemple, à la célèbre expérience de la « chambre chinoise » de John Searle autour du langage humain et de son imitation. Le philosophe, spécialiste de l’esprit autant que du langage, y a montré qu’une machine serait capable de traduire une langue comme le chinois par des dispositifs d’imitation précis, sans nécessité d’en comprendre le sens ou plus encore d’avoir conscience des multiples subtilités de la langue de départ comme de celle d’arrivée.

On peut également rapprocher les différentes faces de l’intelligence artificielle des trois formes d’intelligence distinguées par les spécialistes de la cognition et des neurosciences. Dans son livre Cerveau droit / cerveau gauche5, Lucien Israël différencie pour sa part :

1) le cerveau gauche, siège de l’intelligence analytique, logique et piagétienne ;

2) le cerveau droit, à l’intelligence synthétique, spatialisante, siège de l’appréhension du complexe, du global, de l’imagination, des aptitudes artistiques, mais aussi de l’intelligence sensori-motrice gouvernant les attraits, les peurs, le mouvement, le désir.

Olivier Houdé a plus récemment proposé6 d’introduire une troisième intelligence régissant la fonction inhibitrice des deux précédentes, se développant plus tardivement (jusqu’à 19 ans).

Ces trois dimensions de la raison, qui sont autant de composantes de l’intelligence humaine, se retrouvent sur la question du langage. Côté cerveau gauche, il y a sa logique, via sa grammaire ou sa syntaxe, sa systématisation, ses formes, etc. Il y a ensuite, en écho de « l’intelligence du cerveau droit », la sensibilité du langage, qu’on retrouve dans sa sémantique : vocabulaire, intentionnalité, déplacement du sens par l’extension du sens propre au sens figuré, métaphore, etc. Enfin, en écho de ce qui serait une troisième intelligence, l’enjeu est la maîtrise de la dimension performative du langage, avec par exemple la valeur éthique de commandements moraux comme l’interdit de tuer.

L’intelligence artificielle symbolique a obtenu des résultats remarquables dans l’imitation du langage mathématique, de la logique formelle et analytique, donc du cerveau gauche. L’intelligence connexionniste appuyée sur la métaphore des « réseaux de neurones » est devenue avec le deep learning (apprentissage profond) un moyen d’explorer le cerveau droit pré-piagétien. La troisième forme d’IA emprunte aux deux précédentes : à l’IA symbolique le calcul de la probabilité d’occurrence ; à l’IA connexionniste l’apprentissage à partir de data, mais en sachant cette fois comment elle fonctionne. Elle s’est concentrée sur l’imitation du langage humain dans toute sa dimension (logique et piagétienne, complexe, globale, et pas simplement analytique). Mais il faut se demander maintenant ce qui lui a fait franchir un bond qualitatif qu’on mesure à sa capacité de répondre à des questions complexes, reposant notamment sur la quantité de données sur lesquelles elle s’entraîne.

Les nouveaux communs de l’intelligence collective et leur appropriation par le capitalisme des plateformes

La réalité de ce qu’opèrent aujourd’hui les IA génératives fait écho à ce que Bill Anderson a identifié comme la modification la plus cruciale de la vérité scientifique dans un article clé en 2008 : « The End of Theory: The Data Deluge Makes the Scientific Method Obsolete7». Selon lui, en effet, la capacité de recueillir la trace des interactions des usagers du numérique sous formes d’un « déluge de données » peut se substituer à un raisonnement logique. Si l’on dispose de très peu d’occurrences ce principe est parfaitement idiot. Si l’on table sur plusieurs milliards de cas, voire des trilliards, il est assez robuste en matière de probabilités, et s’avère capable de fournir une immense pluralité de ressources.

L’interaction tracée et stockée, comme donnée de base, sert à son tour de minerai pour produire de multiples applications dans le marketing, le design, la production sémantique, l’innovation, la création, etc. Ces applications-là étant payantes, l’accès au service fourni par la plateforme peut devenir gratuit.

L’économie de plate-forme se contente donc de mimer et de recueillir l’intellect général ou intelligence humaine aux prises avec les dispositifs numériques de contenus en tous genres. L’inventivité, l’intelligence collective qui y sont captées et s’y déploient représentent un nouveau type d’accumulation du capitalisme qui exploite le travail vivant bien au-delà de la seule dépense de l’énergie musculaire ou du temps de travail rémunéré à la tâche ou au service matériel rendu. Le capitalisme numérique a appris ces quarante dernières années à exploiter ce que le Marx des Grundrisse, Manuscrits de 1857-58 dit Esquisses 8 appelait l’intelligence générale collective : « Avec ce bouleversement ce n’est ni le temps de travail utilisé, ni le travail immédiat effectué par l’homme qui apparaissent comme le fondement principal de la production et de la richesse ; c’est l’appropriation de sa force productive générale, de son intelligence de la nature et sa faculté de la dominer9. » Soit un mouvement qui continue désormais sous la forme de ce l’on pourrait désigner comme les nouveaux communs numériques.

Les conditions contemporaines d’accumulation de cet intellect général produisent une évolution proche de celle qui avait été à la base de la naissance du capitalisme entre le XVIe et le XVIIIe siècles − sa fameuse accumulation primitive. Elles étaient à l’époque de Marx et restent aujourd’hui encore déstabilisantes pour la forme salariale. Sauf qu’il s’agit désormais de conjurer le spectre du passage au communisme grâce à des nouvelles clôtures numériques. Ces dernières sont d’autant plus difficiles à comprendre qu’elles se présentent sous la forme aguichante d’un dé-clôturage radical des formes de propriété et d’accès que les capitalismes mercantilistes et industriels avaient installées non sans difficultés dans le domaine de la connaissance. Cette ère de l’open source, voire du gratuit se traduit en effet par la démocratisation des savoirs, le démantèlement des privilèges des corporations intellectuelles, la remise en cause de facto de droits d’auteurs, le raccourcissement des brevets, etc.

L’intellect général ou savoir général de la société, ayant été numérisé et stocké pour pouvoir être calculé, recalculé des milliards de fois, se présente désormais, pour chaque individu qui fait partie de cette intelligence collective et s’en sert quotidiennement, comme les conditions d’exercice de cette activité, donc comme l’oxygène nécessaire à son cerveau. Conditions d’accès via le hardware (les ordinateurs), via les plateformes, via les applications, via surtout le traitement (les logiciels) et désormais avec l’IA générative via le recours récurrent aux data. L’intelligence collective à l’ère du tout numérique se présente comme le capital par excellence, comme la condition non seulement du travail dépendant salarié, mais aussi de toute activité cognitive, sensorielle, culturelle. Pourquoi « la », c’est-à-dire l’unique condition ? Parce que le capital immobilisé est hors de portée non seulement d’un cerveau particulier, d’un travailleur salarié, mais aussi de l’entrepreneuriat classique individuel (celui de Schumpeter). Et parce que ce phénomène de colonisation par le capitalisme numérique des terres prometteuses de « l’intelligence générale et collective » passe par la conquête du langage commun.

Le capitalisme numérique ou cognitif a gagné la bataille de lopen source, se présentant comme le communisme contemporain contre les partisans du Libre (et des licences créatives communs de Stallman). Il y a une raison très simple à cela : les données de l’intelligence collective sont moissonnées sur des plateformes qui représentent une accumulation gigantesque de capital. Même chose pour les data conservées dans les fermes de données et le réseau matériel de l’internet. Seuls les États et le capital privé sont à mêmes d’exploiter l’intelligence collective. Les partisans du libre et des licences Creative Commons sont dès lors relégués à de la figuration sympathique. Changer la donne supposerait une réglementation de ces nouveaux communs numériques : libre accès aux données, financement de data publiques, définition stricte du périmètre des terres communes numériques où la vaine pâture est encouragée, etc. Enfin, l’open source ayant drastiquement réduit les droits d’auteur, l’indépendance et l’autonomie de l’intelligence collective et de la pollinisation numérique ne pourraient être assurées que par un revenu de pollinisation.

Le capitalisme numérique s’est lancé à la conquête du complexe et à une colonisation du cerveau droit10 bien au-delà de ce que le capitalisme industriel était parvenu à faire avec l’intelligence rationnelle du cerveau gauche. Car sans l’innovation, sans créativité, le capitalisme numérique tombe dans l’entropie. Son investissement frénétique dans l’IA vise à capter les sources de valeur qui relèvent de la pollinisation mentale, qui est aux vieilles formes de profits et d’exploitation ce que la production de miel est à la pollinisation des abeilles. Le capitalisme de plateformes, celui de surveillance, sont des manifestations connexes et parfaitement logiques du capitalisme cognitif, mais pas une mutation de ce dernier. La course à l’IA en général et à l’IA générative en particulier ne serait-elle pas l’une des causes majeure de cette nouvelle enclosure masquée du capitalisme numérique ?

Qui l’IA générative met‑elle sur la défensive ?

De ces nouveaux communs ou biens communs, à la différence de ce qui s’était passé lors du mouvement des « enclosures » (clôtures) à la naissance du capitalisme industriel des XVIIe et XVIIIe siècles, les travailleurs cognitifs ne sont pas privés. Ils sont dépouillés, en revanche, des ressources financières qu’ils pourraient en tirer via le vieux droit d’auteur. Et au moment même où ils commencent à revendiquer un droit de possession et pas simplement un droit d’usage sur ces nouveaux communs numériques, la troisième vague d’intelligence artificielle générative vient contester l’idée qu’ils soient les auteurs de quoi que ce soit puisque des dispositifs machiniques automates peuvent rivaliser avec eux en œuvrant comme eux, au point d’écrire, de répondre à des questions, d’articuler des raisonnements, de produire des images, des voix, de la musique en se passant d’eux.

L’IA peut-elle se substituer au travail commandé, et ce jusqu’à quel point ? Y a-t-il mécanisation, robotisation du travail cérébral ? Donc remplacement ? Et si oui à quel niveau ? L’IA peut-elle se substituer au traducteur, au monteur, au cadreur, au technicien de la lumière ou du son ? Quelle IA pourrait-elle se substituer au manager, à l’organisateur du travail, à la programmation de l’activité ? L’IA générative prend place dans une longue marche de substitution de l’activité humaine individuelle et coordonnée par des dispositifs capitalisés qui modifient la division du travail, remplacent des formes d’activités humaines par des machines et suppriment des emplois, d’autres se créant de façon complexe. C’est-à-dire de façon non linéaire, distribuée de façon le plus souvent bipolaire : un travail moyennement qualifié est remplacé, d’un côté par du travail davantage qualifié, et de l’autre, en plus forte proportion, par du travail moins qualifié.

Du premier automate industriel des métiers à tisser de Jacquard au XVIIIe siècle à l’automatisation du raisonnement en langue naturelle de
ChatGPT, il y a continuité et non rupture. Au départ, il y a la division du travail manuel, puis beaucoup d’autres étapes comme la machine transfert autour de 1960, qui calcule et optimise l’usinage des pièces de l’ouvrier qui n’a plus qu’à les placer correctement. L’introduction du numérique à partir des années 1980-2000 étend cette « dépossession » aux cols-blancs techniques avec une division accrue du travail intellectuel des services, en particulier logistiques. L’intelligence symbolique automatise ensuite la comptabilité et le marketing, tandis que l’intelligence connexionniste permet le design et la prise de décision en environnement complexe, touchant le col blanc supérieur (y compris le manager lambda). Avec l’IA générative à partir de 2022, c’est le travail intellectuel et rationnel du management directionnel, de l’éducation, du soin (care), des travaux intellectuels de conception, de création littéraires et artistiques qui se trouvent soumis à un programme d’automatisation partielle. Le col blanc avait cru sauver son caractère irremplaçable par son inventivité, sa capacité de prendre des décisions robustes en environnement complexe. L’enseignant avait vanté sa maîtrise de la dissertation, l’énarque sa faculté de synthèse et d’assemblage, donc de maîtrise des « éléments de langages ». Patatras.
ChatGPT est non seulement capable d’écrire un discours de sous-préfet, une dissertation de Sciences Po, une copie du bac ou un mémoire de maîtrise très moyen, mais mieux, cette IA peut écrire le discours du sous-préfet aux champs. Finissons par l’exemple du génie artistique.

La création artistique Ah frappe toi l’IA, c’est là qu’est le génie ?

L’IA générative peut-elle se substituer au romancier, au scénariste, au peintre, à l’illustrateur, au sculpteur, à l’architecte ? Jusqu’où peut-elle aller dans l’automatisation du cerveau dans un corps ? Car même si l’IA générative n’a au sens propre pas de corps, c’est bel et bien ce type d’intelligence-là, celle du « faire créateur » nécessitant une incarnation, qu’elle défie, comme pour engager une nouvelle époque de la robotisation activant pleinement nos imaginaires, voire notre soif de découvertes planétaires ou astronomiques. Il ne s’agit pas d’un mystère religieux mais d’une énigme qui, comme le souligne Daniel Andler11, interroge cette fois via l’IA la conscience de soi, la production de sens et de jugement rationnel, de pensée, de jugement moral − comme en écho à la troisième intelligence de notre première partie.

Y a-t-il un bon usage de l’IA générative et connexionniste pour la constitution d’un public, pour l’éducation et la formation des artistes, et bien sûr pour les créateurs ?

Pour la formation d’un public, jusqu’à même l’opinion publique en démocratie représentative (écartons ici le cirque totalitaire de la fabrication de la plèbe acclamant son dictateur), il y a la mauvaise pente d’une standardisation du goût ou de l’avis, la tyrannie invisible de la médiocrité qui déteste le génie troublant la routine. L’internet d’abord, les applications qui visent à retenir l’usager le plus longtemps possible ensuite et désormais le référentiel de l’IA à partir des données massives font courir aux médias libres, conquête tardive des démocraties parlementaires, un danger hors normes.

Dans le cas de l’éducation et de la formation des artistes ou créateurs, la déviation qui pend au nez des écoles d’art est la production de nouveaux lieux communs, d’un académisme numérique sans les qualités qu’avait l’académisme pompier qui techniquement devait savoir dessiner.

Les compétences devenues indispensables pour éviter l’écueil de la « moyennisation » ont changé. La camera obscura inventée à la fin du XVIsiècle puis la photographie au XIXe ont posé un défi à la peinture, défiée sur le plan de la ressemblance. Il a fallu le choc de l’art nègre au début du XXe siècle pour que la peinture moderne emprunte d’autres voies. Autre exemple : le faussaire extraordinaire de Vermeer, Han Van Meegeren (1889-1947), n’a pas été débusqué par les meilleurs experts de Vermeer mais par l’analyse chimique de ses couleurs qui utilisaient des éléments qui n’existaient pas au XVIIe siècle. Aujourd’hui, seules les connaissances informatiques peuvent débusquer la camera obscura des fake news, des fausses images issues de Dall.e ou Midjourney.

Ces déviations ou dégénérescences existaient avant l’IA, par exemple quand un artiste n’en finit pas de se pasticher lui-même, à l’instar de Bernard Buffet en peinture.

Il faudrait également distinguer ce qui est dû génériquement au numérique de ce qui est dû spécifiquement aux trois IA.

En revanche, portons à l’actif du numérique mais aussi de l’IA générative la formation d’un public averti, amateur par la facilité d’accès, la reconnaissance des styles, des époques, des genres, la détection des faux grossiers par la constitution d’un catalogue exhaustif d’une œuvre.

Elle-même en évolution permanente, l’IA générative offre un défi aux artistes dans leur plus grande singularité, d’art comme de forme ou surtout de méthode. Réussiront-ils en s’en emparer pour mieux la dépasser ?

1Une version plus longue de larticle est en ligne sur multitudes.net. Il détaille de façon plus approfondie des sources essentielles à la compréhension de lIA, comme le test de Turing ou celui de la « chambre chinoise » de John Searle.

2https://en.wikipedia.org/wiki/Winograd_schema_challenge

3Sur les mathématiques du flou et leur rôle fondamental dans une intelligence artificielle symbolique, la référence la plus éclairante est le travail de Zyed Zalila et celui de sa spin-off Intellitech (https://xtractis.ai/company).

4In Alexandre Gefen, (sous la direct. de) Créativités artificielles, Les Presses du Réel, 2023, p. 13-30.

5Lucien Israël, Cerveau droit, cerveau gauche, Plon, 1986.

6Olivier Houdé, Lintelligence humaine nest pas un algorithme, Paris, Odile Jacob, 2019, 256 p.

7Wired, 23 juin 2008, @www.wired.com/2008/06/pb-theory

8Éditions Sociales, 2011, réédition de lédition Jean-Pierre Lefèvre, p. 662.

9Karl Marx, Fondements de la critique de léconomie politique, tome 2, Paris, Anthropos, 1968, p. 661.

10Voir sur ce point les recherches de Warren Neidich sur le neuro-capitalisme et la neuro-esthétique.

11Daniel Andler, Intelligence artificielle, intelligence humaine : la double énigme, Paris, Gallimard / NRF Essais, 2023.