Alors que les scénaristes d’Hollywood dénoncent la dévaluation de leur activité, que le marché financier fait miroiter un gain de productivité global de 10 % par l’automatisation des tâches cognitives et que le « cognitariat » se voit de plus en plus précarisé voire uberisé, il convient de se demander si l’on n’assiste pas à un tournant dans le capitalisme cognitif. Depuis deux ans, on entend beaucoup parler de l’intelligence artificielle (IA) générative, pour en dénoncer les dangers, pour en chanter les miracles, ou pour en annoncer les effets de disruption. Un ponte de Poutine a même accusé de trahison une IA pourtant tout aussi russe que l’autrice anonyme du premier témoignage de nos pages. Mais au-delà de cette fièvre, quels sont les effets réels de l’IA générative ? Aliène-t-elle notre force de création ou offre-t-elle de nouveaux leviers pour la pensée critique ?

D’abord, comment resituer le développement des IA génératives dans les évolutions au long cours du capitalisme ? Si l’industrialisation a automatisé certains de nos gestes corporels, la computation tend depuis plus d’un demi-siècle à automatiser notre cognition. De la logique à la perception, tout ce qui peut être codé l’est ou le sera. Mais quoi de nouveau avec l’IA générative ? C’est ce qu’essaie de pointer la contribution d’Alban Leveau-Vallier, qui explique et esquisse de façon très pédagogique le fonctionnement (et les limites) des Large Language Models (LLM). Derrière la peur de la substitution des humains par les machines, il faut se demander en quoi ces LLM manifestent, expriment, instrumentalisent et exploitent une intelligence commune accumulée depuis plusieurs siècles à travers les finesses de la langue, l’accumulation des débats et des discours. Faut-il se méfier des nouveaux régimes d’exploitation dans lesquels ChatGPT enserre, restreint et mutile ce commun ? Quelles perspectives de transformations sociales s’ouvrent à nous, dès lors que ce ne sont plus seulement les ouvriers de la chaîne de montage, mais les créatifs, les décideurs voire les grands patrons eux-mêmes qui peuvent être tranquillement remplacés par des automates ? Les articles de Mathieu Corteel et de Yann Moulier Boutang esquissent quelques réponses à ces questions en abordant ce qui, dans les combinatoires de l’intelligence, ne peut être aliéné. Les infinies subtilités des intelligences comme de la langue, autant poétiques que diplomatiques, n’offrent-elles pas des perspectives d’interprétation qui échappent à la capture cognitive ?

Aussi, au-delà du traitement des textes, des mots, des catégories et des concepts agencés par les LLM, comment la diffusion des IA génératives est-elle en train de bouleverser notre rapport aux images et à limaginaire (dans la spécificité de ce dernier par rapport aux systèmes symboliques) ? Les angoisses soulevées par la multiplication possible des deep fakes ne sont que le sommet de l’iceberg. C’est la notion même de création qui est à redéfinir, ce sont les fondements des rapports entre nos cerveaux droit et gauche qui se trouvent reconfigurés, hybridés, par la nature absolument inédite de ce que Grégory Chatonsky appelle, depuis plus d’une décennie, nos « Imaginations Artificielles ». La contribution de Thomas Coispel & Lorena Lisembard, comme celle d’Ilan Manouach & Anna Engelhardt en conclusion du dossier, prennent de la distance face aux éblouissements que nous causent ces nouvelles images, tandis que l’article de Grégory Chatonsky & Yves Citton autour d’une « quatrième mémoire » tente de faire émerger les implications des transformations en cours sur nos rapports aux faits comme à la fiction, au passé comme au futur, bref au réel le plus contemporain.

Enfin, que peuvent nous apprendre les pratiques artistiques sur les puissances et les faiblesses, les risques et les vertus des IA génératives ? La plupart des débats actuels sont prisonniers d’une même conception strictement instrumentale de la computation générative : il s’agit de lui imposer des cadres et des finalités d’utilisation, afin d’améliorer, d’accélérer, d’optimiser ce que nous savons déjà faire. Mais que se passe-t-il lorsque des artistes impliquent les IA dans des pratiques d’expérimentation ? Il ne s’agit plus ici d’ajuster les IA à des tâches préconçues, mais de se laisser surprendre par elles, d’en tirer des questions que nous n’attendions pas, d’observer − curieusement − les curiosités de leurs comportements, et de découvrir par là même certaines curiosités de notre monde. C’est pour illustrer ce rapport expérimental aux IA que cette mineure a sollicité l’intervention d’une large palette d’artistes.

Judith Deschamps propose aux résidentes d’un EHPAD un double enfouissement de ce qui leur reste de souvenir : dans un morceau d’argile et dans une IA générative. Aucun rapport a priori entre les deux, aucune optimisation à chercher : juste un pas de côté devant nos soucis face à la mémoire, à la parole, à la fatigue. Carole Grand fait dialoguer le
ChatGPT californien et le Yi Jing chinois, pour faire surgir de leur accouplement l’hallucination algorithmique d’un certain « John Smith », lequel en arrive à s’incarner dans la réalité d’une petite ville du Wisconsin. L’artiste ne fait rien « d’utile » des IA, elle joue avec elles − mais en tire une réflexion profonde et humoristique sur les aberrations du rôle de consultant où nous tendons à les ériger. Fabien Zocco réalise un « bricodage » conduisant une IA à bégayer des semblants de phrases en italien, Ilan Manouach crée « un objet synthétique de BD » Out Side pour mieux appréhender ce que ces techniques font au patrimoine culturel de l’humanité, et Grégory Chatonsky joue avec l’imagination artificielle pour rêver une ville du Havre qui n’existe pas. Dans le royaume platement probabiliste de l’induction statistique, tous ces gestes artistiques ont en commun d’introduire une saillie hautement improbable. Ils font à et avec les IA ce que les IA ne savent pas faire par elles-mêmes : des écarts, des dérives, des caprices − soit étymologiquement des « sauts de chèvres » entre des domaines qu’aucun hasard mesuré ne rapproche. Et si c’était de tels sauts de chèvres qui faisaient désormais la valeur propre de l’intelligence humaine par rapport à son ersatz automatisé ?

L’enjeu n’est pas d’être plus raisonnable, mais plus décalé, plus imaginatif, plus conscient des défis sociaux et politiques de ces IA qui nous parlent comme à un ami et s’excusent de leurs erreurs. C’est ce que suggèrent dans leur conversation Ariel Kyrou et l’écrivain de science-fiction (et avocat) Jean Baret. Une fois dépassés l’étonnement naïf ou les moqueries complaisantes envers les prouesses ou les hallucinations des Generative Pre-trained Transformers (GPT), expliquent-ils aussi, « l’usage des IA nous met face à nos insuffisances et à nos façons de nous répéter sans cesse ». Cette leçon devrait être méditée par les enseignants paniqués de voir leurs élèves rendre des devoirs rédigés par notre intelligence collective plutôt que par leur mérite individuel. C’est tout leur système d’évaluation, leurs attentes, leur paramétrage de la relation pédagogique qui prennent un terrible coup de vieux avec la « menace » des GPTs. Et si le problème n’était pas dans l’intelligence artificielle des élèves, mais dans l’ineptie institutionnelle des devoirs scolaires ?

À l’intérieur de ces contraintes, les articles réunis ici en appellent à un mixte de prudence et d’espoir. Apprendre à naviguer dans le nouvel imaginaire des IA génératives, y repérer la mise en place d’une nouvelle phase du capitalisme cognitif, se mettre à l’écoute des façons dont l’improbable artistique déplace les questions posées par les machines à induction statistique − les multiples dimensions de cette mineure convergent pour nous confronter à un même choix : ou bien rabâcher les certitudes d’hier dans le confort rassurant du mainstream, ou bien apprendre à valoriser (enfin !) les imprévisibles curiosités de nos sauts de chèvres.