Et si ChatGPT était moins une innovation pétaradante des apôtres de l’intelligence artificielle made by Silicon Valley que le révélateur de nos visions trop étroites des intelligences humaines et non-humaines ? Depuis sa mise à disposition de tous les publics en novembre dernier, et particulièrement au début d’année 2023, l’agent conversationnel de la société OpenAI a en effet été l’une des stars des médias, des officines du savoir et des petits et grands salons où l’on cause de nos bêtises et de nos intelligences. Que penser, sous ce regard, de l’interdiction d’utiliser cette IA, décrétée en France à Sciences Po pour les étudiants après l’avoir été pour les élèves dans certaines écoles publiques de New York et de Los Angeles ? Serait-ce, comme l’écrit le sociologue Dominique Boullier, une réponse salutaire à une opération marketing « qui vise à promouvoir une adoption de fait au nom de l’Innovation indiscutable1 » ?
Il y a clairement, depuis au moins la fin des années 1990, un enjeu démocratique à résister à l’imposition de normes et de styles de vie gouvernés à l’insu de notre plein gré par les technologies du numérique, celles des GAFAM (Google, Apple, Facebook, Amazon et Microsoft qui a investi dans OpenAI) et de leurs rejetons en mode start-up. La résistance au techno-solutionnisme et à ceux que le pionnier des (r)évolutions digitales Tariq Krim a baptisé les « suprémacistes de la technique » est donc l’une des pièces à mettre au dossier ChatGPT. Mais est-ce vraiment nouveau ? Et la capacité d’outils plus ou moins smart, comme cet algorithme bavard, à réfléchir, à créer et à rédiger des dissertations à notre place n’est-il pas tout autant le révélateur de nos manques et de nos facilités avec ou sans usages de quelque technologie ? De notre propension à voir des intelligences là où ne s’expriment que des répétitions à l’infini d’une même norme, de mêmes mécanismes de pensées prémâchées telles que les adorent nos institutions scolaires et universitaires ? Et si l’IA, par ses capacités de digestion, de remoulinage et de pompage dignes des Shadoks, genre plan en trois parties « thèse, antithèse, synthèse » pour l’éternité, nous permettait de retrouver ou de réinventer des intelligences non procédurales ? Des intelligences de troisième ou quatrième niveau, de l’ordre de l’inattendu, de l’humour, du décalage, du contre-emploi et de la capacité à nous surprendre… Et si donc, par un judicieux paradoxe, l’usage critique des IA nous aidait, comme le souhaitait Bernard Stiegler, à « désautomatiser nos esprits » ?
Dans un article de la gazette de la célèbre université de Harvard, titré « ChatGPT va-t-il nous supplanter, nous autres, écrivains et penseurs ? », le non moins réputé linguiste et psychologue cognitiviste Steven Pinker écrit : « Cela fait 25 ans que je commence systématiquement mon cours d’introduction à la psychologie en montrant comment la plus performante de nos intelligences artificielles ne peut toujours pas reproduire le bon sens ordinaire. Cette année, pour la première fois, je suis terrifié à l’idée que cette entame de ma conférence soit devenue obsolète à cause d’exemples d’usages de GPT 2. » Car l’IA désormais grand public de la société OpenAI pose, semble-t-il à nouveau frais, la question de la validité de nos classiques mesures de l’intelligence. Mais cette apparente déroute est-elle une bonne ou une mauvaise nouvelle ? Ne démontre-t-elle pas, non la performance hors norme d’une IA, mais la légèreté avec laquelle nous évaluions jusque-là, via le QI et toutes les imbécillités de cet acabit, ce qu’on appelle l’intelligence ?
Sous le prisme de ces questionnements, comprendre le phénomène ChatGPT suppose un double travail critique, mettant dos à dos lesdits innovateurs et les conservateurs parfois masqués, les croyants béats en la technologie à tout-va et les défenseurs technophobes du bon sens à l’ancienne. Et ce d’autant que la rapidité d’adoption et le nombre sans cesse croissant d’utilisateurs de ChatGPT montre bien notre fascination pour ce que d’aucuns nommaient à une certaine époque « l’IA forte ». Aujourd’hui plus que jamais, au risque de l’idiotie d’ailleurs, nous rêvons de machines vivantes qui puissent devenir des interlocutrices véritables. La façon dont Blake Lemoine, ingénieur de chez Google, a pu soutenir mordicus à l’été 2022 que son IA, conçue pour des conversations complètes, avait peu à peu développé « une vie intérieure riche remplie d’introspection, de méditation et d’imagination3 », n’est pas qu’une erreur et un souci de communication ayant été réglé au final par son limogeage. Ce délire, que nous ne devrions pas nous contenter de qualifier d’irrationnel, est le signe d’une transformation de nos relations au non-humain, ici machinique bien sûr, mais que nous pourrions étendre à des entités de la faune et de la flore. Se pose ici, à l’instar de nos relations ambiguës avec des agents conversationnels comme ChatGPT, des enjeux de l’ordre de l’altérité et de la pluralité des intelligences.
1« Sciences Po a eu raison d’interdire ChatGPT », Dominique Boullier, AOC, 2 février 2023.
2« Will ChatGPT supplant us as writers, thinkers ? », Steven Pinker, The Harvard Gazette, 14 février 2023 (libre traduction des trois auteurs de cet article).
3« LaMDA : l’IA de Google a une âme, assure un ingénieur suspendu », par David Douïeb, 13 juin 2022, Tom’s guide, et « Google renvoie l’ingénieur qui disait que son IA était douée de conscience », 23 juillet 2022, Courrier international.
Sur le même sujet
Articles les plus consultés
- Pour Gaza, contre l’antisémitisme, autrement Fragiles propositions vers une gauche d’émancipation internationaliste
- Il faut défendre les invulnérables. Lecture critique de ce qu’on s’est laissé dire, à gauche, sur la pandémie de covid
- Le partage du sensible
- Des écoles d’art et design en lutte Contribution à une (re)politisation du champ de l’art
- L’éthique du hardcore