82. Multitudes 82. Printemps 2021
Majeure 82. Globalisations esthétiques

Copier/Varier
Standards, critiques, et contre emplois des logiciels de création

Partagez —> /

À rebours d’un progrès technique consistant à voir les logiciels de CAO/PAO (« Conception/Publication Assistée par Ordinateur ») comme une « augmentation » mécanique des possibilités créatives, nous proposons à l’inverse de considérer ce processus, de façon générale, comme une accélération – voire comme une automatisation – de façons de faire traditionnelles. Alors que les designers utilisent au quotidien les mêmes logiciels, ont-ils pleinement conscience de leur histoire et de leurs implications ? Comment cette tendance à la normalisation s’inscrit-elle dans l’histoire des transformations techniques induites par le développement de la computation ? Pour traiter ces enjeux, nous proposons de parcourir sous forme de courtes notices problématisées une série d’objets techniques (logiciels de création, machines, etc.), classés du plus standardisant au plus ouvert. Chacun de ces items comprend trois sous-parties : une description de son caractère standardisant, une critique des valeurs qu’il embarque, et des contre-emplois (antérieurs ou postérieurs) en art et en design. Cette fausse chronologie fait écho au champ de l’« archéologie des médias », qui consiste à envisager la généalogie des techniques non pas dans une logique de progression linéaire, mais comme un examen des impasses, des similarités et des divergences de développements techniques réalisés ou non : en quoi les discours et usages dominants des technologies numériques peuvent-ils être bousculés, déjoués et transformés par des pratiques en art et en design ? Comment l’art et le design peuvent-ils donner à la critique une capacité de transformation ?

Amazon Alexa (2014)

Standard – Apparus au début des années 2010, les « assistants vocaux » (Amazon Alexa, Google Home, Apple Siri, etc.) renouvellent le paradigme dominant des interfaces graphiques, puisque tout s’opère par la programmation de la parole, suivant la reconnaissance de schémas (patterns) langagiers associés à des commandes simples (domotique, e-commerce, etc.). En 2020, une requête sur deux (aux États-Unis) s’effectue par la voix.

Critique – Alors que les relations humains-machines (IHM) sont marquées, depuis l’émergence de l’informatique personnelle au milieu des années 1970, par le paradigme des « interfaces graphiques utilisateurs » (GUI), les assistants vocaux le concurrencent en s’affranchissant du visible. Que devient, alors, le design graphique – cet art de l’agencement du visible – s’il n’y a littéralement plus rien à voir ? Vendues comme « naturelles », ces interfaces vocales ne sont-elles pas au contraire une étape de plus dans le processus consistant à embarquer de façon dissimulée une vision du monde consistant à renforcer la part comportementale de l’être humain ? Déjà problématiques car abandonnées à un seul acteur dominant, les listes des « résultats de recherche » de Google disparaissent au profit d’une réponse unique. Cette quête effrénée de simplicité n’a-t-elle pas pour seul objectif de neutraliser toute pensée critique ?

Contre-emploi – Dans leur cartographie Anatomy of an AI System (2018), les chercheurs Kate Crawford et Vladan Joler révèlent les couches entrelacées de labeur humain et machiniques d’un assistant vocal Amazon Alexa. Y sont entre autres exposées les récoltes de minerais permettant de produire les processeurs, de même que l’existence de « travailleurs du clic » (Antonio Casilli), ces prolétaires invisibilisés chargés de corriger les erreurs d’interprétation des programmes.

Google Material Design (2014)

Standard – Mis en place par l’entreprise Google pour harmoniser l’interface des applications de son système d’exploitation mobile Android (2008), le Material Design, cette bibliothèque de formes, de mouvements et de gestes, revendique l’héritage visuel du Bauhaus (1919-1933). Basé sur un système de cartes (cards), cet environnement visuel standardisé permet de concevoir des compositions numériques basées sur des grilles, transitions animées, effets de profondeur, et ombres portées. Comme l’explique Matías Duarte, l’un de ses concepteurs : « Contrairement au vrai papier, le Material Design peut s’étendre et se réformer intelligemment. Le matériau a des surfaces et des bords physiques. Les coutures et les ombres donnent un sens à ce que vous pouvez toucher. » D’une redoutable efficacité ergonomique car les codes d’utilisation ne doivent pas être appris à chaque fois, le Material Design a rapidement étendu son influence à l’ensemble du Web et des applications mobiles : tout se met à ressembler à Google.

Critique – Avec l’explosion du nombre de terminaux mobiles et des services qui y sont associés, des processus de conception spécifiques se sont développés. Les « parcours d’usage » des utilisateurs-quidams sont désormais pris en charge par des logiciels de prototypage (Figma, Adobe XD, Sketch, etc.) qui embarquent des sets d’éléments graphiques (UI kits) agencés, « prêts à porter ». L’UX Design (User eXperience), cette capacité à anticiper les actions de l’utilisateur dans un script sans accrocs, conduit in fine à une lyophilisation du Web, à des logiciels sans saveur. Affronter l’homogénéisation du Web ne pourra se faire qu’en distinguant l’esthétique (la puissance du sensible) de l’apparence (tel ou tel élément visuel interchangeable), et en élaborant une critique de la notion d’« utilisateur », cette entité normative réduisant l’humain à une même origine sociale, structure psychique, etc.

Contre-emploi – Faisant fi des conventions d’usage selon lesquelles un site Web se compose d’une suite de « pages » cohérentes graphiquement, le duo d’artistes Jodi.org (Joan Heemskerk et Dirk Paesmans) se plaît à dynamiter toute emprise d’homogénéisation du Web, et fait par conséquent voler en éclats l’idée que l’ergonomie – cette science de l’adaptation des « besoins » à l’« utilisateur » – soit le seul rapport possible à la technique numérique et aux interfaces des écrans. Traçant des paysages complexes réalisés dans les langages de description HTML/CSS, le site Web http://wwwwwwwww.jodi.org (1996) ne considère pas son visiteur comme un utilisateur. Cette exploration chaotique, qui abolit par endroits la distinction entre le code source (invisible) et l’interface (visible), n’est pas faite pour être « utilisée », pas plus qu’elle ne se réfère à un référent « matériel » ou tangible. Elle fait écho aux propos de l’artiste Olia Lialina, pour qui la critique du design d’interfaces passe par l’élaboration d’une « situation dans laquelle le workflow d’une application a des vides que les utilisateurs peuvent combler, où la fluidité et l’uniformité sont interrompues, et où certaines étapes du processus doivent être complétées par les utilisateurs. »

Adobe Sensei (2017)

Standard – À la fin des années 2010, l’intelligence artificielle (sous le paradigme du deep learning) se développe dans de nombreux domaines, et infuse le champ des logiciels de création. En se basant sur des modèles de création (patterns) issus de bases de données et d’analyse d’usages de logiciels, l’entreprise Adobe propose, via sa division Sensei, d’automatiser des tâches « fastidieuses » qui ne nécessitent plus d’agent humain (détourage, sélection de sujets, etc.) : « Créativité. Workflows. Expériences. Avec Adobe Sensei, tout devient plus efficace. L’intelligence artificielle transforme les méthodes de travail […]. Sensei optimise la créativité, les workflows et le marketing digital pour vous aider à proposer des expériences client chaque jour plus impressionnantes et plus personnelles. »

Critique – La promesse d’Adobe Sensei est de libérer du temps pour se « consacrer pleinement à la création », sans que cette notion ne soit explicitement définie. Au Japon, le sensei désigne celui qui est garant de l’expérience d’une technique ou d’un savoir-faire. Transposée dans l’environnement numérique, une telle idée interroge la limite entre hybridation et robotisation. Si la machine, en creux, définit ce que l’être humain n’est pas, faut-il pour autant que l’opacité intrinsèque aux intelligences artificielles du deep learning invite à abandonner totalement les idées de contrôle et de maîtrise ? Les capacités de calcul, appliquées au champ de la création, ont-elles pour seul but de renforcer les analyses de « tendances » et les moyennes visuelles d’éléments collectés en grand nombre ?

Contre-emploi – Prenant la forme d’une chaîne de production singulière, le projet Made in Machina/e (Simone Rebaudengo et Sami Niemelä, 2018) met en évidence les nouvelles questions qui se posent aux designers face à l’apprentissage machinique (machine learning). Un programme permet d’associer automatiquement deux bases de données a priori opposées : d’une part des objets et matériaux issus de la culture nordique du design (meubles en bois, etc.), et d’autre part la culture industrielle chinoise de Shenzhen (objets, voire gadgets, à forte composante technologique). Deux approches sont ainsi hybridées, et produisent des objets inattendus voire absurdes : l’approche nordique (réponse à des besoins) et la logique chinoise (adéquation au marché et aux composants disponibles). Ce métissage algorithmique génère un grand nombre de propositions étranges, qu’un curateur humain peut ensuite trier, faire produire, et commercialiser.

Adobe Photoshop (1990)

Standard – Créé par Thomas et John Knoll, le logiciel Adobe Photoshop permet de manipuler des images par des icônes, filtres, et autres actions automatisées. Ses principes de conception s’inspirent d’une part des procédés des chambres noires photographiques, et d’autre part des synthétiseurs vidéo (SVS) des années 1980. En 1987, John Knoll qualifie Photoshop d’« interface à effets spéciaux », en empruntant cette expression au cinéma qu’il côtoie quotidiennement en tant que superviseur d’effets visuels. Rapidement devenu le standard des industries dites créatives, Photoshop cristallise les débats consistant à cerner la valeur ajoutée « humaine » : suffit-il d’utiliser le bon logiciel pour être designer graphique ?

Critique – Photoshop exprime parfaitement les nouveaux paradigmes à l’œuvre dans les interfaces graphiques. Sensée être libérée voire exaltée par les logiciels, la supposée créativité individuelle ne s’exprime que dans les choix prédéfinis de « menus » et de « filtres » mis en évidence par l’artiste et informaticien Lev Manovich : « [Cette approche] rend le processus de production plus efficace et donne aux utilisateurs l’impression de n’être pas seulement consommateurs, mais également “auteurs” d’un objet ou d’une expérience. » On retrouve cette idée d’une création « extériorisée », d’une sélection d’éléments disponibles éventuellement augmentables, dans la plupart des logiciels, applications et services en ligne contemporains : Word (cliparts), Instagram (filtres d’images), Facebook (emojis de réactions), TikTok (filtres vidéo), Fortnite (costumes), etc. Via la reproduction des canons, la division des tâches et l’agencement ordonné de motifs récurrents, la création sous standards programmés pourrait-elle être considérée comme une réactivation d’un rapport classique à l’art ?

Contre-emploi – La réactivation algorithmique de procédés analogiques n’a pas pour fatalité de les reproduire servilement. En exagérant les effets visuels des logiciels de retouches d’images, le collectif Metahaven (Vinca Kruk et Daniel van der Velden, 2007) propose une critique géopolitique de la société de la surveillance et des réseaux d’information. L’esthétique brute des dégradés, détourages, et collages grossiers – autant d’emblèmes d’une globalisation esthétique délétère – affronte la tendance du capitalisme à créer un environnement visuel homogène. Plus précisément, les apparentes « personnalisations » des produits de consommation (choix d’une couleur, d’un aspect de surface, etc.), une fois exposées franchement, célèbrent le joyeux désordre propre au « folklore » numérique (GIF animés, etc.) et les incohérences de programmes empilant des époques techniques différentes.

Autodesk AutoCAD (1982)

Standard – L’architecture est le premier champ de la création à avoir fait usage des technologies numériques, et ce avant le design graphique. AutoCAD, pour « Computer-Aided Design » (CAO, « Conception Assistée par Ordinateur »), incarne la première initiative notable permettant d’automatiser certaines tâches anciennement dévolues à des bureaux d’études en ingénierie. Le logiciel prend en charge le calcul de volumétries complexes, de contraintes structurelles, etc. À la fin des années 2010, c’est même l’ensemble des tâches des corps de métiers propres à l’architecture (dessin des espaces, bureau d’études, BTP, etc.) qui se voit intégrée dans un protocole normalisé, le Building Information Management (BIM), dont l’usage est légalement rendu obligatoire.

Critique – Au-delà de gains de temps et d’efficacité, ce type de programme, d’autant plus quand il devient un standard professionnel, a-t-il vraiment reconfiguré les pratiques architecturales ? L’outil, ou plutôt son vestige programmé, cette fausse continuité avec l’équipement traditionnel de l’architecte, devient ici une sorte de deuxième « maître d’œuvre ». La coordination logique du projet se voit prise en charge par des programmes, qui « encodent » des savoir-faire auparavant dévolus à des professions spécialisées. Les choix présidant à la conception sont déportés dans des logiciels édités par des entreprises privées, et ne peuvent pas, dès lors, être débattus ou réfutés.

Contre-emploi – À la fin des années 1980, des architectes précurseurs comme Frank Gehry et Peter Eisenman organisent leurs agences autour d’une double activité : d’une part le développement de logiciels « sur mesure » dédiés à la pratique architecturale, et d’autre part la conception de bâtiments, de plans, de réflexions sur les matériaux. Gehry pressent le risque d’un assujettissement algorithmique : « [Le] problème de la conception de bâtiments à l’ordinateur, c’est qu’une partie de ce qui en ressort conserve l’empreinte du logiciel. On peut reconnaître un bâtiment conçu avec RHINO ; il ne s’agit pas d’un bâtiment créé par un artiste, c’est un bâtiment RHINO. Il faut dépasser cela. » Conservés sous forme numérique au Centre Canadien d’Architecture (CCA Montréal, cote AP165.S7.SS1), les travaux de l’architecte Chuck Hoberman éclairent cette volonté de « déglobaliser » les logiciels de création : ses scripts AutoCAD rédigés en langage LISP (AutoLISP) au milieu des années 1990 lui permettent de résoudre des calculs mathématiques et géométriques complexes, non pris en charge nativement par le logiciel, et nécessaires pour concevoir les composant de ses structures.

Xerox Alto (1973)

Standard – En faisant du secteur tertiaire le paradigme à appliquer à une informatique encore confidentielle, l’ingénieur Douglas Engelbart et ses collègues du « Augmentation Research Center » (ARC) ouvrent la voie à la transformation numérique de la société. Présentées en direct en 1968 lors d’une démonstration filmée (ancêtre des keynotes d’Apple et rétrospectivement surnommée « The Mother of All Demos »), leurs inventions façonnent encore notre quotidien à l’échelle mondiale : souris informatique, « métaphore du bureau », édition de documents sous forme visuelle, visioconférence, email, lien hypertexte, etc. Bien loin des photocopieurs qui représentent alors le cœur de son activité commerciale, l’entreprise Xerox rend public en 1973 le Xerox Alto, fréquemment considéré comme le premier ordinateur à « interface graphique », et qui reprend la plupart des paradigmes montrés par Engelbart. Sous la houlette de l’informaticien Alan Kay, les ingénieurs du Xerox PARC relèguent dans les confins des machines « les lignes de commande », ces abstractions de chiffres et de lettres monochasses, qui font place à des éléments visuels rappelant le quotidien d’un employé de bureau : corbeille, feuilles pour machine à écrire, dossiers, fenêtres, etc.

Critique – L’irruption des sciences cognitives dans le champ, encore balbutiant, du design d’interface, marque durablement les enjeux assignés à l’ordinateur : il s’agit moins d’en faire un espace ouvert à l’exploration qu’un quadrillage du réel. Très puissante d’un point de vue pratique, la « métaphore du bureau » n’en est pas moins un carcan, comme le note le designer Alan Cooper (1995) : « Il y a une infinité d’idiomes à inventer, plutôt qu’un éventail de métaphores à exploiter. Les métaphores semblent d’abord être un gain pour les utilisateurs débutants mais elles se montrent lourdes de conséquences lorsque l’on progresse dans l’utilisation approfondie d’un logiciel. »

Contre-emploi – La vidéo de Douglas Engelbart montre les avancées techniques du point de vue d’un utilisateur-témoin : « L’image de ses mains et celle de son écran sont projetées en grand, ce qui permet à chacun de suivre ses actions. » Dans sa vidéo What Shall We Do Next ? (2014), l’artiste Julien Prévieux met en scène une chorégraphie de gestes (prospectifs et effectifs) brevetés par des entreprises technologiques. L’augmentation des capacités intellectuelles par un appareillage technique, promesse de la démo de 1968, se transforme en restriction. L’art et le design pourraient-ils alors prendre en charge une réorientation technique de nos sensibilités ?

Sketchpad (1963)

Standard – Un écran, un stylet, une suite de gestes. Aussi appelé « Robot Draftsman [robot dessinateur] », le logiciel Sketchpad, conçu par l’ingénieur Ivan Sutherland, était l’un des premiers à proposer une interface « graphique » de conception, à base d’icônes et d’indications visuelle (et non pas, comme c’était le cas auparavant, des « lignes de commande »), manipulables via un crayon-stylet. Son intérêt principal était de pouvoir créer des « répliques » d’un dessin principal – tout changement sur ce dernier étant reporté dynamiquement sur les autres instances.

Critique – Sketchpad ouvre la voie à l’encodage numérique de gestes, de procédures, voire même de goûts. Toute la difficulté est alors de savoir s’il est pertinent d’accuser les logiciels de réduire la variété de l’expérience sensible. Dans des textes propédeutiques rédigés en 1995, l’artiste et designer John Maeda pointe les risques qu’encourt la profession du design graphique à se réduire à une suite d’outils : « Il est difficile de distinguer le designer assisté par ordinateur de l’ordinateur assisté par un designer. […] Les designers du monde entier travaillent tous sous la direction du même directeur artistique, dont le nom [Adobe] commence par un A écarlate. […] Les designers ne définissent plus la culture ; ils doivent se conformer à une culture définie par les évangélistes des technologies. Dans son essai Digital Design Media (1991), le professeur d’architecture William Mitchell formule la conclusion logique de cette situation difficile : “Nous sommes très proches du point où le designer moyen n’a plus rien à vendre qui vaille la peine d’être acheté”. »

Contre-emploi – Apparues en 2016, les polices de caractères variables (variables fonts) permettent de stocker dans un même fichier différentes instances d’une même police via des axes de déformation prévus par le designer (graisse, chasse, inclinaison, etc.). Le dessin final des lettres résulte alors d’un consensus entre la marge de liberté programmée, anticipée en amont (le « design space »), et les réglages propres à l’utilisateur final. En janvier 2020, le dessinateur de caractères David Jonathan Ross rend public le Gimlet X-Ray, une police variable pensée pour l’écran qui expose de façon éloquente sa mécanique interne. En affichant dans le dessin du caractère les courbes de Bézier et les espacements qui définissent les formes des lettres, ce projet met littéralement, selon les mots de son concepteur, « l’intérieur à l’extérieur ».

Processing (2001)

Standard – Marqués par l’enseignement de John Maeda au MIT Media Lab (« Aesthetics and Computation Group »), les designers Casey Reas et Ben Fry sont à l’origine de l’environnement de programmation open source Processing. Ce dernier a comme spécificité de découpler l’affichage des commandes (du langage formel du code) de son exécution à l’écran. Les formes prennent vie par l’écriture, elles peuvent s’animer, se multiplier, interagir avec le curseur ou des données, etc., soit donc autant de possibilités interdites par les environnements de travail basés sur la « métaphore du bureau » des années 1970.

Critique – Ouvrant la voie au mouvement du « creative coding », Processing défie les risques d’une globalisation aveugle des sensibilités car il ne peut pas être simplement utilisé, il demande à être pratiqué avec un minimum de conscience des opérations techniques. À la fin des années 2010, on peut estimer qu’environ 90 % des designers graphiques utilisent les mêmes logiciels propriétaires de la « Creative Suite » de l’éditeur Adobe, hégémonique sur ce marché. Dès lors, plutôt que de chercher des « alternatives » (souvent moins « performantes »), ne faudrait-il pas mieux explorer d’autres façons de faire, d’autres paradigmes, d’autres rapports à l’esthétique que les opérations de calcul masquées par les interfaces des programmes propriétaires ?

Contre-emploi – On retrouve l’idée d’un appareillage technique « hors standard » dans le projet Scriptographer (2001-2012) du designer Jürg Lehni, un plugin en licence libre pour Adobe Illustrator permettant d’étendre les fonctions de ce logiciel propriétaire par l’inclusion de commandes rédigées en langage JavaScript. En 2012, de nombreux changements dans le code source d’Illustrator CS6 rendent impossible le maintien fonctionnel de Scriptographer. Cet effort de « déstandardisation » se poursuit dans Paper.js (Jürg Lehni et Jonathan Puckey, 2012), un environnement de programmation graphique vectoriel fonctionnant à partir des langages libres du Web tels que Canvas et SVG. En libérant les principes de Scriptographer des confins fermés et coûteux d’Illustrator, le Web – pour autant qu’il reste librement praticable – devient alors un terrain de jeu à même de renouveler les pratiques du design graphique.

Remerciements

Cette contribution s’appuie d’une part sur un travail de doctorat mené sous la direction du philosophe Pierre-Damien Huyghe à l’université Paris 1 Panthéon-Sorbonne de 2008 à 2014, et d’autre part sur le projet de recherche « Formes de l’invisible. Archéologies graphiques du design avec le numérique », financé par le Cnap (Centre national des arts plastiques) au titre du programme « Soutien à la recherche en théorie et critique d’art » (session 2017).

Références

Bruet Manon, « Photoshop, un synthétiseur visuel ? », Paris, B42, Back Office, no 1, « Faire avec » (dir. Kévin Donnot, Élise Gay, Anthony Masure), 2017, [En ligne], www.revue-backoffice.com/numeros/01-faire-avec/manon-bruet-photoshop-synthetiseur-visuel

Citton Yves, Masure Anthony, « “if { ’attention-machine’; > 2019pd = > var data = require (’attention.py’) ; } else { fade ; }”. md », fiction de recherche reproduite dans : Gwenola Wagon, Jeff Guess (dir.), Haunted by algorithms, [En ligne], http://hauntedbyalgorithms.net. Le titre de cet article reprend l’expression d’Yves Citton de « copier/varier »

Cooper Alan, « Le mythe de la métaphore » [Visual Basic Programmer’s Journal, juin 1995], trad. de l’anglais par Marc Wathieu, [En ligne], www.multimedialab.be/doc/alan_cooper.htm

Crawford Kate et Joler Vladan, « Anatomy of an AI System : The Amazon Echo As An Anatomical Map of Human Labor, Data and Planetary Resources », AI Now Institute et Share Lab, septembre 2018, [EN ligne], https://anatomyof.ai

Kay Alan, « User Interface : A Personal View » [1989], dans : Laurel, Brenda (dir.), The Art of Human-Computer Interface Design, Reading (MA), Addison-Wesley, 1990, www.vpri.org/pdf/hc_user_interface.pdf

Fuller Matthew, Behind the Blip. Essays on the Culture of Software, New York, Autonomedia, 2003

Goodhouse Andrew (dir.), Quand le numérique marque-t-il l’architecture ?, Montréal, CCA, 2017

Huyghe Pierre-Damien, À quoi tient le design, Saint-Vincent de Mercuze, De l’Incidence, 2014

Lialina Olia, « L’utilisateur Turing-complet », trad. de l’anglais par Jean-François Caro, dans : Collectif, Considering your tools, 2013, http://reader.lgru.net/texts/lutilisateur-turing-complet

Maeda John, « Time – graphics », « Reactive – graphics », « Metadesigning », série de trois essais, Kabushiki Kaisha, MdN, 1995, [En ligne], https://maedastudio.com/oldindex.php

Manovich Lev, Le langage des nouveaux médias [2001], trad. de l’anglais par Richard Crevier, Dijon, Les presses du réel, 2010

Manovich Lev, Software takes command, New-York, Bloomsbury Academic, 2013

Masure Anthony, « Résister aux boîtes noires. Design et intelligences artificielles », Paris, Puf, Cités, no 80, « L’intelligence artificielle : enjeux éthiques et politiques » (dir. Vanessa Nurock), décembre 2019

Masure Anthony, Design et humanités numériques, Paris, B42, coll. « Esthétique des données », 2017

Pandelakis Saul (Pia), « « Done by app » : du design de services au quadrillage du réel », MEI, no 40, 2017

Stephenson Neal, In the Beginning… Was the Command Line, New York, William Morrow, 1999

Sutherland Ivan Edward, Sketchpad : A man-machine graphical communication system, thèse de doctorat en informatique, Massachusetts Institute of Technology, 1963