Le design de la transparence

 

 Une rhétorique au cœur des interfaces numériques

Selon l’historienne Annick Lantenois, le design graphique est « […] l’un des instruments de l’organisation des conditions du lisible et du visible, des flux des êtres, des biens matériels et immatériels1 ». On pourrait dès lors le rapprocher de l’idéal de la transparence, depuis son sens formel de « caractère de ce qui laisse voir les objets à travers soi » jusqu’à son caractère métaphorique de « qualité de ce qui est facilement compréhensible, limpide2 ». Or cette volonté de laisser transparaître le monde tel qu’il est – de façon directe et sans médiation – se heurte au fait que le design graphique est une activité particulière qui modèle et structure les informations en opérant des formes de curation. Autrement dit : l’organisation du lisible et du visible est de fait une construction calculée. Dès lors qu’elles façonnent des compréhensions du monde, les sélections opérées par le design graphique engagent nécessairement des enjeux politiques – au sens étymologique de ce « qui a rapport aux affaires publiques », de ce qui fait tenir ensemble des groupes sociaux.

Cette construction d’un monde commun se confronte à l’impossibilité de « tout » dire et au fait qu’il n’est pas souhaitable que les relations humaines s’exposent totalement. Cette tension entre intelligibilité et cadrage se rejoue dans les débats publics demandant une meilleure compréhension du fonctionnement des États et des gouvernements – et ce d’autant plus dans les sociétés contemporaines régies par la notion d’information. On retrouve ici les paradoxes formulés par le théoricien des organisations Haridimos Tsoukas : « Plus d’information peut conduire à moins de compréhension ; plus d’information peut saper la confiance ; et plus d’information peut rendre la société moins rationnellement gouvernable.3 » La multiplication de la production, de l’accès et du classement des informations politiques va de pair avec l’impératif moral de la transparence, plébiscité dans tous les secteurs de la société, et ce d’autant plus à mesure que celle-ci se « numérise ».

Les interfaces numériques sont massivement utilisées dans des initiatives telles que l’ouverture des données publiques (portail OpenData), la mesure de l’activité des politiciens (NosDeputees.fr), la documentation des chaînes de production des marchandises (Provenance.org), ou encore la recherche de preuves (travaux de l’agence de design Forensic Architecture pour Amnesty International4). Malheureusement, le travail de médiation propre à un « design de la transparence » est bien souvent invisibilisé par le recours excessif à une flamboyante métaphore de clarté. Cette rhétorique devient alors un étendard permettant de couvrir des omissions calculées. Dès lors, jusqu’où la transparence comme métaphore est-elle soutenable ? Comment le design est-il pris dans ces injonctions ? Quels sont les rôles et effets des interfaces numériques dans les projets politiques de mise en transparence ?

Nous proposons de prolonger les interrogations de Haridimos Tsoukas dans le champ des interfaces numériques, en examinant de nouveaux problèmes créés par leurs modes de gouvernance et de fonctionnement. Les trois paradoxes que nous examinerons dans cet article sont les suivants :

1. Les interfaces numériques dites « transparentes » reposent sur l’opacité intrinsèque aux couches programmatiques.

2. Les projets politiques de transparence développés sous la forme d’interfaces numériques peuvent rendre invisibles des informations jugées controversées.

3. Les projets politiques de transparence cherchent bien souvent à stabiliser une situation de confiance avec l’usager-citoyen, mais la fragilité de l’interaction avec une interface numérique crée beaucoup d’incertitudes sur la bonne réception des informations.

Opacité structurelle des interfaces dites « transparentes »

Premier paradoxe : alors que l’ordinateur personnel et les interfaces numériques reposent sur de l’opacité structurelle (une abstraction du code par de multiples langages et couches logicielles), la transparence de leur fonctionnement est souvent mise en avant comme gage de qualité.

Il est possible de comprendre l’histoire de l’informatique, des premiers calculateurs des années 1940 jusqu’à la situation contemporaine, comme une pile de couches programmatiques « opacifiant » le centre technique des machines pour les rendre plus facilement manipulables. Les opératrices perforant des cartes pour coder des caractères alphanumériques ont progressivement été remplacées par des programmeurs écrivant du code dans des langages de programmation dits de « haut niveau » (Fortran, Lisp, etc.), qui s’éloignent du langage « assembleur » en recourant à des termes empruntés à l’anglais. Au cours des années 1960, l’émergence de l’ingénierie logicielle fait passer l’activité de programmation d’une activité scientifique à un travail peu qualifié : « une dévalorisation du calcul, qui d’un exercice raisonné devint une tâche automatique [afin] d’associer la rationalisation économique à la rationalité algorithmique5 ».

Apparues au début des années 1970 au Xerox Parc de Palo Alto dans une perspective « centrée utilisateur6 », les interfaces graphiques, programmées en langages de plus « haut niveau » (encore plus éloignées du centre technique de la machine) renforcent ce processus de disqualification des opérations de calcul en dissimulant leurs opérations logiques et en transformant les machines électroniques en médiateurs incontournables de toute activité humaine7. Le déploiement à grande échelle des « ordinateurs personnels » n’est qu’une étape vers leur disparition ; c’est ce que Mark Weiser, ingénieur au Xerox Parc, appelle dès 1988 « l’informatique ubiquitaire » : « Les technologies les plus profondes sont celles qui disparaissent. Elles se fondent dans le tissu de la vie quotidienne jusqu’à ce qu’il soit impossible de les distinguer. […] [Nous] pensons que l’idée d’un ordinateur « personnel » est erronée et […] n’est qu’une étape […] vers la réalisation du réel potentiel [de l’informatique afin d’en faire] une part essentielle et invisible de la vie des gens ».

Derrière l’idéal mathématique des langages formels, des précurseurs de « l’archéologie des médias » comme Vilém Flusser ou Friedrich Kittler anticipèrent dès les années 1980 les relations entre la puissance grandissante des technologies numériques et leur retranchement du visible. Malgré un idéal rationnel, les strates des différents niveaux des langages formels informatiques s’empilent sans cohérence. Kittler, grinçant, fait ainsi remarquer que « la surface en argent de la puce [informatique], à la fois modèle et champ principal d’application de toutes les optimisations topologiques, perd la transparence mathématique qui fut la sienne : elle devient une tour de Babel dans laquelle les décombres des tours déjà démolies restent intégrés8 ». Autrement dit : les couches techniques tapies sous nos interfaces numériques cachent la caractéristique première des ordinateurs : leurs capacités à traiter des symboles. Comme l’explique le chercheur en humanités numériques Matthew Kirschenbaum, la « naturalisation » de l’usage des interfaces nous fait oublier que « l’environnement numérique est une projection abstraite supportée et soutenue par sa capacité à propager l’illusion […] de comportement immatériel : identification sans ambiguïté, transmission sans perte, répétition sans originalité9 ».

Cette citation résonne avec les méthodologies contemporaines de design UI (« user interface ») et UX (« user experience »), dont l’objectif est d’entretenir l’illusion d’une continuité avec le quotidien. Dans l’expérience du service de « vidéos à la demande » Netflix (2007), par exemple, aucune subtilité technique de l’infrastructure technologique n’est révélée. Pire encore, la rapidité sidérante à laquelle les informations apparaissent à l’écran dissimule stratégiquement les dispositifs comportementaux de pistage et de profilage des goûts10. Comme le rappelle le théoricien des études visuelles W. J. T. Mitchell, « chaque arrivée d’un nouveau média est simultanément un tournant vers une nouvelle forme d’immédiateté11 ». L’effet de transparence n’est possible que grâce à l’irrépressible rapidité d’affichage des informations sur les interfaces numériques, poursuit Mitchell : « Les chiffrements obscurs et illisibles du code sont le plus souvent mobilisés non pas pour crypter un secret, mais pour produire une nouvelle forme de transparence.12 »

Les interfaces numériques dissimulent leur fonctionnement, mais fournissent dans le même temps des formes de transparence, les boîtes-noires ont toujours une façade qui peut être inspectée. Mais alors que les citoyens-usagers sont constamment aux prises avec des systèmes techniques impossibles à inspecter, la transparence des interfaces demeure paradoxalement un idéal célébré. Pour la théoricienne des médias Wendy Chun, ces discours renforcent la quête tenace d’une compréhension du monde par des médiateurs graphiques : « L’importance actuelle de la transparence dans la conception des produits et dans les discours politiques et universitaires est un geste compensatoire. Comme nos machines lisent et écrivent de plus en plus sans nous, comme nos machines deviennent de plus en plus illisibles de sorte que voir ne garantit plus savoir (si cela a jamais été le cas), pour les soi-disant usagers que nous sommes, il nous est offert plus à voir, plus à lire. L’ordinateur – le dispositif le moins visuel et transparent – a paradoxalement favorisé la «culture visuelle» et la «transparence».13 »

Le récent succès des « assistants vocaux » (Apple Siri, Google Home, etc.) oblitère d’une part les considérables moyens techniques mis en œuvre pour leur fonctionnement14, et d’autre part le fait que les langues humaines, tout comme les langages formels, sont elles aussi le résultat d’une construction sociale. Censées apporter plus de confort et de fluidité, les interfaces dites « ubiquitaires » (Mark Weiser) ou « invisibles » (Don Norman15) annihilent toute réflexivité sur le fonctionnement des programmes, car la médiation graphique entre le système technique et nos capacités de prise de décision a disparu. À l’orée des années 2000, l’expert en « utilisabilité » Steve Krug publie un livre dont le titre sonne comme le mantra que seraient censés adopter les usagers des interfaces : Don’t make me think16. Cet idéal résonne avec les discours marketing des publicités d’Apple des années 2010 : « Nous pensons que la technologie atteint son summum lorsqu’elle devient invisible, quand vous ne pensez qu’à ce que vous faites et non à l’appareil avec lequel vous le faites.17 » Quand les designers transforment les utilisateurs en êtres rationnels cherchant constamment à maximiser leur satisfaction, la rhétorique de la transparence vient imposer un idéal de fluidité. Plus proches de nous, les perspectives transhumanistes des puces neuronales poussent cette logique à son comble en opérant des « prises » au niveau même de la pensée en train de se faire, afin de court-circuiter la latence cognitive nécessaire à l’exercice de la raison critique18. Cette glorification de la fluidité est la porte ouverte à l’exercice d’un pouvoir aussi puissant que discret : où situer nos adversaires19 dans un monde transparent ?

En tant que designers, nous soutenons qu’il n’y a pas de prise de conscience sans friction dans les usages. L’artiste Olia Lialina fait ainsi une critique acerbe de la disparition des interfaces et des utilisateurs : « Les experts en utilisabilité […] confient aux concepteurs d’applications le droit de définir les frontières entre le créatif et le répétitif, le mature et le primitif, le réel et le virtuel. […] Je parle [au contraire] d’une situation dans laquelle le workflow d’une application a des vides que les utilisateurs peuvent combler, où la fluidité et l’uniformité sont interrompues, et où certains des liens finaux doivent être complétés […].20 » Plus que jamais nous avons besoin d’accroches, d’enquêtes et de fouilles pour négocier nos relations aux technologies : identifier les clôtures (enclosures) des systèmes techniques et réorienter notre capacité à inventer.

Malgré les problèmes engendrés par ce retrait du visible, les appels citoyens à la transparence se multiplient. Ces derniers s’expliquent par le désir de manipuler des informations et d’attester leur véracité par des moyens visuels (le « lisible-intelligible ») – autrement dit : de faire passer la complexité du monde dans des signes logiquement organisés. Dans le domaine politique, les journalistes et les designers d’informations deviennent alors les garants de la compréhension non faussée des débats publics. La cacophonie des informations politiques doit être adoucie par la capacité des designers d’interfaces à choisir la bonne distance et le bon point de vue pour donner à l’usager-spectateur la capacité de monter sur scène et de réveiller ses capacités de voir, de sentir et d’agir.

La transparence et sa dramaturgie des faux-semblants

Deuxième paradoxe : la transparence devrait « éclairer » la complexité du réel, mais bien des projets politiques visant à produire de la transparence sont peuplés d’interfaces de mise en « invisibilité » des informations. La transparence apparaît alors comme une tactique de neutralisation du débat public. Dans ce cas, les interfaces numériques sont utilisées de manière rhétorique pour garantir l’honnêteté et la légitimité des décideurs : la transparence est « performée » par des interfaces afin de produire un effet de transparence.

L’usage rhétorique de la transparence cache en réalité une politique de la curation et de la responsabilité éditoriale. L’activiste Julian Assange a ainsi été critiqué de nombreuses fois pour avoir manqué de soin dans la divulgation d’informations sensibles. Le lanceur d’alerte Edward Snowden a par exemple regretté la façon dont WikiLeaks (2006) ne respectait pas toujours la vie privée des personnes mentionnées dans les « fuites21 », car la non-curation de contenus délivrés dans des actions de transparence peut avoir de graves effets collatéraux. De plus, la quantité massive de données divulguées de façon brute n’aide pas toujours à clarifier les situations controversées. Rappelons que l’ambition première de WikiLeaks était de créer un forum en ligne sur lesquels des experts devaient travailler collaborativement à l’exégèse des documents rassemblés. Mais la collaboration entre WikiLeaks et des médias traditionnels (Le Guardian, Le Monde, etc.) a détourné cette ambition vers une forme plus classique de breaking news et autre press releases. Le fonctionnement de WikiLeaks n’est pas sans ambiguïté, comme le note le théoricien des médias Geert Lovink qui inscrit la plateforme dans une culture plus large de « l’exposition anarchique » : « WikiLeaks a fait preuve d’un manque flagrant de transparence dans son organisation interne. Il ne suffit pas de dire quelque chose comme «WikiLeaks doit être complètement opaque pour forcer les autres à être totalement transparent». En faisant cela, vous avez battu l’opposition, mais d’une façon qui vous a rendu semblable à elle.22 »

Suite aux révélations d’Edward Snowden en 2013 montrant les accointances entre l’agence de sécurité américaine NSA et les géants du Web, ces derniers, à l’instar des groupes pétro-gaziers, ont été poussés par les autorités et la société civile à diffuser des « rapports de transparence ». Ces documents présentent le type et le nombre de demandes d’accès à des données que tout gouvernement a fait à des entreprises comme Google, Facebook, Verizon ou AT&T. Ces données peuvent être liées à des enquêtes policières (attentats, etc.), à des crises environnementales (ouragans, tsunamis), ou encore à des violations de copyrights. Publiés deux fois par an, ces gestes de transparence se positionnent stratégiquement comme une réponse à de mauvais agissements passés et comme une manière d’anticiper de futurs « faux pas23 ». De nombreux éléments controversés ne sont bien sûr pas évoqués : les accords commerciaux ou de surveillance entre gouvernements et entreprises, l’accès par des tiers à des données personnelles, les multiples places de marché de reventes de données, etc. – business as usual.

La forme éditoriale des rapports de transparence de Twitter24 et Facebook25 est à cet égard révélatrice : ces entreprises ne publient pas de fichiers PDF mais des « jeux de données ». La société de la transparence nourrie à l’idéologie positiviste du big data – selon laquelle la vérité résiderait dans l’abondance des données brutes – fait écho au rêve de la société de l’information décrite par Haridimos Tsoukas : « Nos désirs modernes de transparence et de régulation sociétale seront réalisés à travers une plus grande connaissance. Mais pas n’importe quelle forme de connaissance fera l’affaire ; seule la connaissance conçue comme information (pour être précis : comme information objectivée, abstraite, décontextualisée) est considérée comme utile.26 »

Dans la rhétorique contemporaine de la transparence et sa quête incessante d’intelligibilité du monde, les jeux de données ont remplacé les informations, mais le même espoir persiste. On pourrait se réjouir de ce procédé en tant qu’il permettrait aux utilisateurs potentiels de réaliser un travail de contextualisation, d’analyse et de croisement des sources. Mais la création d’un public attentif et capable de faire émerger du sens est conditionnée par les caractéristiques techniques de ces divulgations. Dans le cas des rapports de transparence de Twitter et Facebook, seules les personnes capables d’ouvrir et manipuler des fichiers de données au format CSV (Comma Separated Values) pourront pleinement jouir des résultats des rapports. Comme les rapports ne comprennent pas de documentation permettant de savoir comment les données délivrées sont construites (et non « données »), ces initiatives versent dans une forme de data washing (« lavage de cerveau par les données ») : une mise à distance des informations controversées par un trop-plein de diffusion de données « brutes ». Ces exemples signalent un changement de pratiques dans la médiatisation de la transparence par les organisations en contexte numérique : la mise en données du monde (« datafication ») est passée par là. La culture déclinante de l’audit et du rapport de transparence héritée des années 1990 a basculé vers une logique hétéroclite de la révélation peuplée d’interfaces interactives, de visualisations de données, d’exfiltrations orchestrées sur les médias sociaux, ou de plateformes d’alertes dédiées au journalisme d’investigation.

Les rapports de transparence de Facebook et Twitter montrent que les interfaces « pour » la transparence sont principalement conçues pour divulguer et diffuser des données, là où le citoyen-utilisateur voudrait en apprendre davantage sur les activités des acteurs concernés. Si les interfaces de disclosure (révélation) doivent faire face à des problématiques d’accès, de dépôt, de téléchargement et de réutilisation des données, le design graphique pourrait quant à lui s’intéresser à la documentation des processus organisationnels ou techniques visant davantage de transparence. C’est par exemple ce qu’a entrepris le designer Dima Yarovinsky en imprimant de manières standardisées les « Conditions Générales d’Utilisation » (CGU) des grandes sociétés du Web comme Facebook, Snapchat, Instagram ou Tinder. Son projet « I agree27 » (2018) permet ainsi de comparer les formes éditoriales et le temps nécessaire pour lire chacune de ces interminables CGU.

Cette tension entre la transparence comme diffusion d’informations et la transparence comme mise en visibilité des processus traverse l’ensemble des initiatives de ce type. Les « seules » données nous disent bien peu, car ce qui importe est davantage lié à leur élaboration (collecte, manipulation, traitement, etc.) et aux différents acteurs impliqués dans leur divulgation (équipe interne, infomédiaires, etc.). La métaphore et la rhétorique de la transparence restent tenaces dans la communication des organisations. En témoigne l’exemple du « Google Transparency Project » (2016), une campagne étudiant les relations de Google avec les mondes académiques et politiques. Dans ce contexte de suspicion généralisée, l’honnêteté de ce projet de transparence est mise en question par les investigations du journal Fortune28 révélant que la campagne est en partie financée par la firme Oracle, régulièrement en procès avec Google. Le théâtre de la transparence se mélange au théâtre des batailles économiques, et l’aveuglante lumière de la transparence se révèle être un instrument au service du management des impressions29. Comme le disent les designers du studio Metahaven, la transparence devient un écran de fumée, une évanescente black transparency30 – où quand la transparence de l’un devient la propagande de l’autre.

De la rémanence du « voir c’est savoir »
à l’incertitude du « interagir c’est savoir »

Troisième paradoxe : alors que la recherche de transparence dans les interfaces graphiques crée de l’opacité et que la mise à disposition de données brutes échoue à avérer des logiques de pouvoir souterraines, il pourrait être tentant de voir dans la construction d’interfaces interactives le moyen de donner au citoyen la capacité d’interpréter des situations complexes. Censée stabiliser une relation de confiance, l’interaction crée pourtant beaucoup d’incertitudes sur la bonne réception des informations.

Les interfaces orientées vers la disclosure (divulgation) sont la forme la plus courante de la transparence institutionnalisée par des entreprises ou des États : communiqués, rapports, cadres légaux pour les demandes citoyennes (FOIA request aux États-Unis, demandes CADA en France) ou encore politique d’ouverture des données publiques (portail data.gouv.fr, 2011). Ces manifestations s’inscrivent majoritairement dans le crédo du « plus d’information, plus de transparence ». Dans ce cadre, les interfaces numériques envisagent majoritairement les techniques numériques de manière instrumentale : les interfaces sont des canaux de communication qui sécuriseront l’effet attendu de transparence dans une vision profondément marquée par le déterminisme technologique. Le chercheur Evgeny Morozov parle ainsi de « solutionnisme31 » pour désigner une situation où quelqu’un invente un problème, transforme cette fausse représentation en problème urgent, puis plaide en faveur de la technologie pour le résoudre. Selon Morozov, nous devons au contraire nous méfier de cette confiance aveugle placée dans les technologies numériques qui, sous couvert de neutralité et d’universalité, masque des valeurs économiques et des biais culturels.

On pourrait alors penser qu’une énonciation des enjeux de la transparence pourrait permettre de sortir de ces impasses. Dans leur ouvrage Transparency and the Open Society32, les entrepreneurs Roger Taylor et Tim Kelsey expliquent ainsi que, pour être efficace et performante, la mise en œuvre de projets de transparence doit s’accompagner d’une théorie du changement social et politique. Celle-ci suppose que les informations divulguées calmeront la défiance des citoyens et restaureront la confiance. Malheureusement, peu de recherches empiriques, précises et sérieuses confirment cette hypothèse33. De plus entre les citoyens, les médias, les représentants politiques et les entreprises, les systèmes d’appréciation et de mesure de la confiance restent très hétérogènes34.

Le problème de la diffusion irrépressible de contenus à travers des interfaces de divulgation est qu’elle délègue le travail d’exégèse et de contextualisation des contenus vers l’usager-citoyen, les acteurs en jeux se dédouanant ainsi de travailler sur leur intelligibilité. Malheureusement, bien peu d’acteurs publics ou privés se sont engagés dans l’explication soigneuse des activités ou des procédures de travail d’un objet de transparence tel qu’une organisation ou une question complexe cristallisant des intérêts de la société civile. En réalité, ce manque d’explicitation des activités des acteurs publics ou privés a créé un marché pour les entrepreneurs de la transparence.

Nous avons observé deux tendances dans la construction de ce type d’interfaces de la mise en transparence des activités ou processus internes aux organisations : certaines s’orientent vers une scénarisation de l’honnêteté publique, d’autres vers la production d’indicateurs de transparence quantitatifs et jugés alternatifs. La première tendance s’incarne par exemple dans le service Provenance.org (2014) qui permet à des organisations de documenter leurs chaînes de production et d’approvisionnement de marchandises. Avec son slogan « look beyond the label », le service promet de raconter une histoire accessible et véridique sur la fabrication, la transformation et l’impact des produits. La traçabilité n’est plus une affaire d’infrastructure technique complexe, c’est un récit partagé de manière « transparente » par les organisations. Mais comme expliqué précédemment, cette forme de storytelling risque fortement de verser dans le data washing.

La deuxième tendance des interfaces d’explication s’incarne dans la production d’indicateurs et de métriques (analytics) considérés comme des informations graphiques traduisant la performance d’un acteur et reflétant des degrés de transparence. Citons par exemple le service « Transparency at Work35 » (2018), qui permet à de jeunes travailleurs d’évaluer leurs expériences chez leurs employeurs suivant trois catégories : expérience d’apprentissage, supervision et management, environnement de travail et culture. On peut également nommer le service Pluto.life36 (2017), basé sur la même idée que Transparency at Work, mais présentant des métriques différentes comme l’égalité des salaires, la diversité des employés ou encore le niveau de respect et d’inclusion. Dans les exemples présentés, la mise en visibilité des processus est ainsi effectuée par les acteurs-sujets de la transparence, détenteurs des informations cruciales.

Dans d’autres initiatives de transparence, le spectre de l’auditabilité et de l’évaluation par des acteurs tiers revient au galop. AlgoTransparency37 (2017), un groupe de développeurs devenus activistes ont par exemple créé un indicateur alternatif qui permet de savoir si une vidéo de la plateforme YouTube est beaucoup plus recommandée qu’une autre. L’initiative permet certes de comparer ce niveau de performance entre vidéos, mais la construction de l’indicateur rajoute une couche d’opacité. La transparence devient alors un casse-tête en forme de poupée russe : l’opacité de l’algorithme de recommandation de YouTube est explicitée par des indicateurs qui demandent eux aussi à être expliqués. On est dès lors donc en droit de se demander si toutes les formes de transparence sont solubles dans des indicateurs quantitatifs (présentés sur des interfaces numériques).

Après les interfaces de divulgation de données et de mise en visibilité d’activités, une dernière voie, plus expérimentale, est à envisager pour la création et présentation des processus conduisant à une mise en visibilité de contenus. Elle passe par des interfaces numériques reposant sur la simulation, et non pas sur la dissimulation. Dans le contexte français actuel, citons par exemple le projet OpenFisca38 (2013), un moteur de calcul qui permet de modéliser le système socio-fiscal français, de simuler l’impact de réformes, et de développer des services tiers. Porté par la mission interministérielle Étalab chargée de la gestion et de l’animation des données publiques, le dispositif se situe entre la divulgation (de code source, mais aussi de résultats de calculs générés par l’usage du moteur) et la mise en visibilité d’un processus technique grâce à sa manipulation dans une interface numérique. Dans un contexte bien différent, l’agence de design et laboratoire de recherche Forensic Architecture a été commissionnée par l’ONG Amnesty International pour raconter l’expérience des prisonniers syriens de Saydana (2016). Grâce au témoignage des prisonniers (et en particulier grâce à leur mémoire sonore des lieux), l’architecture et les monstrueuses conditions de détention de la prison ont été simulées informatiquement et visualisées sous la forme d’une maquette 3D accessible en ligne39. Dans les interfaces de simulation évoquées ci-dessus, ce qui accroît la croyance dans la transparence n’est plus la vision (paradigme perdu ou imaginaire du « voir c’est savoir »), mais l’interaction (paradigme expérientiel du « savoir c’est interagir »).

Ce modèle tourné vers la manipulation et le faire crée pourtant (et paradoxalement) beaucoup d’incertitudes sur la réception des informations par les citoyens-usagers. La transparence par la simulation nécessite la compréhension de systèmes-experts et un certain savoir préalable : une littératie numérique qui met à distance nombre de publics profanes. L’exploration sensorielle et spéculative des projets de Forensic Architecture ouvre néanmoins des chemins prometteurs pour des mises en scène politiques de la transparence. Il faut reconnaître que la simulation présente un triptyque pédagogique au cœur de l’efficacité politique de la transparence : mise en visibilité de données et processus, immersion dans une activité, et capacité de narration d’une expérience. Il serait ainsi possible de renouer avec l’idéal démocratique de la transparence conçue comme la capacité du citoyen à retrouver des moyens d’explicitation, de verbalisation, et des capacités d’action collective comme de réclamation individuelle : des « prises » sur les données pour se détourner des lumières aveuglantes de la sorcellerie métaphorique entourant le concept de transparence40.

Éclairer la transparence

Dans cet article, nous avons voulu mettre en évidence trois paradoxes au cœur de la manifestation de la transparence en contexte numérique : le fait que les interfaces numériques reposent sur une obfuscation ontologique des couches programmatiques ; la tendance des projets politiques de transparence à invisibiliser les controverses grâce à l’utilisation rhétorique des interfaces et de leurs données ; et la transformation du paysage médiatique de la transparence en une tension entre divulgation, mise en visibilité de processus, et création d’expériences de simulation renouvelant potentiellement les capacités de narration des citoyens.

Face à l’irrépressible désir de transparence, les interfaces numériques se positionnent comme des opérateurs pragmatiques distribuant des capacités et incapacités à voir, connaître et agir. La métaphore de la transparence appliquée à des enjeux de compréhension du monde interroge directement les mutations du design au contact des technologies numériques. Les couches programmatiques font qu’il est impossible de tout révéler, et posent la question de ce qu’il est souhaitable de masquer ou de révéler. Comme nous l’avons vu, les opérations graphiques visant l’intelligibilité doivent de plus composer avec d’autres dimensions que le visible pour rendre le monde intelligible – c’est-à-dire susceptible d’être transformé. Comme des filtres, les interfaces numériques opèrent un partage du sensible, du visible et du pensable41. Considérant le désigner comme un « stratège des apparences42 », le designer Gui Bonsiepe plaide ainsi pour que le design « [favorise] une conscience critique face à l’énorme déséquilibre entre les centres de pouvoir et les personnes qu’ils soumettent, car ce déséquilibre est profondément antidémocratique dans la mesure où il nie la possibilité d’une participation. Il traite les êtres humains comme de simples instances de processus d’objectivation et de marchandisation43 ».

Afin de résister à la tyrannie de la transparence qui nous emprisonne dans la dichotomie entre un fond de scène véridique et une façade mensongère, il est nécessaire de considérer les interfaces numériques non pas comme des fenêtres (windows) qu’il faudrait ouvrir afin de révéler une vérité cachée, mais comme des surfaces orchestrant des relations entre des faces : entre des personnes, des publics, des techniques44. Adopter cette attitude pour abandonner la toxique tyrannie de la transparence nécessite aussi de reconsidérer l’esthétique des médias produite par les designers. Il s’agirait d’adopter une pensée relationnelle du design qui s’intéresserait aux effets et affects politiques provoqués par l’usage des interfaces numériques. Comme le propose l’anthropologue Tim Ingold, prendre au sérieux les opérations d’interfacialité (interfaciality) n’est rien de moins qu’une restauration et réorientation de notre attention pour la vie sociale en train de se faire45.

1 Annick Lantenois, Le vertige du funambule. Le design graphique entre économie et morale, Paris, B42, 2010, p. 11.

2 « Transparence », Dictionnaire CNRTL, www.cnrtl.fr/definition/transparence

3 Haridimos Tsoukas, « The tyranny of light: The temptations and the paradoxes of the information society », Futures, vol. 29, no 9, novembre 1997, p. 827 (nous traduisons).

5 Judy L. Klein, Rebecca Lemov, Michael D. Gordin, Lorraine Daston, Paul Erickson, Thomas Sturm, Quand la raison faillit perdre l’esprit. La rationalité mise à l’épreuve de la Guerre froide [2013], trad. Jean-François Caro, Bruxelles, Zones Sensibles, 2015, p. 57.

6 Pour une analyse critique de cette notion, voir : Anthony Masure, « Manifeste pour un design acentré », dans : Design et humanités numériques, Paris, B42, 2017.

7 Steven Johnson, Interface Culture. How new technology transforms the way we create & communicate [1997], New York, Basic Books, 2004.

8 Friedrich Kittler, Mode protégé [1991], trad. Frédérique Vargoz, Dijon, Les presses du réel, 2015, p. 68.

9 Matthew G. Kirschenbaum, Mechanisms. New Media and the Forensic Imagination [2007], Cambridge/Mass., MIT Press, 2011, p. 11 (notre traduction).

10 Ashok Chandrashekar, Fernando Amat, Justin Basilico, Tony Jebara, « Artwork Personalization at Netflix », Medium.com, décembre 2017, https://medium.com/netflix-techblog/artwork-personalization-c589f074ad76

11 W. J. T. Mitchell, Image Science. Iconology, Visual Culture and Media Aesthetics. Chicago, University of Chicago Press, 2015. p. 114 (nous traduisons).

12 Ibid.

13 Wendy Hui Kyong Chun, « On Software, or the Persistence of Visual Knowledge », Grey Room, no 18 (2004), p. 27 (nous traduisons).

14 Benjamin Bratton, The Stack. On Software and Sovereignty, Cambridge/Mass., MIT Press, 2016. Une traduction française paraîtra en 2019 aux UGA Éditions.

15 Donald A. Norman, The Invisible Computer, Cambridge/Mass., MIT Press, 1998.

16 Steve Krug, Don’t Make Me Think, RevisitedA Common Sense Approach to Web Usability [2000], 3e édition, San Francisco, New Riders, 2014.

17 « Official Apple (New) iPad Trailer », YouTube, mars 2012, https://youtu.be/RQieoqCLWDo

18 Olivier Ertzscheid, « Peut-on mesurer sans contraindre ? Bienvenue dans le World Wide Brain », Affordance.Info, http://affordance.typepad.com/mon_weblog/2018/05/bienvenu-world-wide-brain.html Voir aussi à ce propos la majeure du no 68 de Multitudes, « Quand le néolibéralisme court-circuite nos choix ».

19 Dérivé du latin adversus « situé en face ». De ad- (—> à) et versus « tourné » (—> vers).

20 Olia Lialina, « L’utilisateur Turing-complet » [2012], trad. Jean-François Caro, LGRU Reader, 2013, http://reader.lgru.net/texts/lutilisateur-turing-complet

21 En témoigne ce tweet de Edward Snowden du 28 juillet 2016 : « La démocratisation de l’information n’a jamais été aussi vitale, et @WikiLeaks a aidé. Mais leur hostilité envers une curation même modeste est une erreur. » (nous traduisons).

22 Geert Lovink, « Techno-Politics at WikiLeaks », Networks without a cause: a critique of social media, Cambridge (UK), Polity, 2011 (nous traduisons).

23 Penny Harvey, Madeleine Reeves, Evelyn Ruppert, « Anticipating failure. Transparency devices and their effects », Journal of Cultural Economy, vol. 6, no 3 (2013), p. 294-312.

26 Haridimos Tsoukas, The tyranny of light, op. cit., p. 828.

28 Jeff John Roberts, « Oracle Is Funding a New Anti-Google Group », Fortune, 19 août 2016, http://fortune.com/2016/08/19/google-transparency-project-2

29 Erving Goffman, « The arts of impression management », dans The Presentation of Self in Everyday Life, Edinburgh, Social Sciences Research Centre, 1956, p. 132-151.

30 Metahaven, Black Transparency. The Right to Know in the Age of Mass Surveillance, Berlin, Sternberg Press, 2016.

31 Evgeny Morozov, Pour tout résoudre cliquez ici ! L’aberration du solutionnisme technologique [2013], trad. Marie-Caroline Braud, Roubaix, FYP, 2014.

32 Roger Taylor, Tim Kelsey, Transparency and the Open Society. Practical Lessons for Effective Policy, Bristol, Policy, 2016.

33 Oana Albu, Mikkel Flyverbom, « Organizational transparency: conceptualizations, conditions, and consequences », Business & Society, juillet 2016, p. 1-30.

34 A. K. Schnackenberg, E. C. Tomlinson, « Organizational transparency: a new perspective on managing trust in organization-stakeholder relationships », Journal of Management 42 (2014), p. 1784-1810.

40 Philippe Pignarre, Isabelle Stengers, La sorcellerie capitaliste. Pratiques de désenvoûtement, Paris, La Découverte, 2005.

41 Jacques Rancière, Le partage du sensible, Paris, La Fabrique, 2000.

42 Gui Bonsiepe, « Democracy and Design » [2005], Design Issues, vol. 22, no 2, été 2006, p. 31 (nous traduisons).

43 Ibid., p. 30.

44 Tim Ingold, « Surface Visions », Theory, Culture & Society, vol. 34, no 7-8, octobre 2017, p. 99.

45 Ibid, p. 105.

 

Masure Anthony

Responsable de la recherche de la Haute École d’Art & Design de Genève (HEAD – Genève). Agrégé d’arts appliqués et ancien élève du département design de l’ENS Paris-Saclay, il est membre associé du laboratoire LLA-CRÉATIS de l’université Toulouse – Jean Jaurès. Ses recherches portent sur les implications sociales, politiques et esthétiques des technologies numériques. Il a cofondé les revues de recherche Réel-Virtuel et Back Office. Il est l’auteur de l’essai Design et humanités numériques (éd. B42, 2017). www.anthonymasure.com

Loup Cellard

Doctorant au sein du Centre for Interdisciplinary Methodologies de l’université de Warwick (UK).