Interrompre la distriveillance

 

Les sujets numériques sont façonnés aujourd’hui par le partage du sensible numérique – un arrangement qui détermine ce qui est visible, audible, dicible, connaissable, ainsi que les rôles que chacun d’entre nous est appelé à y jouer1. En raison du fait que cet arrangement implique des formes de distribution ainsi que de surveillance, je propose de l’appeler distriveillance, néologisme à entendre comme désignant une « surveillance en partage » (shareveillance).

La distriveillance se caractérise par l’exigence conjointe, imposée à des sujets, de partager leurs données avec un État surveillant et de mettre en acte la surveillance de l’État chaque fois que celui-ci partage ses données avec les citoyens. La distriveillance fournit le contexte à l’intérieur duquel nos données sont récoltées et transformées en données fermées d’un État surveillant, sécuritaire, tandis que l’on s’attend à ce que nous agissions sur et ajoutions de la valeur aux données ouvertes qui arrivent, à la suite des efforts de l’État, pour faire preuve de plus de transparence. Prises ensemble, ces tendances tracent un cadre bien précis pour le politique.

Une critique radicale du partage ubiquitaire et par défaut, tel qu’on l’observe dans le contexte numérique, est plus urgente que jamais. Par ailleurs, j’aimerais explorer d’autres possibilités pour sauver l’idée du partage, afin d’imaginer une subjectivité politique collective qui puisse émerger dans cet instant socio-technique qui est le nôtre (plutôt que d’en rester à une simple opposition). Dans cet article, je soutiendrai que l’on peut interrompre le type de subjectivité produite par la distriveillance (et, concomitamment, la distriveillance tout court) en réclamant non pas un droit à accéder à plus de données, ou alors un droit à la vie privée, mais un « droit à l’opacité2. » Dans le contexte de la distriveillance, ce droit impliquerait de pouvoir exiger de ne pas être réduit à – ou de ne pas devoir interagir avec – des données selon les modalités imposées par l’État ; de pouvoir résister aux termes de l’engagement établis par les deux côtés de la distriveillance (autrement dit, de partager des données avec l’État et de surveiller ces données partagées) Accepter la distriveillance, c’est accepter un « partage du sensible » qui n’est pas basé sur l’égalité. Il faut un partage différent, plus éthique, un partage, une distribution ou un découpage que nous proposerions en retour. En mettant en avant un droit à l’opacité face aux découpages imposés par la distriveillance, il s’agit de repolitiser la notion de « partage », afin d’envisager des distributions plus équitables et éthiques.

Le partage protocologique

Dès lors que poster, republier un lien ou « liker » sont autant d’actes que l’on qualifie aujourd’hui, indifféremment, de « partage » sur les sites des réseaux sociaux, Nicholas John a pu soutenir qu’en effet, « le partage est l’activité fondamentale et constitutive du web 2.03 ». Il pousse ce raisonnement plus loin encore : « On pourrait même soutenir que […] l’Internet tout entier consiste essentiellement en une technologie de partage4 », écrit-il, en citant l’importance des logiciels open source et des langages de programmation, tout comme les économies de partage dans les processus de production, ainsi que le développement de sites web basés sur le contenu généré par des utilisateurs. Même son de cloche pour Engin Isin et Evelyn Ruppert, lorsque ceux-ci soutiennent que « l’ubiquité des différents usages des traces numériques a établi le partage des données comme norme.5 »

Pour ma part, je formulerai des choses en déplaçant légèrement l’accent : il faut concevoir que le partage représente la logique constitutive d’Internet. Plutôt que de se concentrer sur ce que les utilisateurs du Net y font, je souhaite me concentrer plutôt sur l’idée que le partage opère à un niveau protocologique. L’usage de ce terme est emprunté à Alexander Galloway et à son analyse des protocoles informatiques comme autant de standards qui « gouvernent la manière dont des technologies spécifiques sont acceptées, adoptées, mises en place et enfin utilisées par des personnes tout autour du globe.6 »

Loin de moi l’idée de proposer une célébration utopique des origines soi-disant ouvertes ou libres d’Internet. Comme d’autres d’ailleurs, Galloway souligne l’erreur qui consisterait à faire ce genre de présupposé, quand il caractérise Internet comme une technologie marquée par le contrôle et les hiérarchies de la clôture. En décrivant le partage comme quelque chose de protocologique, je souhaite plutôt dire que le grain de le Toile est, avant tout, « non-étatique », au sens informatique des choses : en tant que défaut d’« inputs » stockés. En d’autres termes, l’architecture de base d’Internet ne garde pas automatiquement une trace des interactions précédentes, si bien que chaque requête d’interaction est traitée exclusivement sur la base de l’information qui l’accompagne. Ainsi par exemple, la méthode de base sur Internet pour envoyer des données entre des ordinateurs – le Protocole Internet (IP) – fonctionne par l’envoi de petits morceaux, des « paquets » de données, qui voyagent tout à fait indépendamment les uns des autres. Ces paquets discrets sont ensuite rassemblés à un niveau supérieur, par le Protocole du Contrôle de Transmission (TCP), mais l’IP lui-même se passe de tout État-nation. Nous pouvons également regarder les façons dont le Protocole de Transfer d’Hypertexte du web (HTTP) télécharge les pages demandées, mais ne garde pas « en mémoire » ces requêtes. L’effet d’une telle communication discrète, c’est qu’aucune continuité n’est enregistrée.

Comme Tom Amitage l’a fait remarquer, étant donné que l’architecture par défaut de la Toile est ouverte et non-étatique, elle se prête à merveille au partage, et beaucoup moins à la défense de la vie privée, et à la propriété7. Par là, Armitage veut simplement dire que « mettre en place des structures étatiques, la vie privée, la propriété ou un mur payant, cela représente un effort.8 » L’État intervient à un niveau secondaire, et vient se greffer sur un système non-étatique. Je précise que cela ne veut pas dire pour autant que l’élaboration et le développement du Net aient été libres de toute considération propriétaire, ni qu’une architecture par défaut ne soit pas guidée par des choix conscients et délibérés. Je veux plutôt souligner le fait que la suspension de la connexion, et donc, le partage en réseau ou avec d’autres utilisateurs représente une opération ultérieure, qu’il faut introduire en un second temps, avec des niveaux et des mécanismes spécifiques. Ainsi Netscape avait introduit le « cookie » dans son navigateur (ou encore le « mouchard », selon sa désignation française, qui dit mieux de quoi il retourne) : un petit fichier en mode texte qui stocke des petits ensembles de données associées à un nom de domaine. Aussi longtemps que le « cookie »-mouchard n’aura pas expiré, il continuera à enregistrer les pages visitées par un utilisateur et contribuera à façonner un profil personnel. Dans ses formations non-étatiques, bien avant l’« effort » d’imposer des structures étatiques, on pourra donc conceptualiser Internet comme une technologie sans territoire ni frontières, structurée par un régime de partage permanent. Si on laisse de côté les techniques de tracking, le partage représente bien une règle conditionnant toute possibilité de communication entre ordinateurs.

Or, avec la survenue de l’État qui trace le mouvement en ligne des utilisateurs, c’est un nouveau genre de « partage » qui prend le dessus, un partage qui concerne non pas la communication ouverte et non-accumulatrice du peer-to-peer, mais plutôt le fait de « faire part » de la navigation, des recherches et des données d’un utilisateur individuel ou d’une adresse IP avec l’éditeur du web, ainsi que, bien souvent, avec des tiers. Élément de langage significatif, les entreprises telles que Facebook et Google emploient le terme de « partage » pour parler de la monétisation des données des utilisateurs9. Après son rachat par Facebook, en 2013, la charte sur la vie privée d’Instagram s’est donc enrichie d’une section intitulée « Le partage de vos informations10 ».

Le partage est le mécanisme où le protocole et le profit sont amarrés l’un à l’autre. Des entités légales et illégales en veulent indifféremment à nos données, en vue de les partager. Cela vaut également pour les hackers, au cas où nos données seraient suffisamment intéressantes ou profitables, et qu’ils parviennent à franchir les logiciels de prévention de perte de données (data loss protection software, DLP) et autres systèmes de protection qui vont des firewalls aux techniques de cryptage. Cela vaut encore pour les trackers employés par les éditeurs en ligne, comme Doubleclick, qui enregistrent les données que nous générons grâce à notre activité numérique afin de personnaliser les services et les publicités pour les vendre à des entreprises tierces. Souvent, les trackers de ce genre ne signalent pas leur présence, à moins que nous les repérions activement via des extensions d’anti-traçage disponibles pour les navigateurs (tel que Ghostery), ou encore en passant au crible les contrats d’utilisation de nos logiciels (qui souvent ne mentionnent pourtant pas quels genres de trackers sont employés). De nombreux sites web comportent des trackers multiples – des cookies et des balises. Ironie de l’histoire, certains portails du Net qui emploient des trackers sont à leur tour victimes de siphonnage de données, ce qui veut dire en l’occurrence que les informations liées à notre navigation peuvent être réutilisées sans la permission du portail original. De telles secrétions, de tels « partages » involontaires de données déjà « partagées », mettent en évidence la difficulté qu’il y a à ne pas partager.

Si je propose l’idée d’un partage protocologique, c’est pour souligner le fait que des modes spécifiques de partage (et de non-partage) ainsi que la distribution particulière des (données) sensibles, sont déterminés par des dispositifs idéologiquement chargés. Singulièrement, les conditions de partage ou de non-partage infléchissent aujourd’hui les processus de subjectivation, dès lors qu’elles représentent un type d’interpellation – et de limitation – des capacités de veille et d’agentivité.

Toujours-déjà en partage

En fonction de nos orientations politiques, nous serons enclins à être plus ou moins résistants à l’idée de troquer nos données contre de la sécurité ; en fonction de notre disponibilité et du temps que nous sommes prêts à consacrer à la lecture des clauses dans les différents contrats liés à la privacy, nous serons plus ou moins informés sur ce que nous partageons de fait avec des entreprises privées ; en fonction de l’attention que nous avons accordée aux détails des révélations faites par Edward Snowden, nous aurons une compréhension plus ou moins grande des manières dont nos communications et nos mouvements peuvent être surveillés par l’État. Mais abstraction faite des différentiels en termes de connaissance et d’orientation politique, force est de constater que le partage constitue aujourd’hui non plus un acte conscient et consciencieux, mais un élément clé de la subjectivité numérique contemporaine.

Il faut se défaire de l’idée que les idées nous appartiendraient, dans un premier temps, et que nous les partagerions ensuite, dans un second temps. En réalité, nous nous trouvons plutôt dans un assemblage dynamique de partage : nous sommes toujours-déjà en instance de partager des données avec agents humains ou non-humains. Il s’agit d’une subjectivité distriveillante qu’on pourrait qualifier de type « ascendant », façonnée par le va-et-vient entre ouverture et clôture. Par le terme de « distriveillance », nous entendons saisir la condition de consommation et de production de données qui débouche sur la production d’un sujet qui est en même temps surveillant et surveillé. Pour reformuler les choses en déplaçant légèrement l’accent : le sujet de la distriveillance est un sujet qui travaille pour et qui est travaillé par les données.

Le partage domine en tant que norme du système à cause des difficultés liées à la mise en œuvre de la déconnexion et aux efforts pour préserver les données ou à faire de celles-ci des biens personnels. Prenons la première de ces difficultés : il ne fait pas de doute que la facilité et la rapidité avec laquelle on peut aujourd’hui copier du contenu numérique signifient que toutes les données déjà mises en circulation seront difficilement révocables. Qui plus est, dans le cas du stockage dans le cloud, ou même des copies de sauvegarde des disques durs, la réplication de données est la norme. Il y a bien souvent plusieurs copies d’un seul et même fichier, sur un disque dur, sans parler des différents systèmes de sauvegarde. Voilà pourquoi cela n’a que peu de sens, quand il est question de données numériques, de parler d’« original », mais cela suggère aussi que les données ne sont pas forcément en situation de compétition et que le partage ne signifie pas pour autant un épuisement des ressources. On pourrait également regarder la façon dont les utilisations – et les réutilisations – des ensembles de données dans différentes applications rendent parfaitement caduques les discours sur le « dé-partage » des données : devenu l’élément vital des applications, l’oxygène dont la new econony a besoin, les données se distribuent et se divisent, elles sont vaporisées dans tous les sens et sur des supports de médias multiples. D’emblée, il y a donc une propension à la distribution, à la duplication, à la sécrétion, à la circulation et au partage.

Ayant indiqué la voie d’une distribution des données sensibles qui engloberait le public et le privé, les entités nationales et transnationales, je me pencherai à présent sur la manière dont les formes « ouvertes » et « fermées » de data étatiques viennent irriguer une telle distribution.

Les données liées au « gouvernement ouvert »
et au « gouvernement fermé »

Par open government data, on entend généralement la mise à disposition de big (et de « petit ») data de la part des agences gouvernementales. Mis à part quelques rares voix critiques, les open government data sont applaudies en tant qu’outil de démocratisation des savoirs et de la recherche, dès lors qu’elles revigorent l’économie, améliorent l’efficacité, assurent la prise de responsabilité, et elles occupent donc une fonction clé dans les démocraties numériques, ou démocraties « 2.0 ». Les open government data sont partagées sans risque d’épuisement : un partage non pas au sens d’une division, mais au sens d’une mise en commun donnant accès à une même chose à de multiples citoyens.

Par contraste, l’expression closed government data désigne des données qui sont éloignées du regard du public, que ce soit pour des raisons de protection de la vie privée, pour des raisons diplomatiques ou encore de sécurité nationale. En anglais l’adjectif closed  renvoie à la clôture, à l’enclos qui enferme non pas tant les données que les citoyens eux-mêmes;. Ces derniers « forclos » de leurs propres données, n’ont plus du coup accès à ce qu’ils ont pu, à un moment donné et peut-être à leur insu, partager sur les réseaux. En partageant ce genre de données, nous les avons cédées une fois pour toutes ; notre « part » n’est plus à nous. En d’autres termes, sans l’intervention de sonneurs d’alerte ou de hackers, les closed government data ne seront jamais susceptibles d’être utilisées autrement que selon les modalités retenues par l’État.

Dans leurs formations ouvertes, les données étatiques sont délibérément et stratégiquement partagées par les agents qui les collectent ; dans leurs formations fermées, les data sont délibérément et stratégiquement retirées du partage. Par rapport aux données fermées, et tout particulièrement dans le cas de la surveillance étatique, les citoyens partagent leurs données avec un agent propriétaire en échange de privilèges qui vont de pair avec la citoyenneté. Consciemment ou inconsciemment, de façon explicite ou implicite, nous pouvons considérer que la collection de nos données GPS ou des métadonnées de notre téléphone représente une contrepartie équitable pour toutes les libertés, les bénéfices et les protections qui accompagnent le fait de posséder tel ou tel passeport.

Alors qu’on pourrait penser que les closed government data représentent en quelque sorte le jumeau maléfique des open data, en réalité, les open government data ne sont pas exemptées de l’assemblage data-veillant. Toutes les données partagées mobilisent une certaine politique de visibilité, l’injonction à s’aligner sur une distribution politique et éthique du sensible digital. Tandis que cet impératif n’est peut-être pas aussi impérieux que les capacités dataveillantes de l’État, les initiatives sur le gouvernement des données ouvertes impliquent à leur tour des formes de veille, dès lors que le partage des données inclut toujours un appel à surveiller ces données et à agir sur elles – nous sommes dévisagés, envisagés, imaginés en tant que spectateurs-entrepreneurs et en tant que sujets évaluateurs. À l’intérieur d’une logique de distriveillance, les closed et les open data contribuent les unes comme les autres à la construction d’un sujet antipolitique et de son public correspondant. J’analyserai à présent ce processus un peu plus dans le détail.

Les closed data : la veille sécurisée

Les données siphonnées par la NSA aux États-Unis, le GCHQ en Grande-Bretagne, et d’autres agences de sécurité tout autour du globe, constituent pour notre expérience des données « fermées » : elles sont inaccessibles pour quiconque ne dispose pas des autorisations nécessaires. Avant que Snowden ne révèle les programmes mis en place pour collecter les données et les métadonnées des communications – des programmes tels que PRISM qui, depuis 2007, a permis à la NSA d’accéder aux données de tous les fournisseurs d’accès, et Tempora, qui a vu la GCHQ placer des intercepteurs sur des câbles optiques gérant tout le trafic Internet entrant et sortant du Royaume-Uni – ces programmes étaient fermés, secrets et opaques à leur tour. Or, plutôt que de me focaliser sur le contenu de ces révélations, ce qui m’intéresse, c’est l’appareil conceptuel à disposition de celles et ceux qui souhaitent résister ou mettre en doute cet aspect précis de l’assemblage distriveillant.

Alors que les protestations domestiques restèrent mesurées, les appels pour mettre un terme aux activités de la NSA, tels qu’ils purent s’afficher sur les banderoles exhibées lors de la marche sur Washington en octobre 2013, exprimaient un appel à mettre « fin à l’espionnage de masse.11 » Ce qui a occupé l’imagination de beaucoup de personnes – et enfreint leurs droits garantis par la constitution –, c’est l’idée que leur propre gouvernement puisse avoir les capacités de les observer et de voir leurs agissements à leur insu et sans leur consentement explicite. Tandis que beaucoup de personnes seraient d’accord pour dire que ce mouvement vers une surveillance intégrale de toutes les communications marque en effet une tendance qu’il faut combattre, l’appel à mieux défendre la privacy ne peut que sonner creux. En effet, la privacy s’apparente à la lumière que nous voyons depuis une étoile déjà éteinte : nous continuons de nous y référer alors même que notre conjoncture numérique a engendré un paradigme de post-privacy. Loin de moi l’idée que le concept de « vie privée » n’aurait plus d’importance : celui-ci continue d’organiser les processus légaux, les débats basés sur les droits civils, et notre compréhension habituelle de ce que c’est qu’être « soi ». Néanmoins, le risque de faire appel à la vie privée à une époque de distriveillance ubiquitaire et de données fermées et sécurisées, c’est qu’au lieu d’augmenter les possibilités d’un agir politique, on les amenuise encore plus, précisément parce qu’on se méprend sur le type de subjectivité qui est en jeu et sur le fait que les appels à la vie privée sont particulièrement faibles lorsqu’il en va des politiques collectives. Bref, la notion de vie privée est incapable de redistribuer le sensible numérique.

Les appels répétés à la protection de la vie privée qu’on a entendus dans la foulée des révélations Snowden sous-estiment l’effet désindividualisant des immenses stratégies de data mining occulte. Ce que trahissent les banderoles et les pancartes des manifestations, par ailleurs peu fréquentées, c’est la peur de voir l’État contempler la masse comme composée d’individus ; une masse faite de nombreux « Je », dont la vie privée aurait été individuellement enfreinte. Le concept de vie privée projette l’idée d’un État violant les droits d’un citoyen libéral en pleine possession de lui-même. Mais la manière dont a lieu le data mining laisse à penser que l’État est, somme toute, très peu intéressé aux actions de citoyens individuels, si ce n’est dans la mesure où ceux-ci sont des sujets du data : l’État s’intéresse aux façons dont les citoyens peuvent contribuer à constituer un pattern de fond à partir duquel un algorithme évolutionnaire puisse œuvrer afin de reconnaître des anomalies minoritaires.

L’infraction consiste alors non pas tant en une intrusion dans l’espace personnel que dans l’acte antipolitique qui consiste à imaginer le public comme un amoncellement de données. Ce n’est pas tant l’espionnage des citoyens qui constitue la chose la plus préoccupante, mais plutôt le fait qu’aussi longtemps que leurs actions ne sont pas stigmatisées comme des exceptions, les citoyens ne pourront pas être considérés comme des agents pleinement constitués, qui méritent autre chose que d’alimenter un algorithme dans son analyse des données. Au lieu d’y voir un élément rassurant, il faut bien voir que quand les citoyens ne sont plus envisagés que dans leur fonction purement numérique, cela n’est pas sans conséquences sur leurs agencements politiques (et quand bien même ces agencements ne seraient qu’imaginaires) et sur les possibilités qui restent pour des actions collectives efficaces et contre-hégémoniques. Le politique est désavoué, et de manière très efficace, par la distriveillance.

L’open data :
la veillance entrepreneuriale

Nombre de démocraties libérales professent aujourd’hui leur volonté et leur détermination à fournir des données ouvertes12. Le portail du gouvernement britannique, l’open government data portal, data.gov.uk, est exemplaire à cet égard, dans la mesure où il met à disposition du public différents ensembles de données générées par les différentes agences gouvernementales13. Il y a de quoi applaudir des mesures de transparence de ce type, surtout quand on les compare avec des régimes fermés où la corruption extrême est endémique. Pourtant, une telle comparaison pourrait s’avérer douteuse, voire complètement irrecevable. Car si l’on se place à l’intérieur de démocraties libérales dites « ouvertes », il faut se demander quelles formes d’ouverture dominent à un moment donné, et quel genre de subjectivités celles-ci engendrent. Des régions ou des territoires qui souhaiteraient faire un pas vers des formes de société et d’État plus ouvertes se tournent souvent vers des dispositifs déjà existants, à d’autres endroits, de sorte que les formes d’« ouverture », et les arrangements politiques qu’ils impliquent, voyagent et se déplacent.

En partageant ses stocks de données avec les citoyens, l’État ne fait qu’ajouter à l’interpellation à laquelle sont soumis les sujets distriveillants. La fameuse interpellation d’Althusser « Hé, vous-là bas ! » est devenue un « Hé, vous là-bas ! Rapprochez-vous et regardez : soyez attentif !14 » Le sujet est non seulement appelé à être vu, mais encore à devenir vigilant. Le sujet distriveillant est surveillé, mais se doit également d’être vu en train de voir. Ou plus exactement, le sujet distriveillant est appelé à voir à travers : la transparence de l’État est l’interface qui nous interpelle et qui indique la place à occuper (peu importe d’ailleurs si nous nous sentons techniquement capables de le faire ou pas, si nous nous acquittons de cette tâche ou pas), en tant qu’évaluateur, analyste ou témoin. Dans ce processus, on retrouve une constante de la logique néolibérale : le sujet hérite d’une responsabilité, mais non d’un pouvoir. À notre charge d’être vigilants, sans avoir pour autant l’expertise qui nous permettrait de savoir à quoi il faut faire attention, ni encore moins le pouvoir d’agir d’une façon sensée sur ce que l’on pourrait trouver. Isin et Ruppert l’ont souligné : « les actes de partage créent des nouvelles attentes vis-à-vis des citoyens sujets du cyberespace.15 »

Les attentes nouvelles ne se limitent pas au fait de regarder, quand bien même cet appel à la vigilance est bien présent. Elles s’étendent bien au-delà, et incluent des médiateurs auxquels on ne s’attendait pas d’entrée de jeu : elles valent pour les développeurs, pour les visualisateurs de données et pour les éditorialistes de contenu. Les entrepreneurs des données répondent présents à l’appel idéologique et obtempèrent à l’exigence de voir, et de voir (à travers) l’État. Ces nouveaux « data-preneurs » remplissent parfaitement cette fonction, et répondent donc à cette interpellation qui est de mettre en œuvre et d’opérationnaliser une nouvelle économie des data. Et ce en raison du fait que les exigences du gouvernement ouvert sont nourries non seulement par leur valeur sociale supposée, mais surtout, bien que de façon moins avouable, par leur valeur économique. Le « data-preneur » est la figure-clé si l’on veut comprendre le succès de l’économie de l’open data, puisque c’est l’acteur qui est amené à s’atteler au potentiel des données, afin de créer de la donnée à partir d’ensembles de data. Pour l’État comme pour le data-preneur, les data sont configurées comme des ressources prêtes à être exploitées, commodifiées et marchandisées.

Dans quelle position est-ce que tout cela met le sujet distriveillant ? Mis en demeure de surveiller l’État désormais transparent, avec tous ses organes numériques mis à nu, et de faire appel en même temps aux fonctions de médiation et de traduction d’un data-preneur pour y parvenir, le sujet entretient avec l’État des rapports entièrement façonnés par le marché. La logique néolibérale a longtemps assuré le consentement public et son accoutumance à la marchandisation de bon nombre d’aspects de la vie sociale et politique, depuis l’éducation jusqu’à la santé. Ce qui est nouveau, c’est que c’est le marché lui-même qui décide de ce qui doit être considéré comme un enjeu politique. Je soutiens qu’en faisant appel aux médiateurs numériques et aux data-preneurs pour rendre la transparence de l’État signifiante et lisible, on accepte qu’il revienne au marché de décider du partage du sensible – ce que nous pouvons savoir, voir, entendre, toucher et rencontrer. En termes de partage, il n’y aura plus que les open government data susceptibles d’être monétisés par les data-preneurs qui se trouveront traduits dans un vocabulaire que les citoyens non-spécialistes soient en mesure de recevoir et de comprendre pour en faire l’objet d’actions concertées.

Le sujet distriveillant est appelé à être vigilant afin de pouvoir prétendre au statut de citoyen engagé. D’emblée pourtant, cette surveillance de l’État ouvert s’avère impossible, comme on le constatera rapidement – et des médiateurs font leur entrée de jeu pour sélectionner et emballer l’information. Ce qui revient à dire que la vigilance porte toujours non pas tant sur l’État parfaitement transparent que sur ces médiations sélectives. La transparence est obscurcie par son propre éclat – il n’y a que les données que le marché nous a signalées comme désirables (généralement il s’agit de données qui sont censées faire de nous des sujets « informés » dans un paysage public-privé qui s’est complexifié) qui désormais prennent le visage de la transparence de l’État, au cœur de l’économie des data – au risque de rendre la participation à l’État et l’intervention dans ses activités de plus en plus difficiles, en dehors des formes commodifiées, façonnées et éditées de données assemblées.

Redécoupages

Le sujet distriveillant est rendu impuissant, depuis (au moins) deux versants qui ne sont pas forcément divergents. Face à la data-veillance de l’État et des consommateurs, les choix du sujet (qu’il s’agisse de décider avec qui communiquer ou quels biens acheter) sont automatiquement partagés, afin de faire évoluer les algorithmes et de rendre plus efficaces et mieux ciblées les publicités, ou encore de rendre plus précise la gouvernementalité. Le public est configuré comme un immense ensemble de big data plutôt que comme un réseau de singularités avec un potentiel résistant. Les portails de gouvernement ouvert partagent les données rassemblées par l’État avec des sujets, ce qui amène à responsabiliser ces derniers, à isoler les individus et à désavouer la légitimité du pouvoir collectif. Du reste, cette forme de responsabilisation n’a de lien que très relatif avec l’information fournie. En surveillant les transactions capillaires du gouvernement, l’évaluateur de fortune n’est autorisé qu’à repérer des anomalies ou des aberrations dans un système dont il est censé par ailleurs reconnaître la justice. Une telle forme de partage et d’ouverture ne peut conduire qu’à une forme d’engagement et de réponse très limitée. De plus, comme je l’ai indiqué plus haut, un tel évaluateur de fortune, supposé capable de superviser des données « brutes », n’est toujours qu’une fiction produite par la rhétorique du gouvernement ouvert ; le rôle crucial que jouent les data-preneurs et les développeurs dans la médiation des données signifie que le partage de l’État et la part des sujets dans l’État sont dans une large mesure façonnés par les forces du marché.

Si l’on estime que la distriveillance soutient un arrangement politique qui n’a aucune chance de mener à l’égalité radicale, et qu’il faut œuvrer en faveur d’une distribution plus équitable, comment faire pour interrompre la distriveillance ? Je souhaite proposer une stratégie possible. Le cadre conceptuel pour le type d’interruption auquel je songe est fourni par l’étymologie du mot anglais share qui peut signifier indifféremment la « part » et l’action de « partager ». De l’ancien anglais scearu – « une coupe, une tonsure, un partage ou une division » – à l’expression métonymique scear, qui désigne, par rapport au soc du labourage (plowshare), tout simplement « ce qui est coupant », on voit bien que la coupe fait écho au concept et à la pratique du partage. Il ne s’agit pas là d’une simple coïncidence ou d’un heureux hasard, puisque le fait que dans tout acte de partage, une coupure soit invariablement en jeu, renvoie à la « violence » inhérente à toute distribution.

La part que nous avons dans l’usage des ressources et dans les modes de partage tombe sous la loi d’une certaine distribution ou d’un certain découpage. La façon dont nous partageons, les conditions et les décisions qui sous-tendent comment et ce que nous partageons – ce que j’appelle la « découpe » – génère une certaine distribution. À côté de la référence à la tonsure que l’on trouve dans l’étymologie du mot share, je pense également à l’usage productif qu’ont pu en faire Sarah Kember et Joanna Zylinska dans Life After New Media. Sur le fond de médiations qu’elles décrivent comme un « processus complexe et hybride » qui est « omnienglobant et indivisible », Kember et Zylinska font intervenir dans cette temporalité des médiations des coupures dont elles font ressortir le côté incisif et décisif, aussi bien du point de vue éthique que créatif16. En quoi consisterait une « bonne coupe »17 ? C’est la question que tout artiste doit se poser, affirment-elles. Cet impératif à bien couper va bien au-delà des actes de médiations qui impliquent la transformation de la matière, puisqu’il s’applique également aux pratiques intervenant sur les données numériques, dont je traite dans le présent article. Pas de doute : tous ceux qui travaillent avec des données ne sont pas pour autant des « artistes », au sens où l’on définit traditionnellement ce terme. Mais si l’on entend l’esthétique telle que Rancière propose de la définir, autrement dit comme un régime distributif qui détermine aussi les marges du politique, on peut alors commencer à voir comment des décisions sont prises à tout moment, chaque fois que l’on segmente et que l’on découpe des flux de données. On peut alors s’interroger si ce type de découpage – et le fait de le révéler ou non – est en lui-même éthique ou inique.

Quand nous sommes coupés de nos données (comme c’est le cas avec les « données fermées »), on nous prive de l’opportunité d’y pratiquer nos propres découpes. De même, si le découpage des données est tel que nous ne pouvons y prendre part que selon des registres qui consolident un arrangement politique avec lequel nous sommes en désaccord – si par exemple ce qui se présente comme une mise à disposition éthique du data alimente ou améliore de fait un système dépourvu d’éthique –, alors, nos découpes sont déterminées d’emblée par des paramètres stricts. Pour couper autrement (et donc, pour partager autrement), pour couper à rebrousse-poil, il faut interrompre les restrictions qu’impose la distriveillance.

Il y a de nombreuses coupures d’interruption auxquelles on peut faire référence – le hacking, la décentralisation, le cryptage, l’anonymat – mais certaines des stratégies les plus intéressantes sont synthétisées par le terme d’« obfuscation des données ». Finn Brunton et Helen Nissenbaum ont identifié un certain nombre de stratégies d’obfuscation qui font toutes preuve d’un « ajout délibéré d’informations ambiguës, confondantes ou trompeuses qui interfèrent avec la surveillance et la collecte de données18 ». Dans leur livre Obfuscation : A User’s Guide for Privacy and Protest, Brunton et Nissenbaum considèrent, parmi d’autres technologies : l° Onion Router (TOR), qui permet d’être anonyme en ligne, grâce à une combinaison de communication cryptée et un système de relais sur le Net afin d’occulter la source et le destinataire ; 2° TrackMeNot, une extension pour navigateur qui inonde les moteurs de recherche avec des mots-clés aléatoires, afin de rendre inefficaces les techniques de capture algorithmique ; et enfin 3° le plug-in protégeant la vie privée, FaceCloak, qui crypte des informations authentiques fournies à Facebook afin que celles-ci ne puissent être lues que par des amis qui utilisent également FaceCloak.

Ce qui est crucial, c’est que chacune de ces stratégies interrompt l’idée d’un partage par défaut. Les interruptions créatives de la distriveillance peuvent faire des coupes éthiques, et manifester, dans ce même processus, des découpages et des incises opérées par l’arrangement sécuritaire néolibéral dont la subjectivité distriveillante est une partie intégrante.

Afin d’aller plus loin, je me tourne vers les écrits de l’écrivain et penseur Édouard Glissant. Dans un contexte fort différent de celui qui nous occupe ici, Glissant forge l’expression d’un « droit à l’opacité ». Glissant écrit sur la condition ontologique d’une subjectivité minoritaire qui résiste à l’exigence de s’identifier, d’être reconnaissable et d’être transparente dans des termes racialisés déjà établis par les groupes dominants. Contrairement à la privacy, qui suppose un sujet qui, bien que connaissable a priori, a choisi de faire en sorte que certaines choses ne soient pas au vu et au su de tous, la notion d’opacité insiste sur l’inconnaissabilité, l’irréductibilité du sujet. En m’inspirant de ce concept, tout en respectant le fait qu’il soit né dans le contexte d’une réflexion sur la racialisation, je souhaite mettre en avant un droit à l’opacité qui signifierait, par rapport aux enjeux qui sont les miens, un droit à ne pas être réduit, compris, consommé et distribué numériquement selon les protocoles définis par l’État ou par la distriveillance des consommateurs. En lieu et place des actes publics comme les marches légales ou les pétitions en lignes, je pense qu’il faut affronter les protocoles désormais ubiquitaires de la data-veillance inéquitable mises en œuvre par l’État sécuritaire ainsi que par les logiques de la distriveillance, en les court-circuitant avec des formes d’illisibilité : réimaginer l’opacité afin de permettre à un sujet auquel on refuse tout politicalité de retrouver celle-ci dans des figures nouvelles.

L’identité de l’objet des data distriveillées et du sujet néolibéral lié à ses fichiers n’est pas une identité à laquelle on permettrait d’interagir avec des données, en vue de créer ou d’explorer des formes de politique radicalement collectives. Voilà pourquoi mobiliser un droit à l’opacité peut constituer un premier pas pour refuser la distribution distriveillante des données sensibles. Cela offrirait une opportunité pour formuler une politique qui ne serait pas basée sur l’idée d’identité « privée », mais sur la valeur de l’opacité, ce qui, en retour, ouvrirait la voie pour imaginer des communautés favorisant l’ouverture et l’échange plutôt que ses manifestations distriveillantes.

La question n’est pas tant si l’on peut accepter ou non les open data comme une compensation, pour des pratiques opaques de collecte de données et pour les closed data, mais de comprendre les différentes façons dont nous faisons tous partie de la logique distriveillante de la gouvernementalité numérique. La question est aussi de reconnaître les nouvelles requêtes épistémologiques et ontologiques auxquels sont soumis les sujets de la distriveillance. Un droit à l’opacité signifie alors le droit à pouvoir refuser d’y participer et d’être identifiés selon une distribution distriveillante à laquelle nous ne sommes pas prêts à prendre part. Au cours d’un tel réajustement, nous pouvons voir dans l’interruption une forme d’opacité, de même que nous pouvons politiser le partage, en l’imaginant comme une série de décisions et de coupures. Dans une conjoncture qui accorde toute l’importance à la connaissabilité et la « surveillabilité » des sujets, où chacun est sommé de partager ses données, et de s’avancer en tant que sujet réduit à ses données, de telles expérimentations de redécoupages imaginatifs font figure d’acte éthique et politique.

Traduit de l’anglais par Emmanuel Alloa

1 Cf. Rancière, Jacques, Le partage du sensible: esthétique et politique, Paris, La Fabrique, 2000.

2 Glissant, Édouard, Poétique de la relation, Paris, Gallimard, 1990.

3 Nicholas John, « Sharing and web 2.0: The emergence of a keyword », New Media and Society 15 (2), 2013, p. 176.

4 Ibid.

5 Engin Isin et Evelyn Ruppert, Being Digital Citizens, London, Rowman & Littlefield, 2015, p. 89.

6 Alexander Galloway, Protocol: How Control Exists after Decentralization, Cambridge MA., MIT Press, 2004, p. 7.

7 Communication lors d’un événement intitulé Systems Literacy autour de James Bridle qui s’est tenu à la Whitechapel Gallery le 29 janvier 2016.

8 Correspondance privée avec Tom Armitage, 9 février 2016.

9 Cf. John, « Sharing », op. cit., 2013.

12 Le Open Government Partnership compte actuellement 69 pays participants (bien qu’il faille noter que tous ne peuvent pas prétendre au titre de démocraties libérales) qui se trouvent à différents niveaux de la mise en place de formes de gouvernement ouvert. www.opengovpartnership.org/countries

13 Le site anglais a été lancé en 2009, la même année où le gouvernement américain a mis en place le portail sur la transparence data.gov. Cependant, le financement de ce dernier qui était de 35 millions de dollars en 2011 a été ramené à 8 millions de dollars l’année suivante, selon Kelly Fiveash, « Obama’s Data.gov CIO quits White House, » The Register, 16 juin 2011. www.theregister.co.uk/2011/06/16/vivek_kundra_quits_cio_job

14 Althusser, Louis, « Idéologie et appareils idéologiques d’État (Notes pour une recherche) », in Positions (1964-1975), Paris, Les Éditions sociales, 1976, pp. 67-125.

15 Isin & Ruppert, Being Digital Citizens, op. cit., p. 88.

16 Kember, Sarah et Zylinska, Joanna, Life after new media: mediation as a vital process, Cambridge/Mass., Londres, The MIT Press, 2015, p. xv.

17 Ibid., xix.

18 Brunton, Finn et Nissenbaum, Helen, Obfuscation: a user’s guide for privacy and protest, Cambrigde/Mass.,Londres, The MIT Press, 2016.

 

Clare Birchall

Enseigne la théorie de la culture au Département d’anglais du King’s College à Londres. Ses travaux portent notamment sur la relation entre le secret et la transparence à l’ère numérique. Parmi ses ouvrages : Knowledge Goes Pop: From Conspiracy Theory to Gossip (2006) et Shareveillance: The Dangers of Openly Sharing and Covertly Collecting Data (Minnesota, 2017).