Subjectivités computationnelles

Si l’on veut mieux comprendre le numérique, un premier pas pourrait être de problématiser la computationnalité, afin de développer une pensée critique sur la façon dont la connaissance au XXIe siècle se trouve transformée en information à travers des techniques computationnelles, en particulier au sein des logiciels. Il faut prêter attention à une coïncidence historique frappante entre le fait que l’idée de l’université se trouve actuellement repensée et renégociée et le fait que les technologies numériques soient en train de transformer notre capacité à utiliser et à comprendre des informations en dehors des structures traditionnelles du savoir, comme l’université. Cette coïncidence s’inscrit dans des défis plus larges auxquels doivent faire face les grands récits qui servaient d’idées régulatrices et unificatrices pour définir le rôle des universités. Avec le déclin qu’ont connu ces grands récits, cette coïncidence est sans doute liée aux difficultés croissantes que rencontre l’université postmoderne à se justifier et à se légitimer face aux politiques budgétaires de l’État.

Les évolutions de l’université et des humanités

D’un point de vue historique, le rôle de l’université a été étroitement lié avec la production de certaines formes de savoir. En 1798, Emmanuel Kant esquissait un argumentaire sur la nature de l’université dans Le Conflit des Facultés. Selon lui, toutes les activités de l’université devaient s’organiser autour d’une seule idée régulatrice, celle de raison. Comme le résume Bill Readings :

 

« D’une part, la raison fournit la ratio de toutes les disciplines ; elle constitue leur principe organisateur. D’autre part, la raison s’incarne dans une faculté particulière, que Kant appelle “la philosophie”, mais qui s’identifierait plutôt à ce que nous appelons aujourd’hui “les humanités.” ». (Readings 1996: 15)

 

Aux yeux de Kant, la raison et l’État, la connaissance et le pouvoir pouvaient s’unir au sein de l’université à travers la production d’individus capables de mener des réflexions rationnelles et de s’identifier à des principes politiques républicains – des étudiants formés pour le service de l’État et de la société. Kant tentait de résoudre le problème d’une raison publique régulatrice : comment établir des régimes de gouvernement stables capables de régner sur des peuples libres, par contraste avec la tradition représentée par la monarchie, l’Église ou le Léviathan hobbesien ? Cela conduisait les universités, considérées comme des organisations dédiées à la production de savoir, à être dirigées et supervisées par la faculté de philosophie, dont la fonction était de s’assurer que l’université demeure en conformité avec son idéal de rationalité. Tout ceci était à comprendre comme faisant partie de la réponse apportée à la montée de la culture de l’imprimé, à la croissance de l’alphabétisation et aux divers effets déstabilisateurs entraînés par cette évolution. Sans avoir à recourir à un dogmatisme doctrinal ou à la violence oppressive, ce dispositif permettait d’instaurer une forme de paix perpétuelle, grâce au développement et à l’application de la raison individuelle.

Vint ensuite, au cours du XIXe siècle, le développement de l’université moderne, telle que l’ont instituée des Idéalistes allemands comme Schiller et Humboldt, selon lesquels la structure proposée par Kant devait assumer un rôle politique plus explicitement affirmé. Ils ont fait en sorte que la notion de culture se substitue à celle de raison, partant du principe que la culture pouvait servir une « fonction unificatrice pour l’université » (Readings 1996 : 15). Pour quelqu’un comme Humboldt, la culture se définissait à la fois comme la somme de toutes les connaissances étudiées et comme la formation et le développement de la personnalité résultant de ces études. Humboldt a proposé la fondation d’une nouvelle université, l’université de Berlin, chargée de servir de médiateur entre la culture nationale et l’État-nation. Sous la bannière de la « culture », l’université était requise d’assurer à la fois la recherche et l’enseignement, c’est-à-dire la production et la dissémination de la connaissance. L’idée moderne de l’université la positionnait ainsi pour devenir l’institution prééminente en charge d’unifier la tradition nationale et la rationalité étatiste, en produisant des individus éduqués, cultivés et acculturés. Aux yeux des Idéalistes allemands,

 

« on pouvait réunifier la multiplicité des faits connus au sein d’une science de la culture grâce à la Bildung, l’anoblissement de la personnalité […]. L’université ne produit pas des fonctionnaires, mais des sujets. Telle est la visée de la pédagogie de la Bildung, qui met l’accent sur le processus d’acquisition de connaissance, plutôt que sur le produit fini que constitue le savoir acquis. » (Reading 1996: 65–7)

 

Cette approche connut un tournant littéraire en Angleterre, en particulier sous l’influence de John Henry Newman et Mathew Arnold, qui promurent la littérature, davantage que la culture ou la philosophie, comme la discipline centrale de l’institution universitaire, de même qu’au sein de la culture nationale en général. La littérature s’est alors trouvée institutionnalisée dans l’université « dans des termes explicitement nationaux et dans le cadre d’une vision organique d’une possibilité d’unification de la culture nationale » (Readings 1996: 16). La régulation de ce dispositif a passé par la définition d’un canon de textes et d’auteurs classiques, enseignés aux étudiants afin de produire des sujets littéraires qui seraient en même temps des sujets nationaux.

Selon Bill Readings, nous assistons aujourd’hui à l’effondrement de ces idéaux au sein de l’université postmoderne, comme le manifeste le triomphe de la notion d’« excellence » qui est, à ses yeux, le concept par défaut d’une université dépourvue de contenu et de référence. J’aimerais plutôt suggérer pour ma part que nous commençons à observer la montée de l’importance culturelle du numérique fonctionnant comme idée unificatrice de l’université. Au début, cela a passé par des notions comme la « compétence informatique » ou la « littéracie numérique », ce qui peut se lire comme une reconnaissance de dette de la part des nouveaux impératifs de professionnalisation et d’employabilité envers l’ancienne conception littéraire de l’université.

Il me semble toutefois que, plutôt qu’à nous concentrer sur l’entraînement et l’apprentissage pratique du numérique, comme cela se fait en termes de compétences TIC (et comme l’illustre le « Passeport de Compétences Informatiques Européen »), nous devrions bien davantage réfléchir à ce que lire et écrire peuvent signifier à l’âge de la computation – ce que j’appelle l’itéracie en m’inspirant de l’usage du terme « itération » dans le vocabulaire computationnel. Il s’agit de promouvoir une conception critique du type de « littérature » propre au numérique et, ce faisant, de développer une culture numérique partagée sous la forme d’une Bildung numérique.

 

Intellect numérique et évolutions de la Bildung

Je n’en appelle nullement à un retour aux humanités d’antan, qui, pour reprendre une expression de Steve Fuller (2010), étaient des humanités « pour quelques humains » ; il faut plutôt appeler de nos vœux des arts véritablement « libéraux », conçus « pour tous les humains ». Dans les termes proposés par Richard Hofstadter (1963), j’en appelle au développement d’un intellect numérique – différent d’une intelligence numérique, s’il est vrai que :

« l’intellect […] constitue l’aspect critique, créatif et contemplatif de l’esprit. Alors que l’intelligence cherche à saisir, manipuler, réordonner, ajuster, l’intellect examine, soupèse, s’étonne, théorise, critique, imagine. L’intelligence saisira le sens immédiat au sein d’une certaine situation et il l’évaluera. L’intellect évaluera les évaluations, et cherchera les sens des situations dans leur ensemble. […] L’intellect [constitue] une manifestation unique de la dignité humaine. » (Hofstadter 1963: 25)

 

Les dispositifs numériques actuellement en construction promettent non seulement d’énormes transformations au niveau des agents humains individuels. Ils fournissent surtout des quantités déstabilisantes de connaissances et d’informations, auxquelles manque la force régulatrice de la philosophie – laquelle, comme le voulait Kant, avait pour fonction de garantir que les institutions restent rationnelles. La technologie rend possible l’accès aux banques de données du savoir humain, depuis n’importe où, sans égard pour les anciennes frontières dont les gardiens traditionnels étaient l’État, les universités ou le marché. On ne semble plus avoir recours au professeur nous disant ce que nous devons chercher à savoir, et nous apprenant à formuler les traditionnels « trois arguments pour » et « trois arguments contre ». Cela n’entraîne pas seulement un moment de désorientation collective, avec des individus et des institutions croulant sous des déluges d’informations. Cela exige également de trouver des solutions computationnelles à cet état de choses, sous la forme de nouvelles rationalités computationnelles – quelque chose qu’Alan Turing (1950) décrivait comme des modes de pensée « sur-critiques ». Ces deux versants du problème sont structurés en profondeur par les conditions de possibilité instaurées par le code et la computation sur nos ordinateurs.

Le code computationnel instaure de nouveaux processus de communication, tandis qu’avec la dimension de plus en plus sociale apportée par les media en réseaux, des formes nouvelles et stimulantes de pensée collaborative font leur apparition – les publics en réseaux. Il ne s’agit toutefois pas vraiment de « l’intelligence collective » discutée par Pierre Lévy (1997), mais plutôt de la promesse d’un intellect collectif. La situation actuelle rappelle la notion médiévale de l’universitas, mais réinterprétée sous une forme numérique, comme une société ou association d’acteurs capables de penser ensemble de façon critique, à travers la médiation de technologies. Cela pose à son tour la question de savoir quels nouveaux modes de connaissances collectives les logiciels peuvent constituer. Les logiciels et le code peuvent-ils nous aider à dépasser les tendances individualisantes des blogs, commentaires, twitter, etc., de façon à rendre possible quelque chose de réellement collaboratif – comparable à une pensée « sur-critique » capable de générer de nouvelles idées, formes de pensée, théories et pratiques ?

Il y a certainement quelque chose d’intéressant à trouver dans les flux en temps réel de nos mémoires numériques actuelles, dans la mesure où ils ne donnent pas prise à un regard historien tourné vers le passé, mais où ils ne sont pas non plus pour autant dirigés vers une forme repérable de projection dans le futur. Au lieu de ça, devrions-nous dire qu’ils relèvent d’une médiation de l’instantané ? d’une médiation de la nouveauté ? d’une médiation de la vie ? d’une médiation du Jetztzeit de Walter Benjamin (1992 : 252-3) ? En d’autres termes, ces formes de mémoire numérique rassemblent la nouveauté d’un groupe particulier de flux en une sorte d’écriture collective qui est porteuse d’un potentiel immensément créatif. Il y a là de vastes domaines d’enquête pour des humanités numériques critiques et formées à la philosophie, qui tenteraient de comprendre et d’expérimenter ces nouvelles formes potentielles de littérature, ainsi que le medium qui les rend possibles.

Pour les disciplines universitaires d’enseignement et de recherche, la mutation numérique pourrait représenter un moment de « science révolutionnaire », dans le sens défini par Thomas Kuhn d’une transformation dans l’ontologie constitutive de la discipline et de l’émergence d’une nouvelle « science normale » (Kuhn 1962). Cela reviendrait à dire que différentes disciplines universitaires pourraient trouver dans le computationnel un « noyau dur » ontologique très similaire, selon la définition qu’en propose Imre Lakatos (1980). Ce point a des implications considérables pour ce qui concerne l’unification des savoirs et l’idée de l’université (Readings 1996). Les sciences computationnelles pourraient jouer le rôle de fondation envers les autres sciences, soutenant et dirigeant leur développement au point d’énoncer « des directives lucides pour leurs modes d’investigation » (voir Thomson (2003: 531) pour une discussion de la façon dont Heidegger comprenait ainsi le rôle de la philosophie). Nous sommes peut-être en train de voir émerger le fait de lire et d’écrire du code de logiciel comme faisant partie de la pédagogie requise pour générer une nouvelle subjectivité computationnelle critique et réflexive au sein de l’université, un sujet computationnel ou data-centré – autrement dit un « agent computationnel » (voir Berry 2011, 2014).

Ceci, bien entendu, ne revient nullement à souhaiter que les méthodes et pratiques actuellement existantes des sciences computationnelles deviennent hégémoniques. Le défi consiste bien plutôt à développer une conception humaniste de la technologie, qui implique une réflexion urgente sur ce qu’il y a d’humain dans ce que les humanités ou les sciences sociales ont de computationnel. D’une façon proche de ceci, Steve Fuller (2006) en a appelé à une « nouvelle imagination sociologique », en se référant au projet historique des sciences sociales qui se sont dédiées à étudier « tous les humains, mais seulement les humains », parce qu’elles « considéraient tous les êtres humains comme étant d’un intérêt épistémique et d’une dignité morale d’égale valeur » (Fuller 2010 : 242). En attirant notre attention sur la « précarité ontologique de l’humanité » (244), Fuller met bien le doigt sur le fait que le projet de l’humanité requiert une attention réflexive de la plus haute urgence – ce qui, pourrait-on ajouter, est d’autant plus vrai face au défi d’une computationnalité qui menace notre compréhension de ce qui est requis pour être identifié comme humain.

 

Penser nos subjectivités computationnellement assistées

Si logiciels et codes deviennent la condition de possibilité d’unification des multiples formes de connaissances produites aujourd’hui au sein de l’université, alors la capacité à penser par soi-même, enseignée par l’apprentissage par cœur de méthodes, de calculs, d’équations, de lectures, de canons, de processus, etc., pourrait bien perdre de son importance. On pourrait avoir moins besoin d’une capacité individuelle à accomplir ces actions ou à mobiliser une connaissance exhaustive des œuvres canoniques, du fait de leur nombre et de leur ampleur. En revanche, l’usage d’appareils techniques, en conjonction avec des méthodes collectives d’apprentissage et de travail, permettrait de développer de nouvelles méthodes de cognition assistée. L’intériorisation de certaines pratiques qui ont été apprises aux enfants et aux étudiants depuis des centaines d’années aurait besoin d’être repensée, ce qui ne manquerait pas de modifier la façon commune de penser induite par cette pédagogie. Au lieu de ces méthodes héritées, nos modes de raisonnement pourraient évoluer en direction de méthodes plus conceptuelles ou plus communicatives, par exemple en rapprochant les analyses comparatives et communicatives développées au sein de différentes perspectives disciplinaires – la pédagogie en réseau, l’utilisation de technologie pour atteindre des résultats qui soient à leur tour utilisables – selon un va-et-vient constant entre l’appel à penser de façon réflexive et le besoin de repenser incessamment nos modes de collaboration (voir Berry 2011).

S’appuyer sur la technologie d’une façon plus radicalement décentrée, dépendre d’appareillages techniques pour remplir les blancs dans nos esprits et pour établir de nouvelles connexions entre les connaissances – cela conduirait à modifier notre compréhension de la connaissance, de la sagesse et de l’intelligence elles-mêmes. Cela entraînerait en effet un décentrement radical, dans la mesure où le sujet à la Humboldt, rempli de culture et d’une certaine conception de la rationalité, cesserait simplement d’exister. Il se trouverait remplacé par une subjectivité computationnelle qui saurait où retrouver de la culture au fur et à mesure qu’elle en aurait besoin, en conjonction avec les autres subjectivités computationnelles disponibles à ce moment précis – participant ensemble d’une subjectivité culturelle en temps réel et à flux tendus peut-être, nourrie de réflexions et de visualisations connectées et computationnellement assistées. Plutôt qu’une méthode de pensée avec des yeux et des mains, on aurait une méthode de pensée avec des yeux et des écrans – même si, bien entendu, il ne s’agit pas ici de promouvoir un essentialisme naïf fétichisant les écrans comme tels (Montfort 2004).

Cette pensée computationellement assistée n’a nul besoin d’être déshumanisante. Bruno Latour et quelques autres ont pertinemment identifié la domestication de l’humain qui a été opérée par le papier et la plume (Latour 1986). Cela vient du fait que les ordinateurs, comme le papier et la plume, aident à stabiliser des significations grâce à des effets de visualisation en cascade des connaissances encodées, ce qui permet à ces connaissances d’être continuellement formulées, rédigées et recodées (Latour 1986 : 16). Les techniques computationnelles pourraient nous donner de plus grandes puissances de pensée, ouvrir de nouveaux champs à nos imaginations et, peut-être, nous aider à nous reconnecter à des idéaux politiques d’égalité et de redistribution, grâce aux possibilités offertes par la computation de donner à chacun selon ses besoins en prenant de chacun selon ses capacités.

Tel est bien l’argument articulé par Steve Fuller (2010 : 262), qui nous rend attentifs aux menaces d’inégalités générées par l’introduction de nouvelles technologies au sein d’une société. Il ne s’agit pas simplement ici de « fracture numérique », mais, bien plus fondamentalement, de savoir comment nous allons classer ceux qui risqueraient d’être plus « humains » que les autres, au sein d’un monde où l’accès à la computation et à l’information doivent de plus en plus passer par des mécanismes de marché.

Cette nouvelle subjectivité se caractérise par le fait d’être computationnellement communicative, sachant obtenir, traiter et visualiser les informations et les résultats de façon rapide et efficace. À tous les niveaux de la société, les gens vont devoir transformer les données et les informations en des formes computationnelles utilisables pour leur donner sens. On peut par exemple imaginer une forme de journalisme computationnel qui permette aux médias orientés vers la sphère publique de donner sens aux vastes quantités de données générées par les gouvernements (entre autres), grâce au recours à des « charticles » qui combinent texte, image, vidéo, applications computationnelles et interactivité (Stickney 2008). Cette forme de journalisme « en réseau » implique « un processus multi-dimensionnel et non-linéaire » qui tout à la fois renforce et étend la culture publique (Beckett 2008 : 65). En outre, pour le commun des mortels, dont la vie quotidienne requiert de plus en plus de compétences de négociation et de gestion d’un champ computationnel en expansion constante – qu’on pense aux quantités de données dont relève le suivi de nos revenus et dépenses, de nos accumulations de musiques, films, textes, nouvelles, courriels, caisses de retraites, etc. – le besoin se fera de plus en plus ressentir de développer de nouvelles littéracies financières et techniques, ou plus généralement, une littéracie computationnelle – à savoir ce que j’ai appelé une « itéracie » ou pédagogie computationnelle, à laquelle, par exemple, les humanités numériques pourraient contribuer en développant une conception humaniste des techniques et de la computation.

Un exemple, relevant des pouvoirs des logiciels et du code, est l’émergence de flux de données en temps réel, par opposition aux objets de savoir statiques sur lesquels se sont traditionnellement focalisées les humanités, tels que les livres et les documents sur papier (voir Flanders 2009 ; Berry 2011). Ces flux incluent la géolocalisation, les bases de données en temps réel, les tweets, les réseaux sociaux, les sms ainsi que d’innombrables autres formes numériques relevant de processus en évolution constante – à commencer par l’Internet lui-même, qui devient de plus en plus une affaire de flux (cf. Spotify, Netflix et les autres formes de streaming, voir Berry 2011: 142-71).

Rentrer dans les boîtes noires

Savoir comment lire et écrire dans les moyens propres à une société computationnelle constitue certainement une question cruciale sur laquelle débouchent les considérations proposées ici (voir Golumbia 2007 ; Berry 2011, 14). Faire face aux problèmes soulevés par ces questions de littéracie numérique relève clairement de l’urgence. Comment devrions-nous lire le numérique – et dans quelle mesure devrions-nous et pouvons-nous être en mesure d’écrire le numérique ?

De telles questions signifient qu’un nouveau type d’alphabétisation et de littéracie est nécessaire pour un nouveau genre de théorie critique, qui inclue ce que j’appelle « itéracie ». Cela implique toutefois d’éteindre momentanément nos écrans et de clore les interfaces, de façon à développer une disposition critique plus profonde envers la matérialité sous-jacente et l’agentivité propres au computationnel.

Du point de vue de l’économie politique, il est clair que le travail humain continue à jouer un rôle de médiation important dans les économies computationnelles. Notre analyse serait toutefois indûment limitée si nous ne suivions pas l’invitation de la théorie critique à repenser les rapports entre infrastructure et superstructure au-delà des déterminations habituellement identifiées entre elles. Le défi est aujourd’hui de comprendre et d’évaluer jusqu’à quel point les logiciels sont en passe de devenir notre culture, en même temps que la culture se trouve en voie rapide de logicialisation.

En parlant de « logicialisation », je me réfère au phénomène pointé par Marc Andreessen (2011), lorsqu’il affirme que « les logiciels sont en train de manger le monde ». Il ne s’agit pas simplement de dénoncer cette logicialisation comme un déterminisme technologique auquel on ne saurait échapper. Il importe au contraire de comprendre les particularités des différentes entreprises de logicialisation, ainsi que leurs bases communes. Il faut insister sur le fait que la logicialisation est un processus tâtonnant, multi-directionnel et contesté, qui se déploie sur de nombreuses strates selon des vitesses et des modularités très différentes entre elles. Il convient donc de développer des critiques des concepts qui dirigent actuellement ces processus de logicialisation, mais aussi de mieux comprendre quels types d’expériences rendent possibles les catégories épistémologiques du computationnel (voir Berry 2013). C’est ce qu’invitait déjà à faire Albert Borgmann il y a près de trente ans :

 

« Une dimension essentielle de ce qui pourrait constituer aujourd’hui une véritable citoyenneté mondiale touche à la littéracie scientifique et technologique. On peut espérer qu’une appréciation de la puissance de la technologie, alimentée par des pratiques méta-technologiques, soit capable d’inspirer assez d’attention et d’efforts pour nous approprier les principes de science et d’ingénierie sur lesquels repose la technologie. L’étude de la technologie ne peut s’en tenir ni au service obligé des machines techniques dont nous nous déchargeons sur une main-d’œuvre spécialisée, ni au plaisir distrait nous provenant de la consommation et de l’utilisation de ces machines. Si l’on entend poursuivre un idéal d’éducation scientifique et technologique, il faut au contraire réunir une discipline volontariste […] avec le désir d’associer réellement le service des machines et le plaisir de leur utilisation dans un effort visant à regagner une liberté réellement cosmopolite. » (1984 : 248)

 

Les pages qui précédent ont visé à tracer un chemin que pourrait prendre une approche critique des développements du computationnel. Les contours généraux de cette approche impliquent de s’engager dans certaines formes de pratiques politiques, de théorisation critique et de développement d’une constellation de concepts nous aidant à penser le computationnel et ses contradictions inhérentes. À cela s’ajoute le besoin urgent de développer une littéracie critique du numérique. Comme l’ont montré Douglas Kellner et Jeff Share, la littéracie critique « donne aux individus un certain pouvoir sur leur culture et les rend ainsi capables de créer leurs propres significations et identités, de façon à former et transformer les conditions matérielles et sociales de leur culture et de leur société » (Kellner and Share 2005: 381). Christopher Lash va dans le même sens en soulignant que cela implique « un travail nourri de théorie mettant les mains à la pâte des nouveaux media, de l’art, de l’architecture, des politiques culturelles et de l’engagement politique » (Lash 2007 : 75).

Cela implique de se demander en quoi l’arrivée d’appareils computationnels qui restent pour la majorité d’entre nous des boîtes noires opaques commence à avoir un impact très profond sur nos sociétés. Cet impact ne devrait nullement nous surprendre. Avec le développement d’ordinateurs et de logiciels de plus en plus sophistiqués, la délégation d’activités cognitives extrêmement complexes est devenue un fait quotidien et central dans nos sociétés. Cela fournit une occasion d’exercice unique à la théorie critique, dans la mesure où ces appareils computationnels offrent un site matériel permettant d’analyser au plus près les contradictions entre le computationnel et le capitalisme cognitif. Un tel travail implique une conscience plus vive de la façon dont le pouvoir agit au sein des systèmes techniques, ainsi que de la façon dont nous sommes de plus en plus souvent aux prises avec des médiations et des formes de contrôle parfois très directes provenant d’écritures de programmation que nous ne sommes pas en mesure de lire – mais qui nous confrontent néanmoins à leurs pannes, à leurs échecs et à leurs bugs, lesquels révèlent souvent la profonde ineptie d’une computation conçue sur le seul mode du calcul numérique.

Notre dépendance croissante envers ces systèmes computationnels, ainsi que la confiance inhérente qui leur est accordée – en particulier par ceux que Luc Boltanski (2009) identifie à « la classe dominante » – offrent un site important de critique, mais cela requiert une pratique critique articulée à la possibilité concrète de hacker, pirater, bidouiller, bloquer et reconfigurer de nouveaux cheminements et de nouveaux possibles. De fait, si la théorie critique se propose bien de contribuer à un projet d’émancipation, alors il est clair que nous aurons de plus en plus besoin de théories critiques des logiciels, ainsi que d’approches critiques de l’application de la rationalisation computationnelle au sein de ces systèmes et de leurs contradictions inhérentes (voir Berry 2014 ; Liu 2012).

 

Pour une « itéracie » critique du numérique

Au fil de son développement, le computationnel est en train de produire de nouvelles formes de communication rationalisée, porteuses de défamiliarisation et d’aliénation, alors même qu’elles nous rendent plus facile que jamais d’être en communication et en contact constants. Notre expérience quotidienne fait de plus en plus face à des visages tournés vers le bas pour regarder des notifications sur des smartphones ou à un état de distraction induit par des appareils computationnels cachés, des écouteurs, lunettes intelligentes et autres technologies portées à même le corps. Ce sens de la distraction et sa contribution à l’hétéronomie subie par les individus soulève d’importantes questions sur notre être-dans-le-monde au sein d’un milieu médiatique qui nous arrache constamment à notre environnement immédiat.

Cela touche bien entendu à des questions beaucoup plus vastes, portant sur la façon dont le numérique peut être reconfiguré pour contribuer à l’émancipation plutôt qu’à la seule rationalisation. Un tel effort doit transpercer les surfaces que constitue notre rapport dominant à des appareils numériques considérés comme des marchandises ou des gadgets techniques : il faut s’efforcer d’ouvrir ces prétendues boîtes noires – qu’elles relèvent de l’opacité de la technique ou de celle de la métaphore – boîtes noires qui exigent et focalisent une si grande partie de notre attention dans le monde d’aujourd’hui.

Beaucoup de travail reste à accomplir dans l’esquisse d’une cartographie cognitive de la computation capable d’aider à l’avènement de subjectivités computationnelles réflexives et critiques. Quoi qu’il en soit, quelques-uns des aspects les plus importants du travail à réaliser pour favoriser une itéracie critique du numérique incluent :

1. une pensée computationnelle qui nous rende capables de comprendre et de concevoir la façon dont fonctionnent des systèmes computationnels, afin de pouvoir lire et écrire les codes qui leur sont associés, ce qui mobilise des notions comme l’abstraction, le tri dynamique, la pipeline [combinaison de différentes requêtes], le hachage [calcul d’une empreinte numérique], etc. (voir Wing 2011) ;
2. une compréhension des algorithmes, qui permette de saisir la spécificité de la nature algorithmique du travail computationnel, comme les régressions [affectation involontaire d’une fonctionnalité], l’itération [répétition d’un processus], la discrétisation [réduction en unités de base], etc. ;
3. une compréhension de la signification et de l’importance des données et des modèles, et particulièrement des relations qu’entretiennent données, informations, connaissances, modèles et simulations au sein de la pensée computationnelle ;
4. des entraînements à lire et écrire du code, ce qui exige de nouvelles compétences permettant au lecteur/programmeur de produire du sens et de concevoir le code en termes de modularité, données, encapsulation, nomination, commentaire, boucles, récursion, etc. ;
5. un apprentissage de certains langages de programmation, dans la mesure où ces langages aident l’étudiant à développer une approche comparative et à affiner les compétences associées à l’itération, selon la nature procédurale, fonctionnelle ou orientée-objet de ces langages de programmation ;
6. le développement de compétences d’appréciation de l’esthétique des codes, des logiciels et des algorithmes, se référant à des concepts-clés tels que « l’élégance » ou la « beauté » du code (voir Oram et Wilson 2007), mais réfléchissant également aux questions des interactions entre le numérique et l’esthétique dans les pratiques artistiques mobilisant les nouveaux media ;
7. finalement, l’importance d’une approche critique de la matérialité du numérique, envisageant comment le signal, en tant que diagramme de computation, est devenu une façon dominante de penser l’activité de pensée. Au sein d’une telle itéracie, nous devons donc enseigner comment programmer expérimentalement et apprendre par des pratiques de hacking au sein des contextes pédagogiques, plutôt que de coder sans créativité.

Ce que j’ai appelé l’itéracie doit donc être réflexif dans sa pratique, critique dans ses positionnements et capable de fournir des repères pour nous aider à mettre au jour les processus sur lesquels repose une société computationnelle. Il est important d’échapper à une approche passive du computationnel, à une posture que j’ai appelée ailleurs « riparienne », nous condamnant à regarder passer, dans l’impuissance, des flux de données sur lesquels nous ne sentons pas avoir de prise (Berry 2011 : 144), posture qui menace de nous faire sombrer dans un ennui épuisé et acritique. Il est tout au contraire essentiel que la constellation de concepts qui sous-tend et soutient le capitalisme computationnel soit rigoureusement contestée et que les logiciels qui le rendent effectif soient hackés, détricotés et défaits. Dans l’immédiat, comme cela a déjà été suggéré, on peut espérer obtenir un répit temporaire grâce à des pratiques itératives comme l’utilisation de cryptographie, de systèmes de données décentralisés, de logistique diffuse, de cultures des réseaux, de pratiques tactiques des media et de réappropriation des opérations des systèmes en place – mais des réponses davantage collectives seront certainement nécessaires.

 

Traduit par Yves Citton
(avec l’assistance d’Anthony Masure)

 

Références

Andreessen, M. (2011), Why Software Is Eating The World, Wall Street Journal, consulté le 20/08/2011, http://online.wsj.com/article/SB1000142405311190348090457 6512250915629460.html#articleTabs % 3Darticle

Beckett, C. (2008), Supermedia : Saving Journalism So It Can Save the World, Wiley-Blackwell, Londres

Benjamin, W. (1992), « Theses on the Philosophy of History », in Illuminations, trad. H. Zohn, Fontana, Londres, p. 245-55

Berry, D. M. (2011), The Philosophy of Software : Code and Mediation in the Digital Age, Palgrave Macmillan, Londres

Berry, D. M. (2013), Softwarization : A Tentative Genealogy, Stunlaw, consulté le 28/01/2015, http://stunlaw.blogspot.co.uk/2013/08/softwarization-tentative-genealogy.html

Berry, D. M. (2014), Critical Theory and the Digital, Bloomsbury, New York

Berry, D. M. (2015), Flat Theory, Boundary 2, consulté le 28/01/2015, http://boundary2.org/2015/01/27/flat-theory

Boltanski, L. (2009), De la critique. Précis de sociologie de l’émancipation, Gallimard, « NRF Essais », Paris

Borgmann, A. (1984), Technology and the Character of Contemporary Life: A Philosophical Inquiry, University of Chicago Press, Londres

Flanders, J. (2009), « The Productive Unease of 21st-Century Digital Scholarship », Digital Humanities Quarterly, Summer 2009, 3/3, retrieved 10 October 2010. http://digitalhu- manities.org/dhq/vol/3/3/000055/000055.html

Fuller, S. (2006), The New Sociological Imagination, Sage, Londres

Fuller, S. (2010), « Humanity : The Always Already – or Never to Be – Object of the Social Sciences?  », in J. W. Bouwel (ed.),
The Social Sciences and Democracy, Palgrave Macmillan, Londres

Golumbia, D. (2009), The Cultural Logic of Computation, Harvard University Press, Harvard

Hofstadter, R. (1963), Anti-Intellectualism in American Life, Vintage Books, New York

Kellner, D. and Share, J. (2005), « Toward Critical Media Literacy : Core concepts, debates, organizations, and policy », Discourse: studies in the cultural politics of education, Vol. 26, No. 3, p. 369-86

Kuhn, T. S. (1962), La structure des révolutions scientifiques, Flammarion, Paris

Lakatos, I. (1980), Methodology of Scientific Research Programmes, Cambridge University Press, Cambridge

Lash, S. (2007), « Power after Hegemony, Cultural Studies in Mutation? », Theory, Culture & Society, Vol. 24, No. 3, p. 55-78

Latour, B. (1986), « Visualization and Cognition: Thinking with Eyes and Hands », Knowledge and Society, vol. 6, p. 1-40

Lévy, P. (1997), L’intelligence collective ?, La Découverte, Paris

Liu, A. (2012), « Where is Cultural Criticism in the Digital Humanities ? », in Gold, M. K. (ed.) Debates in the Digital Humanities, University of Minnesota, Minneapolis

Montfort, N. (2004), « Continuous Paper: The Early Materiality and Workings of Electronic Literature », retrieved 16 January 2011. http://nickm.com/writing/essays/ continuous_paper_mla.html

Oram, A. and Wilson, G. (2007), Beautiful Code, O’Reilly, Londres

Readings, B. (1996), The University in Ruins, Harvard University Press, Cambridge, MA

Stickney, D. (2008), « Charticle Fever », American Journalism Review, consulté le 18/03/2010. www.ajr.org/Article.asp?id=4608

Thomson, I. (2003), « Heidegger and the Politics of the University », Journal of the History of Philosophy, Vol. 41, No. 4, p. 515-42

Turing, A. M. (1950), « Computing Machinery and Intelligence », Mind Oct. 1950, p. 433-60

Wing, J. (2011), Research Notebook : Computational Thinking – What and Why?, consulté le 16/09/2011, http://link.cs.cmu.edu/article.php?a=600

Berry David M.

Professeur d’études de media et de communication à l’université de Sussex, où il co-dirige le Sussex Humanities Lab. Il a récemment publié Critical Theory and the Digital (Bloomsburry, 2014) et The Philosophy of Software. Code and Mediatio in the Digital Age (Palgrave Macmillan, 2011), et a dirigé le volume Understanding Digital Humanities (Palgrave Macmillan, 2012).