L’intermédiation algorithmique, pourquoi maintenant ?

« La vie est trop courte pour que l’on soit pressé »

Henri David Thoreau

La question de la chronopolitique évoque une tension entre présent ressenti et présent « réel », une forme d’obsolescence dans la politique, les infrastructures, voire les mentalités face aux enjeux sociétaux actuels, souvent inéluctables. Le monde et la société évoluent par à-coups. On peut alors poser une question chronologique, voire chronopolitique, centrale : pourquoi une révolution arrive-t-elle à un moment particulier ? Considérons l’exemple de la révolution des modes de communication et d’échange.

L’intermédiation est l’art de relier les personnes aux services dont ils ont besoin, ou qui pourraient leur être utiles. Les banques par exemple servent d’intermédiaires entre les prêteurs et les emprunteurs. La révolution actuelle dans le secteur de l’intermédiation est portée par le « numérique ». Non seulement les échanges se réalisent plus rapidement, mais surtout, l’ère numérique a permis d’atteindre globalement tous les êtres humains ainsi que les appareils physiques. Humains et objets connectés peuvent maintenant évoluer en fonction de connaissances d’une granularité très fine, disponibles en temps réel, qui combinent les données globales avec les traces multiples des échanges effectués. Parce que cette révolution nous touche tous grâce aux algorithmes, plutôt que la notion générale de « numérique », nous préférons parler ici de révolution de l’intermédiation algorithmique. Quelles en sont les causes ? Pourquoi arrive-t-elle maintenant ?

Les causes historiques

Une perspective historique sur le développement des technologies et du système mondial qu’elles permettent, la technosphère, nous permet d’identifier une tendance de fond : l’augmentation de la complexité, qui résulte d’une part de la densification croissante du graphe de connexion entre les acteurs et d’autre part l’affaissement de la connectivité verticale au profit d’une connexion latérale.

Le télégraphe a permis, au début du XIXe siècle, une communication point à point longue distance. La rapidité de la communication était non seulement augmentée, mais aussi pour la première fois garantie. Au début du XXe siècle, le développement de la radio, suivi de différents types de systèmes sans fil, a renforcé la communication verticale à partir d’un petit nombre d’émetteurs, atteignant une part croissante de la population mondiale. Une synchronisation à grande échelle de l’information était rendue possible.

Les technologies de l’information ont été développées parallèlement aux technologies de la communication, dès le début du XIXe siècle, avec les cartes perforées de Jacquard et la machine mécanique de Babbage, mais c’est véritablement au tournant de la Seconde Guerre mondiale, avec la numérisation du signal, le développement des processeurs, et l’apparition des gros calculateurs que le phénomène s’accélère.

Au cours des cinquante dernières années, les technologies de l’information ont évolué sous les auspices de la loi de Moore1, qui prévoyait en 1965 le doublement de la puissance de traitement tous les deux ans. Bien que cette prédiction fût quantitativement correcte, elle ne faisait pas de distinction entre un scénario conservateur dans lequel le monde compterait un petit nombre de super ordinateurs et à l’inverse un monde avec de très nombreux petits ordinateurs.

Le progrès technologique a permis le développement de dispositifs bon marché, petits et puissants qui peuvent être embarqués n’importe où. Au tournant du siècle dernier, avec la démocratisation des appareils mobiles véhiculés par les humains, ainsi que l’intégration des technologies de l’information dans de nombreux appareils, qui dépassent désormais le nombre de personnes sur terre, les conditions étaient réunies pour passer d’une organisation verticale à un réseau horizontal, ce que le développement et l’expansion du Web dans les années 1990 devaient concrétiser.

La connaissance a été rendue accessible à tous, grâce aux moteurs de recherche et aux encyclopédies en ligne. En outre, la communication horizontale s’est développée très rapidement grâce à divers types de réseaux en ligne. Avec l’avènement du Web 2.0, au-delà du simple accès, la production de connaissance elle-même a été rendue possible à tous, clôturant ainsi la boucle : les utilisateurs d’information sont également devenus des fournisseurs d’informations. Le Web 2.0 a également donné naissance à des réseaux sociaux, et donc à une connexion horizontale entre les personnes, les dispositifs, ainsi que les biens immatériels, avec des moyens sophistiqués pour trouver et s’adresser à des individus ou des groupes de personnes.

Les causes intrinsèques :
deux rétroactions amplificatrices

Si les causes historiques permettent de comprendre la séquence d’événements aboutissant à l’avènement de l’intermédiation algorithmique, la transition à l’œuvre est si rapide qu’elle pourrait également impliquer des rétroactions amplificatrices. Quelles sont-elles ?

L’une des conséquences les plus frappantes des technologies de l’information et de la communication est l’augmentation exponentielle de la production de données. Les données sont devenues une ressource fondamentale pour tous les secteurs économiques et sociaux. Nous entrons dans l’ère du zettaoctet (c’est-à-dire 10, à la puissance 21, octets). L’augmentation de la taille de cette « datasphère » promeut la génération et l’utilisation de nouveaux types de données, les traces d’activités, qui elles-mêmes contribuent à consolider la datasphère, dans une première rétroaction amplificatrice. Il est intéressant de noter que les entreprises numériques qui ont le plus d’impact sur le plan économique et social sont celles qui combinent les données globales disponibles, non seulement avec les données fournies volontairement par les utilisateurs, mais aussi avec les traces de leurs activités.

Les traces d’activité ont donné lieu à des services extrêmement puissants, qui peuvent soit contribuer à améliorer les services initiaux par la personnalisation, soit conduire au développement de services complètement nouveaux qui, à première vue, peuvent apparaître très éloignés des services originaux. Ces nouveaux services peuvent être considérés comme des externalités positives de l’activité initiale. Le moteur de recherche offre un bon exemple d’un tel phénomène. Bien que sa fonction principale soit de donner accès au savoir, il a révolutionné le monde de la publicité, par sa capacité à diffuser des annonces de manière plus pertinente et à proposer des enchères de mots-clés aux annonceurs. À partir d’un message vertical adressé à tous, le système se déplace vers des connexions latérales personnalisées. Cette boucle de rétroaction positive sur les données est donc à la fois quantitative et qualitative : de meilleurs services permettent de récolter de meilleures données et inversement, avec des données plus personnalisées, de meilleurs services peuvent être offerts.

Deuxièmement, l’intermédiation algorithmique permet aussi de générer une confiance dans la relation nouvellement établie, ce qui la rend fiable et efficace. Fukuyama a montré l’importance des variations culturelles de la confiance et leur impact sur les différents groupes humains. Une nouvelle notion de confiance émerge avec les acteurs de l’intermédiation, qui est basée sur la recommandation que les personnes font des services et des autres utilisateurs.

Le covoiturage devient possible car les acteurs de l’intermédiation offrent des garanties à la fois aux conducteurs et aux passagers, qui sont établies sur l’évaluation des utilisateurs précédents. Quelle que soit l’importance des organisations verticales dans l’établissement de la confiance dans un grand nombre de cultures, dans le monde numérique la confiance est assurée au niveau horizontal, par des pairs en évaluant d’autres. Comme les traces issues de l’intermédiation personnalisée renforcent la puissance de l’intermédiation algorithmique, la possibilité de confiance en des inconnus est aussi un effet de l’intermédiation personnalisée qui favorise le développement de l’intermédiation algorithmique dans une seconde boucle de rétroaction.

Causes contextuelles : la rareté des ressources ?

La révolution de l’intermédiation algorithmique se produit maintenant, pour des raisons techno-historiques, mais aussi parce qu’elle catalyse sa propre expansion par des mécanismes amplificateurs. Il semble pourtant que nous n’ayons ici qu’une partie de l’histoire. La transition actuelle semble inexorable, comme si une cause plus fondamentale était motrice. Or la révolution de l’intermédiation algorithmique modifie également notre rapport aux ressources, notamment en personnalisant l’utilisation de l’énergie dans les smart grids, ou en rendant plus efficace les prédictions en agriculture. La rareté des ressources pourrait-elle être une cause supplémentaire de la révolution numérique ?

Dans l’Anthropocène, la pénurie apparente de ressources naturelles, qui est perçue comme une menace majeure, est directement associée à la question de la durabilité. La question de la rareté des ressources n’est pas nouvelle. En 360 av. J.-C., dans le Critias, Platon percevait déjà la dégradation de l’environnement, liant le déboisement à l’érosion des sols. Pourtant, c’est vraiment au début des années 1970 que la question des ressources a commencé à être considérée plus globalement, notamment par une approche systémique complexe de la terre, comme celle proposée par Forrester2 dans la « Dynamique mondiale », reprise dans le rapport sur les « Limites de la croissance », commandé par le Club de Rome.

La question de la pénurie de ressources est également soulevée par les principaux acteurs économiques. Ainsi, l’industrie de l’énergie a commandé des enquêtes exhaustives sur les matériaux essentiels, et leur pénurie possible3. Parallèlement, la rareté des ressources fait partie des priorités des organisations ou forums internationaux, comme le Forum économique mondial, qui l’a classée quatrième source de préoccupations en 2012, juste après la révolution des communications numériques. Au-delà des milieux intellectuels et politiques, la question de la pénurie de ressources est devenue un sujet grand public, avec des marqueurs comme la « sixième extinction des espèces » ou la déforestation des forêts tropicales.

L’utilisation de plus en plus efficace des ressources via l’intermédiation algorithmique suggère que la révolution numérique pourrait être une des réponses à la rareté des ressources. Qu’en est-il ? Si les exemples historiques liant famine et révolution ne manquent pas, nous cherchons ici à savoir s’il existe une cause fondamentale liant rareté des ressources et augmentation de la complexité d’un réseau comme cela pourrait être le cas pour la révolution numérique. Pour cela nous faisons un détour par la biologie, où les stratégies de réponse à la rareté des ressources sont bien documentées et découlent de millions d’années d’évolution.

Parce qu’elle est le principal régulateur de la croissance démographique, parce qu’elle se rapporte à l’hérédité et à l’acquisition de nouvelles fonctions biologiques au cours de l’évolution, et parce qu’elle pourrait être la caractéristique la plus emblématique de la vie, la reproduction est au cœur de la relation entre biologie et ressources.

Les modes de reproduction sont corrélés à la disponibilité des ressources. La reproduction sexuée a en effet été corrélée positivement à la pénurie de ressources, notamment chez les organismes vivants qui peuvent alterner entre reproduction sexuée et asexuée. Ainsi, les insectes phytophages et aquatiques, comme les puces d’eau, passent de la reproduction asexuée à la reproduction sexuée lorsque les ressources alimentaires deviennent rares.

Scheu et Drossel généralisent la relation entre la reproduction sexuée et la disponibilité des ressources et démontrent que le moment de la reproduction sexuée peut être déclenché par la pénurie de ressources4. Il est important de noter que la corrélation entre la reproduction sexuée et la rareté des ressources peut être étendue à la plupart des organismes vivants. Lorsque la nourriture devient rare, les animaux ont tendance à se reproduire plus tôt. La pénurie de ressources a même été proposée comme l’un des principaux facteurs de l’émergence de la reproduction sexuée.

La sélection d’une telle stratégie reproductible suggère qu’une rétroaction existe, c’est-à-dire que la reproduction sexuée permettrait de répondre à la pénurie de ressources. À l’échelle de la population, la principale valeur ajoutée de la reproduction sexuée est d’exposer et de remanier constamment les diverses formes de gènes contenues dans la population. La reproduction sexuée conduit ainsi à la production d’une population plus variée qui peut se nourrir de ressources nouvelles, grâce à un éventail plus large de capacités. Cette stratégie d’horizontalization présente un avantage adaptatif majeur lorsque les ressources sont rares.

Inversement, la reproduction asexuée prédomine quand les ressources sont abondantes. Ainsi, la reproduction asexuée domine parmi les organismes décomposeurs du sol, un environnement abondant en ressources. La reproduction sexuée n’a même jamais été détectée pour certaines de ces espèces du sol. À l’échelle de la population, la reproduction asexuée masque la diversité génétique potentielle de la population : un profil génétique unique domine. Il s’agit cette fois d’une stratégie de spécialisation verticale, impliquant que la résilience par diversification horizontale est perdue. Cette stratégie est de loin la manière la plus efficace de coloniser rapidement un site. Parce que les mâles ne sont pas produits, tous les descendants produisent une progéniture et si les caractéristiques de l’environnement restent stables, cette stratégie assure également la production d’individus adaptés. Toutefois, la reproduction asexuée génère des descendants qui rivalisent pour les mêmes ressources. De manière évidente, si les ressources viennent à manquer, leur coexistence devient impossible5.

Il semble donc que les observations, les modèles et les perspectives évolutives convergent vers un paradigme dans lequel la pénurie de ressources favorise une forme de résilience horizontale en biologie qui, à son tour, favorise la diversification et l’adaptation à de nouvelles ressources.

La révolution numérique, par la promotion d’une forme d’horizontalization des échanges et de diversification d’utilisation des ressources, présente un profil analogue, suggérant une contribution de la rareté des ressources (ou sa perception) dans son développement soudain à la fin du XXe siècle. Au-delà du « pourquoi maintenant ? », quelles conséquences peut-on tirer du lien entre intermédiation algorithmique et ressources pour nos sociétés ? Quelles prédictions peut-on formuler pour l’avenir ?

Une nouvelle temporalité pour un nouveau lien aux ressources ?

La révolution de l’intermédiation algorithmique contribue fortement au nouveau tempo de nos sociétés, par l’efficacité accrue des services proposées. Le temps s’accélère. Considérant maintenant la révolution numérique comme entraînée par la pénurie des ressources, nous trouvons une nouvelle cause à cet emballement : l’accélération du temps pourrait refléter la perception d’un monde spatialement fini, notamment via le développement de l’intermédiation algorithmique et une forme d’optimisation des échanges en réponse à la rareté des ressources.

S’agit-il d’un phénomène qui va continuer à impacter nos sociétés et se développer à l’avenir, ou seulement un accident de parcours ?

Cette nouvelle architecture économique et sociale numérique globale est-elle pour autant plus frugale ? La sphère des données offre une vue de plus en plus précise de la disponibilité des ressources mondiales, et donc potentiellement un levier pour une meilleure gestion des ressources. Les smart grids constituent une bonne illustration de tels phénomènes. Ils permettent d’évoluer d’un système asymétrique avec peu de producteurs d’énergie stables et de nombreux consommateurs, vers des systèmes plus symétriques avec de nombreux producteurs et consommateurs peu fiables. Les smart grids peuvent réduire la distance entre source et consommation d’énergie, et également générer des cercles adaptatifs vertueux, par exemple via une tarification liée à la distance et à la disponibilité. Dans l’ensemble, cela démontre que la sphère des données peut en principe contribuer à une utilisation frugale des ressources, et donc à une nouvelle forme de gouvernance.

Au-delà des services économiques et sociaux assurés par des plateformes d’intermédiation algorithmique, la prise de décision est de plus en plus souvent sous-traitée aux algorithmes. De grandes parties des marchés financiers en particulier sont maintenant sous le contrôle d’algorithmes6, des mini crash ayant même été attribués à des échecs algorithmiques transitoires. On peut dès lors s’interroger sur cette externalisation progressive de la prise de décision vers des plateformes d’intermédiation algorithmique.

Il est probable que la technosphère, et sa composante algorithmique, deviendra de plus en plus autonome. Il y a plusieurs raisons à cela. Les premiers algorithmes accèdent à une quantité inégalée de données, sur laquelle ils peuvent effectuer des analyses de plus en plus puissantes. Le développement rapide de l’intelligence artificielle déplacera probablement le contrôle des grands systèmes des humains aux machines dans un nombre croissant de secteurs. La pertinence de leur appariement et l’efficacité de leurs prédictions les rendent incontournables dans la plupart des secteurs. Mais il y a plus, ils contribuent aussi à définir de nouvelles normes.

Les nouvelles normes imposées par la sphère des données pourraient servir des objectifs globaux et promouvoir de nouvelles valeurs, perturbant les règles locales7. Leur large adoption par la population leur donne une légitimité nouvelle, qui dépasse les frontières nationales et les pouvoirs souverains8. En biologie, les stratégies de résilience horizontale sont favorisées au détriment des avantages individuels ; la survie à long terme de la population a été sélectionnée au cours de l’évolution, et non le confort individuel à court terme9. Comprendre la trajectoire d’une technosphère homéostatique dans l’Anthropocène soulève donc la question d’une nouvelle forme de gouvernance.

Une ère où des algorithmes concentrent la puissance de la technosphère, évaluant avec précision la disponibilité des ressources et alimentant la société de plus en plus indépendamment des décisions humaines n’est peut-être pas éloignée. Cet âge, que l’on pourrait appeler « l’algocène », peut être vu comme l’ère où le monde virtuel devient la force géologique sur terre. Ce changement majeur fait écho à la transition actuelle du pouvoir vers la sphère des données, où l’automatisation augmente non seulement la vitesse de calcul, mais également notre relation aux ressources et au temps. En répondant à la pénurie de ressources et en fournissant de nouvelles formes de gouvernance, les algorithmes pourraient ainsi réduire l’anthropocène à une anomalie transitoire.

1 G. Moore, « Progress in digital integrated electronics »,IEDM Tech. Digest, 1975.

2 J.W. Forrester, World dynamics, vol. 59, Wright-Allen Press, Cambridge, MA, 1971.

3 V. Zepf, A. Reller, C. Rennie, M. Ashfield et J. Simmons, Materials critical to the energy industry. An introduction, 2nd ed. Londres, Royaume-Uni, 2014.

4 S. Scheu et B. Drossel, « Sexual reproduction prevails in a world of structured resources in short supply »,Proceedings of the Royal Society of London B: Biological Sciences 274, 2007 (1614), p. 1225–1231.

5 G. Hardin et al., « The competitive exclusion principle». Science 131(3409), 1960, p. 1292–1297.

6 A.P. Chaboud, B. Chiquoine, E. Hjalmarsson et C. Vega, « Rise of the machines: Algorithmic trading in the foreign exchange market », The Journal of Finance 69(5), 2014, p. 2045–2084.

7 A. Faravelon et S. Grumbach, « Platforms as governments », in Internet, Politics, and Policy conference, Oxford Internet Institute, 2016.

8 Anders Samuelsen, ministre des Affaires étrangères Danois, va nommer un ambassadeur auprès des plateformes (Google, Apple, Facebook ou Amazon) les considérant de facto comme des nouvelles nations.

9 La reproduction sexuée produit des populations hétérogènes et donc résiliantes, mais elle implique une loterie à l’issue de laquelle des individus inadaptés et/ou handicapés peuvent être générés, contrairement à la reproduction asexuée qui produit des individus adaptés à leur environnement, dans des populations fragiles.

Stéphane Grumbach

Informaticien à l’Inria, travaille à l’IXXI, l’Institut des Systèmes Complexes de l’ENS Lyon. Ses intérêts couvrent le large éventail de questions soulevées par les données, de la manipulation de données complexes par des algorithmes aux implications politiques de l’économie des plateformes, alimentées par les données. Il est fortement impliqué dans la coopération internationale et a passé huit ans en Chine, en tant que diplomate et à l’Académie des sciences de Chine.

Olivier Hamant

Biologiste, directeur de recherche à l’INRA dans le laboratoire de reproduction et développement des plantes au sein de l’École Normale Supérieure de Lyon, travaille sur le rôle des signaux mécaniques dans le développement des plantes, alliant des approches de biologie moléculaire et cellulaire, physique et systèmes complexes. Il est engagé dans un programme de formation explorant les nombreuses implications de l’Anthropocène, notamment avec la maison des cultures du monde (HKW Berlin).