La sélection naturelle à l’intérieur de l’organisme

Les mécanismes de la théorie darwinienne agissant à l’échelle de la cellule permettent d’expliquer l’embryogenèse d’un organisme. D’une part, l’ADN n’est pas porteur d’un programme fait d’instructions rigides, dans lequel l’organisme adulte est écrit à l’avance. Il s’agit d’un générateur de diversité dont le fonctionnement probabiliste permet aux cellules de changer d’état sans être dirigées par des signaux. D’autre part, l’environnement n’est pas seulement ce qui est extérieur à l’organisme. Il se prolonge à l’intérieur de l’embryon en constituant le micro-environnement de la cellule. Il détermine les concentrations des métabolites auxquels elle a accès et qui lui permettent de se multiplier. Dans une colonie de cellules il y a de nombreuses variations dans la composition de ce micro-environnement. Les cellules sont amenées à échanger les produits de leur métabolisme. Elles utilisent ce qui leur est fourni par leurs voisines. Grâce à leur fonctionnement probabiliste, elles s’adaptent à ces conditions de vie changeantes en activant les protéines nécessaires. De là proviennent les différenciations cellulaires à l’origine des tissus constituant un être adulte. Dans cette théorie, l’embryon n’est pas l’objet passif soumis aux déterminismes additionnés du génome et de l’environnement. Ceux-ci sont intégrés en un mécanisme unique. La cellule est le niveau fondamental qui construit l’être vivant par un processus actif de sélection darwinienne. En unifiant dans un même modèle explicatif, la phylogenèse et l’ontogenèse, le darwinisme cellulaire permet de se débarrasser des vieux concepts de finalité et de cause formelle que la génétique avait réhabilitées sous les habits neufs du « programme génétique ».

D’après la théorie biologique en vigueur, le déchiffrage de l’information génétique contenue dans les chromosomes aurait dû nous livrer la connaissance ultime du fonctionnement des êtres vivants. Or, force est de constater que malgré le séquençage des génomes aujourd’hui réalisé, on est très loin du compte. Les problèmes posés par le développement embryonnaire n’ont pas été réglés et il semble maintenant nécessaire de réorienter la recherche. Dans cette perspective, la théorie de la sélection naturelle appliquée au comportement des cellules à l’intérieur de l’organisme pourrait servir d’alternative. Pour comprendre cette situation, il faut dans un premier temps revenir sur les débuts de la biologie moléculaire.
Erwin Schrödinger publia en 1944 un petit livre intitulé Qu’est-ce que la vie ? dont l’influence fut très grande. Il y popularisait les idées des pionniers de la biologie moléculaire, notamment celles de Maxime Delbrück, qui avait proposé la théorie selon laquelle l’être vivant serait représenté virtuellement dans les chromosomes sous la forme d’un « code ».
Dans la première partie de l’ouvrage, Schrödinger compare l’origine de l’ordre en physique et en biologie. Il fait la constatation suivante : en physique, les objets que nous observons à notre niveau macroscopique semblent tout à fait stables et ordonnés (cette chaise, ce verre d’eau, etc.), et pourtant ils proviennent d’un grand désordre au niveau des molécules et des atomes. En effet, chacun de ceux-ci, pris individuellement, est soumis à l’agitation brownienne et se déplace au hasard dans toutes les directions. L’ordre macroscopique est dû à la loi des grands nombres. La variabilité d’un système devient si petite lorsque le nombre de particules qui le compose est très grand, qu’elle est négligeable. C’est le cas des objets physiques. Ils sont faits de milliards de particules. Nous n’apercevons que le comportement moyen de l’énorme population de molécules et on peut les décrire globalement de manière déterministe, alors que la dynamique individuelle des molécules est aléatoire. Un tel « principe d’ordre à partir du désordre » peut-il opérer en biologie pour expliquer l’ontogenèse d’un être vivant à partir des gènes présents dans les chromosomes ? La réponse de Schrödinger est négative. Le nombre de particules impliquées dans ce phénomène est trop petit pour que la loi des grands nombres opère. Aucun ordre ne pourrait apparaître. La variabilité du système serait trop grande, incompatible avec la très grande précision et la reproductibilité des phénomènes biologiques. Ceux-ci doivent donc être soumis à un déterminisme rigoureux. Ainsi, il existerait un principe agissant directement au niveau moléculaire pour éviter le hasard brownien et contrôler les molécules biologiques pendant l’embryogenèse, afin qu’elles s’assemblent correctement. Contrairement aux systèmes physiques, les organismes sont régis par ce « principe d’ordre à partir de l’ordre ». C’est ce qu’on appelle aujourd’hui l’information ou programme génétique. Dans ce raisonnement, Schrödinger ne tenait compte que du nombre de gènes, qui est effectivement petit (de l’ordre de la dizaine de milliers) comparé aux milliards de particules des systèmes physiques. A cette époque, il ne connaissait pas le processus de synthèse des protéines qui démultiplie le nombre de molécules biologiques.
La question qui s’est alors posée était de comprendre comment cette information virtuelle représentant l’organisme, codée dans les chromosomes, est actualisée en processus physique donnant naissance à l’être adulte. En d’autres termes, comment passe-t-on du génotype au phénotype pendant l’ontogenèse ? La réponse apportée dans les années 1960 fut la propriété de stéréospécificité dont seraient porteuses les molécules biologiques. Stéréospécificité signifie « spécificité solide ». Il s’agit littéralement de la spécificité transposée dans le domaine des molécules. De par leur forme et leur charge électrique, les protéines s’emboîteraient de manière spécifique, sans intervention du hasard, comme les pièces d’un puzzle. Une molécule donnée interagissant toujours avec la même molécule « partenaire », de telle sorte qu’à partir d’un ensemble de molécules, le même processus d’assemblage se répète toujours, donnant naissance à la même structure (Figure 1). Ainsi peut être expliquée la construction d’un organisme à partir des protéines produites par les gènes. Comme la forme et la charge électrique d’une protéine dépendent de sa composition en acides aminés, qui elle-même dépend de la séquence en nucléotides dans le gène, ce processus d’assemblage stéréospécifique est bien la transformation matérielle de l’information virtuelle contenue dans les chromosomes. Ce concept trouva son application principale dans la théorie du programme génétique. D’après celle-ci, l’expression des gènes serait un phénomène déterministe contrôlé par des interactions spécifiques entre des protéines régulatrices et l’ADN.
A partir de cette époque, le programme de recherche de la biologie moléculaire a consisté, pour une très large part, à isoler les molécules stéréospécifiques impliquées dans tous les processus physiologiques normaux ou pathologiques, notamment le développement de l’embryon et le cancer. L’idée était (est toujours) qu’à partir du moment où l’on aurait une protéine impliquée, on aurait un fil conducteur pour reconstituer la cascade des interactions spécifiques entre molécules expliquant ce phénomène. De très nombreuses molécules ont ainsi été caractérisées. Ces découvertes sont saluées comme de grands progrès et suscitent de grands espoirs. Cependant, un aspect des résultats est généralement laissé de côté. Les analyses des propriétés physico-chimiques effectuées par la suite ont démontré que ces protéines ne possèdent pas la propriété de stéréospécificité prédite par la théorie. Elles sont capables d’interagir avec de très nombreuses molécules « partenaires ». Au lieu de les trouver localisées spécifiquement dans un type cellulaire qu’elles détermineraient, elles sont ubiquitaires, présentes à différents stades du développement embryonnaire, dans de nombreux tissus.
Cette situation était prévisible, à condition de prêter un peu plus d’attention aux problèmes théoriques. La spécificité n’est pas un concept scientifique, mais une notion métaphysique non quantifiable, qui a été plaquée de manière inconsistante sur la réalité expérimentale. Lorsqu’on analyse les interactions entre molécules, on utilise les paramètres physico-chimiques appelés les « constantes cinétiques d’équilibre ». On passe alors du monde qualitatif de la spécificité régi par le « tout ou rien » (deux molécules sont ou ne sont pas spécifiques), à un monde relatif où toutes les molécules peuvent interagir, plus ou moins. Elles ont une certaine probabilité de se rencontrer à cause de l’agitation brownienne, et leur association dure plus ou moins longtemps en fonction de leur « affinité ». Certaines molécules forment entre elles des liaisons très stables, d’autres très faibles et, entre les deux, on peut trouver tous les cas de figure intermédiaires. Si on intègre cette donnée expérimentale, l’embryogenèse ne peut plus être expliquée par un mécanisme d’assemblage spontané, guidé par la stéréospécificité. Du fait de la non-spécificité des interactions, à partir d’un ensemble de molécules, plusieurs structures, plus ou moins probables et plus ou moins stables, peuvent être produites (Figure 2). La question qui se pose alors, à nouveau, est de comprendre comment un seul être est généré parmi tous ces possibles. La réponse habituelle consiste à invoquer l’existence de cofacteurs non-identifiés qui conféreraient la spécificité au mécanisme. Cet argument a été largement utilisé depuis 40 ans. On peut, cependant, être surpris que ces cofacteurs n’aient pas encore été isolés, malgré les recherches intensives réalisées. Il s’agit là d’un problème important qui ne va pas se résoudre par une extension de l’analyse moléculaire. Celle-ci ne conduit qu’à des observations contingentes à une situation particulière (une des structures de la figure 2) qui ne permettent pas d’induire des lois de fonctionnement général. C’est pourquoi, après la découverte initiale du gène ou de la protéine dans un processus, la recherche « patine » pour reconstituer la chaîne causale qui permettrait de l’expliquer. On n’arrive pas à comprendre la dynamique du processus et on se perd dans le détail des fluctuations moléculaires.
Pour sortir de cette contradiction, on peut proposer une autre théorie. Comme l’indiquent les données expérimentales, les processus biologiques ne sont pas spécifiques. De ce fait, ils font une large part au hasard, notamment au niveau de l’expression des gènes, et génèrent ainsi une diversité moléculaire et cellulaire. Ce n’est pas un inconvénient. Au contraire, les êtres vivants en tirent profit grâce à un mécanisme de sélection dirigeant l’embryogenèse et dont l’origine se situe dans l’environnement. Ce mécanisme opère un tri qui fait émerger la structure fonctionnelle (Figure 3). Il s’agit de la sélection naturelle elle-même, qui entre à l’intérieur de l’organisme.
L’hypothèse, publiée en 1986, est textuellement la suivante : les contraintes auxquelles les organismes sont soumis impliquent des chaînes de coopération métabolique entre cellules, et celles-ci sont à l’origine de l’organisation des êtres vivants. Elles déterminent également par sélection naturelle la position des gènes dans les chromosomes (et donc, selon le modèle probabiliste d’expression des gènes, le moment et l’endroit où ces gènes vont s’activer pendant le développement embryonnaire). On peut imaginer un organisme très simple. Il s’agit d’un tas de cellules se différenciant en deux types cellulaires, ressemblant à des formes primitives d’êtres pluricellulaires, appelés « protistes eucaryotes ». Il est constitué d’une cellule initiale qui se multiplie sur une surface dans laquelle son substrat nutritif, r, est présent en quantité limitée. Pour se multiplier, cette cellule doit avoir accès à son substrat, de telle sorte qu’elle ne peut se multiplier que là où r est présent (Figure 4A). Les cellules ne peuvent pas proliférer verticalement, sauf si r est transféré à travers les cellules de la première couche. La quantité de substrat r, qui peut être ainsi transférée par diffusion via les premières cellules, est limitée par la quantité initiale de r dans le sol. Il va se former un gradient. La quantité de r disponible dans les cellules décroît progressivement lorsqu’on s’élève dans la colonie et les cellules ne peuvent plus se multiplier en dessous d’un certain seuil. Cependant, il doit exister un autre gradient dans cette colonie, dû à la diffusion du métabolite s, produit de la digestion de r par les cellules. Ainsi chaque cellule se trouve placée dans un micro-environnement différent déterminé par les concentrations de r et s. La différenciation cellulaire est l’adaptation des cellules à ces micro-environnements. Chaque cellule met en route les gènes de manière aléatoire, selon le modèle probabiliste, et il y a une sélection (multiplication) de celles dont les gènes actifs permettent d’utiliser les ressources disponibles. A l’extrême, il se formera deux couches de cellules. Les cellules de la première couche (claires), situées là où il y a beaucoup de r et peu de s, utilisent r comme substrat. Les cellules de la deuxième couche (sombres), là où il y a peu de r mais beaucoup de s, utilisent ce dernier comme substrat. Dans cet organisme rudimentaire il y a donc une chaîne de coopération métabolique : les cellules de la première couche fabriquent s, qu’utilisent les cellules de la deuxième couche.
Cette théorie ne se réduit pas à l’aspect métabolique. Il s’agit d’une théorie duale reposant sur le hasard et la sélection. La relation entre ces deux aspects est très forte et constitue un point essentiel. Toute la difficulté est d’arriver à les penser en même temps sans privilégier l’un ou l’autre. Les chaînes métaboliques structurent la colonie, mais cette structuration n’est possible que du fait du comportement aléatoire des cellules, qui permet l’adaptation aux micro-environnements.
La relation entre le hasard et la sélection va même plus loin. Il aboutit à une véritable fusion de l’évolution et de l’embryogenèse. L’environnement, via les gradients de substrat (r et s dans notre exemple), détermine la structure du génome lui-même. En effet, dans le modèle d’expression aléatoire des gènes, le moment où un gène s’active dépend de sa position sur la molécule d’ADN. De ce fait, les organismes dont la position des gènes est optimale sont sélectionnés (se multiplient mieux). Reprenons notre exemple. Les cellules de la deuxième couche correspondent à l’expression du gène b qui permet d’utiliser s. Ce gène ne doit s’exprimer ni trop tôt, ni trop tard pour optimiser la croissance de la colonie. L’optimum est qu’il s’exprime au moment où les cellules situées au sommet de la première couche cessent de croître par manque de r. Supposons maintenant que la concentration de r dans l’environnement change. Cette modification externe se répercutera à l’intérieur de l’organisme. Les quantités de substrat disponibles dans la colonie changeront. De nouveaux gradients s’établiront. Du coup, un nombre différent de cellules pourra pousser dans la première couche (Figure 5). L’organisme évoluera donc vers une autre forme possédant des couches cellulaires de tailles différentes, correspondant à ces nouveaux gradients. De ce fait, les cellules où le gène b se trouve à une position différente, permettant l’expression au moment du nouvel arrêt de croissance de la première couche, seront sélectionnées.
Les rapports entre l’évolution et l’embryogenèse ont fasciné les biologistes depuis longtemps. Darwin, dans L’origine des espèces, avait déjà noté que les embryons d’espèces très éloignées d’un point de vue évolutif sont quasiment impossibles à distinguer aux stades précoces du développement embryonnaire. Pour expliquer ce phénomène, Haeckel proposa la célèbre théorie de la récapitulation. Chaque individu re-parcourrait, au cours de son ontogenèse, l’évolution de sa lignée. Les ressemblances entre embryons correspondraient aux ancêtres communs des différentes espèces. Cependant, en ce qui concerne les mécanismes explicatifs, l’ontogenèse et la phylogenèse sont restées, jusqu’à présent, aux antipodes l’une de l’autre. Autant la théorie de l’évolution s’est libérée du déterminisme et du finalisme pour faire place au hasard des mutations triées par la sélection, autant l’embryogenèse continue d’être expliquée par la réalisation d’un programme préconçu, qui détermine le destin de chaque cellule d’un organisme.
La théorie présentée ici rompt avec cette séparation et réunifie les deux phénomènes sous un même mécanisme explicatif : une cause unique, la sélection naturelle, provoque la structuration de la colonie et son évolution. Tel Janus qui possédait deux visages indissociables, l’ontogenèse et la phylogenèse sont les deux faces entremêlées d’un même phénomène qu’on peut appeler l’ontophylogenèse. Celle-ci satisfait au principe de parcimonie de la méthode scientifique. Ce principe, également appelé le « rasoir d’Ockham », nous demande d’adopter les théories les plus simples, qui réduisent le nombre d’hypothèses.
L’ontophylogenèse peut conduire à des contresens qu’il vaut mieux éviter. D’une part, l’ADN garde un rôle important, sinon primordial. Evidemment, il ne s’agit pas d’un programme déterministe, mais d’un générateur aléatoire de diversité, sur laquelle opère la sélection. D’autre part, on peut utiliser la métaphore de l’écosystème de façon ponctuelle pour décrire les relations d’échange entre cellules. Mais il ne faut pas la systématiser car on risquerait de tomber dans la caricature. L’ADN garde une mémoire des situations vécues par l’organisme grâce aux changements de position des gènes. Il peut ainsi aider à reproduire la même structure à la génération suivante. Ce mécanisme pourrait d’ailleurs être un début d’explication des phénomènes de récapitulation décrits par Haeckel. Or, il n’y a rien d’équivalent dans un écosystème qui ne se multiplie pas.
Il n’est pas possible de faire ici, dans le cadre d’un exposé synthétique, une discussion exhaustive des arguments expérimentaux en faveur de l’ontophylogenèse. Ils sont pourtant nombreux, aussi bien en faveur des aspects métaboliques que probabilistes. L’ontophylogenèse explique l’origine des organismes pluricellulaires et donc leur principe général d’embryogenèse. Cela n’exclut évidemment pas que d’autres mécanismes soient apparus au cours de l’évolution pour améliorer leur viabilité et que ces mécanismes se superposent les uns aux autres chez les organismes supérieurs.

Bibliographie :
J.-J. Kupiec, « A Probabilist Theory for Cell Differentiation: the Extension of Darwinian Principles to Embryogenesis », Speculations in Science and Technology, Volume 9, No 1 p.19-22, 1986.
J.-J. Kupiec et P. Sonigo, Ni Dieu ni gène, Editions du Seuil, 2000
Articles originaux et bibliographie complète disponibles sur internet : http://www.criticalsecret.com/jeanjacqueskupiec