EHVI
 

L’ontophylogenèse : un nouveau paradigme biologique ?

Conférence de J-J. Kupiec du 27 mai 2010, à 14h, amphi­théâ­tre Schrödinger (ENS de Lyon, site Monod)

Spécialiste de bio­lo­gie molé­cu­laire, de phi­lo­so­phie de la bio­lo­gie et épistémologue, ses recher­ches l’amè­nent à cons­truire une nou­velle théo­rie de l’orga­ni­sa­tion bio­lo­gi­que met­tant en crise le déter­mi­nisme géné­ti­que et la phi­lo­so­phie de l’espèce. Il réa­lise des modé­li­sa­tions de com­por­te­ment de cel­lu­les riva­les dans leur accès aux res­sour­ces (dont la lutte peut, par exem­ple, se mani­fes­ter à l’échelle macro­sco­pi­que par la for­ma­tion d’un muscle ou d’un os). Pour lui l’onto­ge­nèse (le déve­lop­pe­ment d’un orga­nisme indi­vi­duel) et la phy­lo­ge­nèse (l’évolution des espè­ces) ne for­ment qu’un pro­ces­sus unique. Il déve­loppe le concept d’onto­phy­lo­ge­nèse, c’est-à-dire un dar­wi­nisme cel­lu­laire qui vient résou­dre les contra­dic­tions du déter­mi­nisme géné­ti­que (l’ordre dans le vivant par les molé­cu­les) d’une part et du holisme (l’ordre par le tout).

Retranscription de l’exposé de J-J. Kupiec

Pour l’ouvrir en fichier pdf :

Enregistrement de la confé­rence

* Première partie

Intervention_Kupiec_1ère partie
http://dl.ens-lyon.fr/big­fi­le­sha­ring/files/08dfd7e9e876f31d­ce3a7c7a47c33aef/kupiec_expose_1-4.mp3

* Deuxième partie

Intervention_Kupiec_2ème partie
http://dl.ens-lyon.fr/big­fi­le­sha­ring/files/787e7b409­fe5e1bd39a39100­be91f9bb/kupiec_expose_2-4.mp3

* Troisième partie

Intervention_Kupiec_3ème partie
http://dl.ens-lyon.fr/big­fi­le­sha­ring/files/bef266f4b519049c7df06a3021222bd0/kupiec_expose_3-4.mp3

* Quatrième partie

Intervention_Kupiec_4ème partie
http://dl.ens-lyon.fr/big­fi­le­sha­ring/files/46e22f2e95d6cd70c62e­fadff880b0d3/kupiec_expose_4-4.mp3

Questions au confé­ren­cier

* Première partie

Questions_Kupiec_1ère partie
http://dl.ens-lyon.fr/big­fi­le­sha­ring/files/38b7b21689278481294a8652e1afd909/onto­phy­lo­ge­nese_ques­tions_1-2.mp3

* Seconde partie

Questions_Kupiec_2ème partie
http://dl.ens-lyon.fr/big­fi­le­sha­ring/files/38b7b21689278481294a8652e1afd909/onto­phy­lo­ge­nese_ques­tions_1-2.mp3

Introduction

Pendant le sémi­naire, je vais essayer de déve­lop­per deux idées prin­ci­pa­les : la pre­mière, c’est que le vivant est intrin­sè­que­ment pro­ba­bi­liste, et que de ce fait la notion de pro­gramme géné­ti­que est cadu­que. Vous savez peut-être, ou devez savoir, que depuis une dizaine d’années il est main­te­nant démon­tré que l’expres­sion des gènes est un phé­no­mène sto­chas­ti­que, à l’issue d’une série de tra­vaux qui se sont accu­mu­lés – ça a com­mencé un peu avant, à partir des années 90. Mais l’expres­sion sto­chas­ti­que des gènes y est inter­pré­tée comme du « bruit ». On appelle ça, dans la lit­té­ra­ture anglo-saxonne, « noise of gene expres­sion ». Donc on consi­dère que l’expres­sion des gènes intè­gre une dimen­sion sto­chas­ti­que, mais ça ne remet pas en cause la théo­rie du pro­gramme géné­ti­que. On consi­dère que c’est en quel­que sorte une marge d’ajus­te­ment, une marge de fluc­tua­tion aléa­toire dans l’expres­sion du pro­gramme géné­ti­que. Donc ce que je vais essayer de mon­trer, c’est qu’en fait cette dimen­sion sto­chas­ti­que impli­que un réa­mé­na­ge­ment de très grande ampleur en bio­lo­gie, et que ce réa­mé­na­ge­ment mène obli­ga­toi­re­ment à la dis­so­lu­tion du concept même de pro­gramme géné­ti­que.

La deuxième idée que je vais essayer de déve­lop­per, c’est cette idée que l’onto­ge­nèse et la phy­lo­ge­nèse ne for­ment qu’un seul pro­ces­sus. Vous savez également qu’en bio­lo­gie on consi­dère qu’il y a deux phé­no­mè­nes qu’on consi­dère comme tota­le­ment dis­tincts : d’un côté l’évolution des espè­ces (phy­lo­ge­nèse) et d’un autre côté la genèse des orga­nis­mes indi­vi­duels (l’onto­ge­nèse ou l’embryo­ge­nèse). Et donc on consi­dère qu’il s’agit de deux phé­no­mè­nes dis­tincts qui sont donc expli­qués par deux théo­ries dis­tinc­tes et clai­re­ment défi­nies : d’un côté la théo­rie de la sélec­tion natu­relle (pour la période moderne) pour l’évolution des espè­ces, et puis l’embryo­ge­nèse qui est expli­quée comme étant l’expres­sion, le déve­lop­pe­ment, l’actua­li­sa­tion du pro­gramme géné­ti­que par la bio­lo­gie molé­cu­laire. En fait, cette manière de sépa­rer pose toute une série de pro­blè­mes récur­rents, notam­ment en ce qui concerne l’évolution des espè­ces. L’an der­nier, c’était l’année Darwin, on a entendu cette expres­sion tout au long de l’année, mais en réa­lité c’est une expres­sion qui est un abus de lan­gage car à pro­pre­ment parler, les espè­ces n’évoluent pas. Pourquoi est-ce que les espè­ces n’évoluent pas ? Parce que l’espèce est une abs­trac­tion. Dans la nature, il n’y a pas une espèce « cheval » ou une espèce « lapin » ou un pro­to­type d’espèce « cheval » ou un pro­to­type de l’espèce « lapin » qui évolue. Ce qui existe réel­le­ment, ce sont des indi­vi­dus, des popu­la­tions d’orga­nis­mes indi­vi­duels – et des popu­la­tions d’orga­nis­mes indi­vi­duels qui se mul­ti­plient eux mêmes par la géné­ra­tion : c’est-à-dire que ce qui existe réel­le­ment, ce sont des lignées généa­lo­gi­ques qui voient la mul­ti­pli­ca­tion inin­ter­rom­pue d’indi­vi­dus. Et c’est à partir de ces popu­la­tions qu’on reconnaît et qu’on abs­trait des espè­ces. Donc ce qui évolue réel­le­ment, en fait, ce sont ces indi­vi­dus, à tra­vers la géné­ra­tion. Ce que je viens de dire, c’est un résumé extrê­me­ment syn­thé­ti­que de l’ana­lyse qu’a faite Darwin dans L’Origine des espè­ces. Si vous l’avez lu ou si vous le lisez vous verrez qu’il pro­cède à une décons­truc­tion du concept réa­liste de l’espèce, pour adop­ter un point de vue nomi­na­liste, et il finit par pro­po­ser une défi­ni­tion de l’espèce qui est une défi­ni­tion généa­lo­gi­que : pour Darwin, tex­tuel­le­ment, une espèce est un ensem­ble d’indi­vi­dus qui ont un ancê­tre commun. On passe donc d’une défi­ni­tion typo­lo­gi­que de l’espèce à une défi­ni­tion généa­lo­gi­que, et ce qui est impli­cite dans cette manière de voir, c’est que ce qui est réel, ce n’est pas l’espèce (qui est une abs­trac­tion) mais c’est la lignée généa­lo­gi­que. Cette lignée généa­lo­gi­que qui a com­mencé à partir du moment où le vivant est apparu.

Alors main­te­nant, en ce qui concerne l’onto­ge­nèse. On est per­suadé qu’il y a un pro­ces­sus, qui s’appelle l’embryo­ge­nèse, qui a pour but de créer des orga­nis­mes indi­vi­duels. Mais cette manière de voir, elle est tout aussi arbi­traire. Il est évident que nous avons ten­dance à faire une pro­jec­tion anthro­po­cen­tri­que, et on est per­suadé que ce pro­ces­sus a pour but de nous créer. Mais si l’on prend un peu de dis­tance, ici aussi, ce à quoi on a affaire, c’est une suc­ces­sion d’êtres qui se repro­dui­sent à l’infini – une lignée généa­lo­gi­que qui voit se suc­cé­der des formes, des phases cycli­ques (des phases uni­cel­lu­lai­res (cel­lu­les ger­mi­na­les) qui don­nent des êtres mul­ti­cel­lu­lai­res qui vont redon­ner des cel­lu­les ger­mi­na­les, etc.). Et nous, évidemment, on fige un ins­tant, qu’on appelle l’indi­vidu, sur un pro­ces­sus continu et inin­ter­rompu. On pour­rait très bien inver­ser le point de vue, et dire que ce qui est réel, après tout, pour­quoi ce ne serait pas l’ovo­ge­nèse ? Et d’une cer­taine manière, c’est le point de vue de la géné­ti­que, dans ses inter­pré­ta­tions extrê­mes. Pour Weissman, ce qui était réel, c’était la lignée ger­mi­nale. Et pour quelqu’un comme Dawkins – on peut consi­dé­rer que c’est l’ultra-géné­ti­cien par excel­lence – ce qui est réel, ce sont les gènes, et nous ne sommes que des ava­tars des­ti­nés à pro­pa­ger les gènes. En vérité, les deux points de vue sont aussi vrais et aussi faux l’un que l’autre – ce ne sont que des points de vue. La seule chose dont l’on peut dire que c’est ce qui est réel (si l’on essaie de s’abs­traire de toute pro­jec­tion), c’est qu’on a affaire à un phé­no­mène cycli­que inin­ter­rompu, à nou­veau, qui voit la suc­ces­sion, la repro­duc­tion, de ce qu’on appelle des orga­nis­mes indi­vi­duels, et qui voit se suc­cé­der des phases cel­lu­lai­res, mul­ti­cel­lu­lai­res, cel­lu­lai­res, mul­ti­cel­lu­lai­res. Donc, si on pro­cède à cette ana­lyse, on s’aper­çoit que dans les deux cas – dans l’onto­ge­nèse comme dans la phy­lo­ge­nèse – on bute en quel­que sorte sur une réa­lité unique, qui est la lignée généa­lo­gi­que. Donc ce point de vue sur l’onto­ge­nèse, à nou­veau, à la même époque que Darwin, un bio­lo­giste l’a expri­mée très clai­re­ment et très expli­ci­te­ment, c’est Claude Bernard dans les Leçons sur les phé­no­mè­nes de la vie.

Donc ce concept d’onto­phy­lo­ge­nèse, que j’ai intro­duit, cher­che à capter cette réa­lité unique sous-jacente à ce qu’on sépare habi­tuel­le­ment et qu’on appelle l’onto­ge­nèse et la phy­lo­ge­nèse. Et si on va un peu plus loin et qu’on reconnaît qu’on a affaire à un phé­no­mène unique, a priori il n’y a aucune raison pour qu’on ne puisse pas avoir une théo­rie unique, qu’il n’y ait pas un méca­nisme unique qui per­mette d’expli­quer ce phé­no­mène unique. A priori, on doit pou­voir pro­cé­der à une réduc­tion et ne pas avoir deux théo­ries, mais une seule, qui per­mette d’expli­quer ce phé­no­mène unique. Et c’est ce que j’appelle le « dar­wi­nisme cel­lu­laire » et que j’essaie­rai d’intro­duire également. Et dans la troi­sième partie de l’exposé, on verra com­ment – à partir de ce cadre théo­ri­que géné­ral, cette réin­ter­pré­ta­tion géné­rale des faits bio­lo­gi­ques – on peut reve­nir vers des phé­no­mè­nes plus concrets, notam­ment la dif­fé­ren­cia­tion cel­lu­laire, débou­cher sur des inter­pré­ta­tions plus pré­ci­ses de ces faits bio­lo­gi­ques, et également sur un pro­gramme de recher­che expé­ri­men­tal.

Première partie

Pour com­men­cer et pour com­pren­dre donc com­ment se posent ces ques­tions aujourd’hui, on va reve­nir sur les débuts de la bio­lo­gie molé­cu­laire. Comme Baptiste l’a indi­qué, on se trouve dans l’amphi­théâ­tre Schrödinger. Donc, il se trouve que Schrödinger a joué un rôle impor­tant en bio­lo­gie molé­cu­laire. C’est un phy­si­cien, et il est sur­tout connu pour ses tra­vaux de phy­si­que quan­ti­que. En fait la bio­lo­gie molé­cu­laire – vous devez le savoir également – au départ a été créée par des phy­si­ciens, notam­ment un phy­si­cien qui s’appelle Maxime Delbrück qui avait créé le « groupe du phage » dans les années 30 – 40. Et comme beau­coup de phy­si­ciens, à la même époque, Schrödinger s’inté­res­sait beau­coup à la bio­lo­gie, mais d’un point de vue théo­ri­que, et il a écrit un livre qui s’appelle Qu’est-ce que la vie ? (What is life ?) publié en 1944, dans lequel il a popu­la­risé tous les concepts de la bio­lo­gie molé­cu­laire nais­sante, notam­ment beau­coup des concepts et des tra­vaux qui avaient été intro­duits par Max Delbrück. Et donc dans la pre­mière partie de ce livre, Schrödinger pose la ques­tion : d’où vient l’ordre dans les sys­tè­mes natu­rels ? Et par là même, il pose la ques­tion du rôle de l’aléa­toire dans la genèse de l’ordre dans les sys­tè­mes natu­rels, et il est amené à tracer une sépa­ra­tion très nette entre la phy­si­que et la bio­lo­gie : donc, selon Schrödinger, en phy­si­que opère ce qu’il appelle un prin­cipe « d’ordre à partir du désor­dre ». Donc ce à quoi il fait allu­sion, c’est la phy­si­que sta­tis­ti­que. En phy­si­que, au niveau micro­sco­pi­que, le com­por­te­ment des par­ti­cu­les (atomes, molé­cu­les, par­ti­cu­les suba­to­mi­ques) est sto­chas­ti­que, il est aléa­toire, soumis à l’agi­ta­tion ther­mi­que. Mais si vous consi­dé­rez le même sys­tème au niveau macro­sco­pi­que, du fait du nombre immense de par­ti­cu­les qui est impli­qué dans tout sys­tème phy­si­que, opère la loi des grands nom­bres, et donc il y a une réduc­tion de la variance glo­bale du sys­tème, et donc on observe en quel­que sorte la moyenne des com­por­te­ments des par­ti­cu­les que l’on peut par­fai­te­ment décrire par des lois déter­mi­nis­tes, parce que la variance du sys­tème deve­nant négli­gea­ble, on peut tout à fait le décrire ainsi. L’exem­ple cano­ni­que est la dif­fu­sion : vous mettez une goutte de vinaire dans un verre d’eau, chaque molé­cule de vinai­gre va bouger selon une marche aléa­toire et vous ne pouvez la décrire que de manière sta­tis­ti­que ; mais si vous consi­dé­rer la goutte dans son ensem­ble et que vous regar­der la ciné­ti­que de dilu­tion du vinai­gre dans le verre d’eau, vous pouvez la décrire par les lois de Fick, qui sont des lois déter­mi­nis­tes. Donc en phy­si­que, prin­cipe d’ordre à partir du désor­dre, pour Schrödinger. Et ça veut dire également que l’ordre est sub­jec­tif, fina­le­ment, puisqu’il dépend du niveau d’obser­va­tion et il dépend de l’obser­va­teur : selon que vous vous placez à un niveau micro­sco­pi­que ou macro­sco­pi­que, vous avez affaire à un phé­no­mène désor­donné ou orga­nisé, pro­ba­bi­liste ou déter­mi­niste. Ce n’est donc qu’une approxi­ma­tion, fina­le­ment.

Alors donc la ques­tion que pose Schrödinger au début de Qu’est-ce que la vie ? : est-ce que le même prin­cipe d’ordre à partir du désor­dre peut opérer en bio­lo­gie ? Donc là je vais aller un petit peu vite : sa réponse, et à sa suite la réponse de tous les bio­lo­gis­tes molé­cu­lai­res, est : non. Les argu­ments qu’il déve­loppe sont un petit peu datés aujourd’hui, mais en gros ils consis­tent à dire qu’il n’y a pas assez d’atomes dans un gène pour que la loi des grands nom­bres opère, puisqu’il sup­pose que le gène gou­verne les phé­no­mè­nes bio­lo­gi­ques ; et donc que si la bio­lo­gie était sou­mise au même prin­cipe, du fait que le nombre de par­ti­cu­les est trop petit, la loi des grands nom­bres ne pour­rait pas opérer, donc les phé­no­mè­nes bio­lo­gi­ques auraient une très grande varia­bi­lité – ce qui est contra­dic­toire avec la très grande pré­ci­sion et la repro­duc­ti­bi­lité qui les carac­té­ri­sent. Donc doit opérer ce qu’il appelle un prin­cipe « d’ordre à partir de l’ordre » : c’est-à-dire que contrai­re­ment à la phy­si­que, au niveau micro­sco­pi­que, les molé­cu­les bio­lo­gi­ques ne sont pas sou­mi­ses uni­que­ment à l’agi­ta­tion ther­mi­que, au hasard brow­nien, mais elles sont contrain­tes par un prin­cipe qui vient les ordon­ner direc­te­ment au niveau micro­sco­pi­que et les gou­ver­ner pour qu’elles se com­por­tent de manière adé­quate pour cons­truire l’orga­nisme. À l’époque, on avait pas encore décou­vert la struc­ture de l’ADN, il y avait encore des débats pour savoir ce qu’il y avait dans les chro­mo­so­mes. Donc ce à quoi Schrödinger fait allu­sion, avec ce prin­cipe « d’ordre à partir de l’ordre », c’est l’hypo­thèse émise à la même époque par Maxime Delbrück qu’il y avait des chro­ma­ti­nes, des pro­téi­nes, de l’ADN – du maté­riau géné­ti­que – et c’était donc l’hypo­thèse du « cris­tal apé­rio­di­que » : il y aurait un code dans les chro­mo­so­mes, et ce prin­cipe de l’ordre à partir de l’ordre est ce que l’on appelle aujourd’hui « l’infor­ma­tion géné­ti­que ». Et c’est ce qui dif­fé­ren­cie les sys­tè­mes bio­lo­gi­ques des sys­tè­mes phy­si­ques : les molé­cu­les des sys­tè­mes bio­lo­gi­ques ne sont pas livrées aux lois de la phy­si­que sta­tis­ti­que pure, mais elles sont gou­ver­nées par l’infor­ma­tion géné­ti­que qui vient direc­te­ment leur donner l’infor­ma­tion, les ins­truire pour leur dire ce qu’elles doi­vent faire pou cons­truire l’orga­nisme et se com­por­ter de manière adé­quate.

Donc la ques­tion qui s’est posée et qui se pose aus­si­tôt qu’on a admis un prin­cipe tel que celui de l’ordre par l’ordre c’est de savoir com­ment l’infor­ma­tion codée dans les chro­mo­so­mes (qui est quel­que chose de vir­tuel) va pou­voir être trans­formé en une struc­ture phy­si­que réelle au cours d’un pro­ces­sus phy­si­que réel qui est l’onto­ge­nèse. Autrement dit : com­ment la repré­sen­ta­tion vir­tuelle de l’orga­nisme qui se trouve dans les chro­mo­so­mes peut être trans­formé en un pro­ces­sus phy­si­que réel et à trois dimen­sions ? Donc, Schrôdinger avait un peu abor­der cette ques­tion, mais je passe un peu. La réponse qui a été adop­tée mas­si­ve­ment par les bio­lo­gis­tes molé­cu­lai­res, notam­ment à partir des années 1960, c’est le prin­cipe de l’auto-assem­blage sté­réo­spé­ci­fi­que. Ce prin­cipe est le sui­vant : les pro­téi­nes ont une struc­ture tri­di­men­sion­nelle, et en fonc­tion de leur struc­ture tri­di­men­sion­nelle, les pro­téi­nes ne se reconnais­sent pas au hasard – en fait elles ne se reconnais­sent que de manière uni­vo­que, puis­que chaque pro­téine ne peut reconnaî­tre qu’un seul par­te­naire (ou un nombre très très petit de par­te­nai­res) de telle sorte que toute pos­si­bi­lité com­bi­na­toire dans les inte­rac­tions soit exclue, et que soit donc exclue par là même toute pos­si­bi­lité de hasard ou d’effet aléa­toire. En fait, on est dans le sys­tème du puzzle, en quel­que sorte – c’est ce que j’ai figuré sur le schéma – pour qu’on com­prenne bien le prin­cipe : vous mettez un ensem­ble de pièces d’un puzzle, elles sont contrain­tes par leur struc­ture à inte­ra­gir d’une cer­taine manière – ici, ces quatre pièces ne pour­ront inte­ra­gir que de manière à former la struc­ture en bas à droite. Et tout cela dans le cas des pro­téi­nes : comme la struc­ture tri­di­men­sion­nelle des pro­téi­nes dépend de leur struc­ture linéaire d’acides aminés qui est la tra­duc­tion directe de la séquence en nucléo­ti­des qui est conte­nue dans les gènes, ce méca­nisme d’auto-assem­blage sté­réo­spé­ci­fi­que est bien la tra­duc­tion phy­si­que de l’infor­ma­tion géné­ti­que conte­nue dans les gènes. Ce prin­cipe a été pro­posé par Caspar et Klug au début des années soixante dans des papiers sémi­naux his­to­ri­ques, d’abord pour expli­quer dans un pre­mier temps la genèse des par­ti­cu­les vira­les. Ensuite, ça a été très vite étendue à toutes les mor­pho­gé­nè­ses de struc­tu­res cel­lu­lai­res. Et à la même époque, le même prin­cipe d’inte­rac­tion sté­réo­spé­ci­fi­que a été uti­lisé pour expli­quer les phé­no­mè­nes de régu­la­tions, notam­ment par Monod et Jacob – à la même époque. Le modèle de Monod-Jacob date même de 1961, il est anté­rieur d’une année. Ils ont expli­qué la régu­la­tion du gène du lac­tose dans la bac­té­rie Escherichia coli par l’exis­tence d’un régu­la­teur. La régu­la­tion des gènes à été vue comme liée à la pré­sence de molé­cu­les qui inte­ra­gis­sent avec les régions pro­mo­tri­ces de manière sté­réo­spé­ci­fi­que : le répres­seur de l’opéron lac­tose venant se coller sur les gènes, en amont de la région pro­mo­trice des gènes du lac­tose, pour le répri­mer. Ces événements ont été vus comme des inter­rup­teurs cyber­né­ti­que « on/off » – on dit qu’un gène est activé ou réprimé en fonc­tion d’une inte­rac­tion spé­ci­fi­que – et à partir de là, on a conçu par extra­po­la­tion toute la régu­la­tion des géno­mes comme des cas­ca­des de régu­la­tions, des suc­ces­sions de signaux « on/off », des gènes pou­vant syn­thé­ti­ser des molé­cu­les qui vont aller acti­ver d’autres gènes ou répri­mer d’autres gènes ; et on a conçu toute la régu­la­tion du génome comme un cir­cuit cyber­né­ti­que fait d’une suc­ces­sion de switch « on/off ». Et cette cas­cade, c’est ce que l’on appelle le « pro­gramme géné­ti­que ». Donc le concept de pro­gramme géné­ti­que repose également sur cette notion d’inte­rac­tion sté­réo­spé­ci­fi­que. Pareil pour la trans­duc­tion du signal : donc, pour les non-bio­lo­gis­tes, les cel­lu­les échangent des signaux à tra­vers la mem­brane, ça va être véhi­culé jusqu’au noyau, et ce que l’on appelle la trans­duc­tion du signal a été également conçu comme des cas­ca­des d’inte­rac­tions, de réac­tions entre molé­cu­les, sur le mode de la sté­réo­spé­ci­fi­cité.

Donc cette vision, cette théo­rie a une consé­quence : c’est que sous-jacen­tes à tous les pro­ces­sus bio­lo­gi­ques, il y a des cas­ca­des d’inte­rac­tions sté­réo­spé­ci­fi­ques – et c’est ce que l’on appelle les « réseaux de pro­téi­nes ». Et donc on doit être capa­bles de dres­ser des cartes sous-jacen­tes : si on dresse la carte et que l’on recons­ti­tue les chaî­nes d’inte­rac­tions sous-jacen­tes aux phé­no­mè­nes bio­lo­gi­ques, on doit pou­voir décor­ti­quer au niveau molé­cu­laire et donc avoir l’expli­ca­tion cau­sale des phé­no­mè­nes qu’on étudie. Donc rapi­de­ment, cette même notion de sté­réo­spé­ci­fi­cité est à la base de ce que l’on appelle le « réduc­tion­nisme géné­ti­que ». C’est l’idée que les gènes codent pour des molé­cu­les – c’est la cons­truc­tion du phé­no­type à partir du géno­type – les molé­cu­les sont sté­réo­spé­ci­fi­ques, ce qui va per­met­tre de cons­truire des cel­lu­les, ces cel­lu­les vont échanger des signaux qui sont eux-mêmes spé­ci­fi­ques et vont per­met­tre de trans­met­tre de l’infor­ma­tion ; cela permet donc aux cel­lu­les de se dif­fé­ren­cier et de s’orga­ni­ser en tissus qui vont donner les orga­nes, et ainsi on peut passer du géno­type au phé­no­type par niveaux d’orga­ni­sa­tion – et chaque niveau est pro­duit par les inte­rac­tions sté­réo­spé­ci­fi­ques du niveau infé­rieur. Et dans cette vision, l’orga­nisme qui existe est bien le déploie­ment de l’infor­ma­tion au départ qui est conte­nue dans les gènes. Là je para­phrase des pas­sa­ges de Monod-Jacob, Le Hasard et la néces­sité, etc. et d’autres.

Cette théo­rie permet de com­pren­dre en même temps le pro­gramme de recher­ches qui a été mis en place par la bio­lo­gie molé­cu­laire, puisqu’à partir du moment où vous avez une théo­rie de ce type là, il est logi­que que pour tout phé­no­mène qu’on veut étudier – normal ou patho­lo­gi­que – on cher­che à isoler un gène qui est en rela­tion avec ce phé­no­mène, ensuite isoler la pro­téine, et grâce aux tech­ni­ques qu’on a, on essaie de trou­ver les par­te­nai­res molé­cu­lai­res de cette pro­téine, pour recons­ti­tuer ainsi les chaî­nes d’inte­rac­tions, et trou­ver les cartes d’inte­rac­tions pro­téi­ques, ou les cartes d’inte­rac­tions entre gènes, sous-jacen­tes aux phé­no­mè­nes. Et c’est effec­ti­ve­ment le pro­gramme de recher­ches qui est mis en œuvre mas­si­ve­ment par la bio­lo­gie molé­cu­laire depuis qua­rante ans. Comme vous le savez, on a isolé un très très grand nombre de gènes, ce qui a permis d’éclairer tous les phé­no­mè­nes, et qui a cons­ti­tué des pro­grès énormes. En même temps, il y a quel­que chose qui est apparu petit à petit, et main­te­nant de manière mas­sive et claire, c’est que contrai­re­ment à ce qui a été prédit, la pré­dic­tion de sté­réo­spé­ci­fi­cité n’a pas été véri­fiée. Au début, c’était par des études au cas par cas, on iso­lait ce qu’on pen­sait être dans un pre­mier temps le fac­teur de trans­crip­tion spé­ci­fi­que d’un gène spé­ci­fiant une lignée au cours de la dif­fé­ren­cia­tion, etc. ou une pro­téine impli­quée dans une mala­die (le cancer, par exem­ple).

Mais petit à petit, on s’est aperçu que ces mêmes molé­cu­les étaient capa­bles d’inte­ra­gir avec d’autres par­te­nai­res, avec un nombre de plus en plus grand, et donc main­te­nant on a car­to­gra­phié des réseaux de gènes entiers cor­res­pon­dant à des orga­nis­mes entiers (des bac­té­ries – E. coli – la levure, la souris, la dro­so­phile, l’homme) et donc on a les cartes tota­les des réseaux de toutes les inte­rac­tions d’orga­nis­mes entiers, et main­te­nant il appa­raît clai­re­ment que contrai­re­ment à ce qui était prédit, la connec­ti­vité de ces réseaux est très grande. J’ai repré­senté ici l’image clas­si­que d’un réseau de pro­téi­nes qu’on trouve dans la lit­té­ra­ture. Ces réseaux ont une struc­ture carac­té­ris­ti­que : la connec­ti­vité moyenne est de l’ordre de 7 à 8 – ce qui est beau­coup – et il y a une région cen­trale dans ces réseaux qui est très très dense, avec plus de 10% des pro­téi­nes qui peu­vent inte­ra­gir avec au moins 100 par­te­nai­res. Donc à la péri­phé­rie, la connec­ti­vité est plus faible, évidemment, mais avec une connec­ti­vité de l’ordre de 7 à 8, cela peut géné­rer des pos­si­bi­li­tés com­bi­na­toi­res immen­ses. Cela a une consé­quence, et notam­ment l’exis­tence de cette région très dense en connexions, avec ces pro­téi­nes qu’on appelle des « hub-pro­téi­nes », des pro­téi­nes cen­tra­les qui peu­vent inte­ra­gir avec plus de 100 par­te­nai­res : c’est que toutes les voies de régu­la­tion sont inter-connec­tées entre elles. Cela veut dire que si vous vous placez à la péri­phé­rie du réseau, où que vous entriez dans le réseau, vous allez arri­ver à des noeuds où il y a plu­sieurs options, vous allez en pren­dre une, et poten­tiel­le­ment vous pouvez sortir par­tout ailleurs dans le réseau. Voilà qui pose un pro­blème, évidemment : c’est une néga­tion directe du prin­cipe de l’ordre par l’ordre. C’est-à-dire que, quand une cel­lule reçoit un signal, elle a une réponse qui consiste à acti­ver un nombre limité de voies de régu­la­tions – elle n’active pas toutes les voies de régu­la­tion pos­si­bles. Cela a donc une consé­quence : contrai­re­ment à ce que l’on croyait ini­tia­le­ment, la struc­ture du réseau lui-même et sa car­to­gra­phie ne peu­vent pas expli­quer le fonc­tion­ne­ment de la cel­lule. Il doit obli­ga­toi­re­ment y avoir un ou des méca­nis­mes sup­plé­men­tai­res qui vien­nent se gref­fer sur ce réseau et qui vont limi­ter à un moment donné l’uti­li­sa­tion du réseau – dans la mesure où, quand une cel­lule se dif­fé­ren­cie ou reçoit un signal, elle ne met pas en œuvre tout son réseau mais n’uti­lise qu’un sous-ensem­ble de son réseau. Donc, pour bien com­pren­dre ce dont il est ques­tion, il s’agit d’un exem­ple local, plus res­treint, main­te­nant qu’on a bien décor­ti­qué cer­tai­nes voies de trans­duc­tion du signal. C’est ici un schéma pris dans la lit­té­ra­ture, tiré d’un arti­cle pro­posé par Schwartz et Madani et publié dans la revue Annual Review of Genetics – une revue sur cette ques­tion de la spé­ci­fi­cité des pro­téi­nes – il s’agit donc d’une levure : on a trois signaux A,B,C qui abou­tis­sent à trois répon­ses A’, B’, C’. Quand la cel­lule est acti­vée par une phé­ro­mone sexuelle, ça déclen­che la recom­bi­nai­son géné­ti­que – c’est la réponse A’, et non B’ ou C’. Le signal B déclen­che la syn­thèse de solute pour répon­dre à une trop grande pres­sion osmo­ti­que, etc. Donc on a décor­ti­qué ces trois voies, et comme c’est très sou­vent le cas, il y a un tronc commun entre ces trois voies : elles uti­li­sent des éléments com­muns, elles conver­gent toutes vers un tronc commun cons­ti­tué de cas­ca­des de réac­tions, ce sont des kina­ses en géné­ral. Et ensuite, on sait que ce tronc commun diverge pour donner les trois répon­ses. C’est une vue sché­ma­ti­que. Or quand la cel­lule reçoit un signal donné, elle a une seule réponse ; d’où la ques­tion qui se pose, c’est : quand le signal arrive en bas du tronc commun, qu’est-ce qui lui dit d’aller vers la réponse spé­ci­fi­que, et pas d’aller acti­ver les trois répon­ses ? C’est un exem­ple bien carac­té­risé, un exem­ple local parmi une mul­ti­tude – un réseau de pro­téi­nes, c’est ça mul­ti­plié et repro­duit.

La ques­tion qui est posée est la sui­vante : cette car­to­gra­phie ne per­met­tant pas d’expli­quer la régu­la­tion, com­ment la régu­la­tion bio­lo­gi­que est pos­si­ble ? On se retrouve en quel­que sorte au point de départ : com­ment se fait-il que, quand une cel­lule est dans une situa­tion donnée, elle est capa­ble de répon­dre adé­qua­te­ment ? Il faut donc qu’il y ait quel­que chose qui limite la com­bi­na­toire molé­cu­laire, une contrainte qui vienne s’exer­cer. Voilà pour fixer les idées. Si on reprend mon schéma, on pen­sait au départ que les pro­téi­nes étant sté­réo­spé­ci­fi­ques, elles vien­nent s’emboî­ter de manière adé­quate, puis­que leur struc­ture est la tra­duc­tion de l’infor­ma­tion, et elles vont ainsi donner nais­sance à une struc­ture – elles ne peu­vent pas faire autre chose. Or ce que l’on trouve c’est qu’il y a de gran­des pos­si­bi­li­tés com­bi­na­toi­res, et si l’on prend cet exem­ple, elles vont pou­voir inte­ra­gir de maniè­res dif­fé­ren­tes et ainsi donner d’autres struc­tu­res, d’autres types d’inte­rac­tion. Donc la ques­tion qui se pose, c’est donc : dans un pro­ces­sus phy­sio­lo­gi­que normal, com­ment on fait pour éviter les inter­fé­ren­ces des pos­si­bi­li­tés com­bi­na­toi­res, des autres inte­rac­tions pos­si­bles ? Qu’est-ce qui permet de faire le tri ?

C’est une ques­tion qui est connue et qui a déjà été tra­vaillée, elle a déjà fait l’objet de plu­sieurs revues dans la lit­té­ra­ture, et il y a toute une série de méca­nis­mes qui ont été mon­trés et pro­po­sés comme per­met­tant de com­pren­dre com­ment la cel­lule peut réduire la com­bi­na­toire molé­cu­laire. Je les ai listé là, cette liste doit être à peu près exhaus­tive de tout ce qui a été pro­posé dans la lit­té­ra­ture. Il y a toute une série de méca­nis­mes : Le pre­mier méca­nisme, c’est la com­par­ti­men­ta­tion spa­tiale – une cel­lule n’est pas un verre d’eau, c’est une struc­ture com­par­ti­men­tée, et les pro­téi­nes ne se répar­tis­sent pas au hasard dans les dif­fé­rents com­par­ti­ments (cer­tai­nes cel­lu­les vont plutôt vers le noyau, d’autres vont plutôt à la mem­brane, etc.). Donc du fait que les cel­lu­les sont sépa­rées phy­si­que­ment, ça va per­met­tre d’éliminer cer­tai­nes inte­rac­tions. Voilà pour la sépa­ra­tion spa­tiale. Un autre méca­nisme qui a été pro­posé est un méca­nisme de sépa­ra­tion tem­po­relle : les gènes ne s’expri­ment pas avec les mêmes dyna­mi­ques, pas for­cé­ment au même moment dans le cycle cel­lu­laire, et de ce fait les pro­téi­nes ne vont pas être pré­sen­tes au même moment et ne pour­ront pas inte­ra­gir. Cela peut donc per­met­tre de réduire les com­bi­na­toi­res molé­cu­lai­res. Troisième méca­nisme : la dif­fé­ren­cia­tion selon le type cel­lu­laire a aussi été sug­geré. C’est un peu ana­lo­gue : les cel­lu­les, selon leur type cel­lu­laire, n’expri­ment pas exac­te­ment les mêmes gènes, et donc on peut avoir la même voie de trans­duc­tion, mais il suffit que les récep­teurs dans le noyau soient dif­fé­rents pour qu’on abou­tisse à l’acti­va­tion de gènes dif­fé­ren­tes en fonc­tion du type cel­lu­laire en réu­ti­li­sant les mêmes voies de trans­duc­tion. Ensuite, des méca­nis­mes de micro-com­par­ti­men­ta­tion : il y a cer­tai­nes pro­téi­nes qui peu­vent fixer plu­sieurs pro­téi­nes par­ti­ci­pant à la même voie, et qui donc vont concen­trer loca­le­ment toutes les pro­téi­nes par­ti­ci­pant à une voie de trans­duc­tion ou à une voie d’acti­va­tion et donc favo­ri­ser leurs inte­rac­tions, du coup. Tous ceux-là sont des méca­nis­mes se sépa­ra­tion, et il y a d’autres méca­nis­mes encore qui ont été pro­posé, notam­ment l’idée que quand il s’agit de trans­duc­tion d’un signal, ce n’est pas un signal mais des com­bi­nai­sons de signal, ou des com­bi­nai­sons de voies de signa­li­sa­tion, qui confè­re­raient la spé­ci­fi­cité des répon­ses. Ensuite des phé­no­mè­nes d’inhi­bi­tions croi­sées : par exem­ple, il peut y avoir deux voies qui sont acti­vées par le même signal, mais l’une des deux a un élément qui peut inhi­ber l’autre, et vice-versa, et aus­si­tôt qu’il y a désé­qui­li­bre entre les deux voies, l’une des deux va s’éteindre. Et aussi des méca­nis­mes d’inten­sité du signal. Donc il y a toute une série de méca­nis­mes qui ont été pro­po­sés et qui effec­ti­ve­ment per­met­tent de com­pren­dre com­ment on peut réduire la com­bi­na­toire molé­cu­laire. Sauf que …

Deuxième partie

Jusqu’à pré­sent j’ai fait une syn­thèse de série de don­nées – ce que vous pouvez trou­ver dans la lit­té­ra­ture, je crois. Maintenant, je vais ren­trer dans mon ana­lyse per­son­nelle. Ces méca­nis­mes per­met­tent très bien de com­pren­dre com­ment on peut réduire la com­bi­na­toire des molé­cu­les qui ne sont pas spé­ci­fi­ques, sauf qu’il y a un petit pro­blème malgré tout, c’est que tous ces méca­nis­mes ont ten­dance à dépla­cer l’expli­ca­tion de la sté­réo­spé­ci­fi­cité du niveau molé­cu­laire sur le niveau cel­lu­laire. C’est-à-dire que ces méca­nis­mes pré­sup­po­sent l’exis­tence d’une cel­lule qui est déjà struc­tu­rée, orga­ni­sée et dif­fé­ren­ciée – alors que c’est pré­ci­sé­ment ce qu’est censée expli­quer la sté­réo­spé­ci­fi­cité des inte­rac­tions molé­cu­lai­res. On inverse en fait la cause et l’effet. Par exem­ple, j’ai cité le méca­nisme le plus évident : le type cel­lu­laire. Normalement, c’est l’exis­tence de régu­la­teurs spé­ci­fi­ques qui est sup­po­sée expli­quer l’exis­tence de types cel­lu­lai­res, et non l’inverse ! Séparation tem­po­relle : on dit que c’est la dyna­mi­que d’expres­sion des gènes qui expli­que la sté­réo­spé­ci­fi­cité, et qui va réduire la com­bi­na­toire, mais nor­ma­le­ment c’est la sté­réo­spé­ci­fi­cité des inte­rac­tions qui doit expli­quer la régu­la­tion de gènes ! Pareil pour tous les méca­nis­mes : ils pré­sup­po­sent l’exis­tence de cette struc­ture déjà orga­ni­sée. Le seul méca­nisme pour lequel c’est un peu plus ambigu, c’est la com­par­ti­men­ta­tion spa­tiale : parce qu’on sait que les pro­téi­nes ont des régions qu’on appelle des « signaux d’adres­sage » qui vont les diri­ger pré­fé­ren­tiel­le­ment vers un com­par­ti­ment plutôt qu’un autre, sauf que pour diri­ger une pro­téine vers la mem­brane ou vers le noyau, ça sup­pose qu’on a déjà une struc­ture exis­tante. Donc glo­ba­le­ment, ces méca­nis­mes inver­sent la cau­sa­lité ini­tiale, c’est-à-dire en fait le fon­de­ment même de la bio­lo­gie molé­cu­laire. C’est ce que j’ai figuré ici : nor­ma­le­ment, le point de départ de la bio­lo­gie molé­cu­laire consiste à dire que ce sont les inte­rac­tions entre pro­téi­nes (qui dépen­dent de leur struc­ture, donc qui dépen­dent de l’infor­ma­tion qui est codée dans les gènes) qui expli­quent l’état macro­sco­pi­que du sys­tème (le phé­no­type). Or main­te­nant, pour expli­quer la sté­réo­spé­ci­fi­cité des inte­rac­tions, on est en train de dire que c’est l’état macro­sco­pi­que du sys­tème (c’est-à-dire l’exis­tence d’une struc­ture orga­ni­sée et dif­fé­ren­ciée) qui expli­que la sté­téos­pé­ci­fi­cité de ce qu’il se passe au niveau molé­cu­laire. Évidemment, c’est une contra­dic­tion mas­sive des fon­de­ments même de la bio­lo­gie molé­cu­laire.

On en est là aujourd’hui. Les pro­téi­nes ne sont pas spé­ci­fi­ques, et c’est une contra­dic­tion directe du prin­cipe de l’ordre par l’ordre – ou son équivalent aujourd’hui – qui est à la base du déter­mi­nisme géné­ti­que et de la bio­lo­gie molé­cu­laire. Donc qu’est-ce qu’on fait dans une situa­tion de ce type là ? C’est une situa­tion, en fait, qui n’est pas iné­dite : c’est assez fré­quent dans l’his­toire des scien­ces, où l’on arrive à un point où les don­nées expé­ri­men­ta­les qui ont été pro­dui­tes par une théo­rie vien­nent à contre­dire la théo­rie elle-même. Il y a deux pos­si­bi­li­tés : on peut consi­dé­rer que ce sont les don­nées qui sont mau­vai­ses ou insuf­fi­san­tes, et qu’il n’y a pas besoin de chan­ger la théo­rie ; il suffit donc de conti­nuer à accu­mu­ler des don­nées expé­ri­men­ta­les. Ou bien, on peut consi­dé­rer que c’est la théo­rie qui est mau­vaise, car on a suf­fi­sam­ment de don­nées, et que ça ne sert à rien de conti­nuer à accu­mu­ler tou­jours le même type de don­nées, et qu’il faut chan­ger de théo­rie. Chacun est libre, c’est le débat scien­ti­fi­que. Moi, ce que je crois, c’est qu’en quel­que sorte la coupe est pleine. Je suis peut-être le plus âgé dans la salle ; j’ai fait mes études juste après Monod-Jacob avec le para­digme de la sté­réo­spé­ci­fi­cité, et j’ai vu toute l’his­toire de la sté­réo­spé­ci­fi­cité. Au début on croyait les avoir, et main­te­nant on a ces der­niè­res don­nées. Moi je crois que ça ne sert plus à rien main­te­nant de conti­nuer à accu­mu­ler des don­nées : clai­re­ment, il y a un vice dans la théo­rie et il faut chan­ger de théo­rie. Qu’est-ce que ça veut dire, chan­ger de théo­rie ? Ça veut dire trou­ver un nou­veau cadre qui per­met­tra à la fois d’expli­quer les don­nées expé­ri­men­ta­les et puis d’aller plus loin, de pro­po­ser un nou­veau pro­gramme de recher­ches fondé sur cette nou­velle théo­rie. C’est un peu ce qui m’a amené à pro­po­ser cette nou­velle théo­rie. En quoi consiste faire un tra­vail théo­ri­que ? Ça consiste, dans un pre­mier temps, à ne pas avoir peur de tirer les consé­quen­ces, même les plus extrê­mes – même celles qui sem­blent les plus affo­lan­tes, en quel­que sorte – des faits expé­ri­men­taux, de les pous­ser les plus loin, même si l’on a l’impres­sion qu’on perd un peu de cohé­rence, parce qu’à terme, on sait que – peut-être, si l’on a de la chance – on pourra recons­truire un nou­veau cadre théo­ri­que qui sera plus cohé­rent que l’ancien, et qui per­met­tra d’inté­grer les don­nées et d’aller plus loin ; parce qu’il per­met­tra de géné­rer un pro­gramme de recher­che, c’est-à-dire d’ima­gi­ner des expé­rien­ces nou­vel­les qu’on ne serait pas amené à faire dans la cadre de l’ancienne théo­rie.

Quelles sont les consé­quen­ces qu’on peut tirer des faits expé­ri­men­taux que je vous ai indi­qués ? La pre­mière, c’est que les réseaux de pro­téi­nes ou de gènes n’exis­tent pas. J’entends des mur­mu­res, oui, je sais, sachant que 95% des appels d’offre consis­tent à deman­der la carac­té­ri­sa­tion de tels réseaux, ça peut sem­bler un peu far­felu de dire ça. Mais ce que ça signi­fie, c’est que ça [schéma], ce n’est pas un réseau intel­li­gi­ble d’inte­rac­tions – c’est un magma d’inte­rac­tions. C’est pas une car­to­gra­phie intel­li­gi­ble qui va vous donner l’expli­ca­tion, mais c’est un magma de réac­tions. Et donc, quand je dis « les réseaux de pro­téi­nes ou de gènes n’exis­tent pas », évidemment il y a dans la cel­lule des séquen­ces de réac­tions qu’on est capa­bles de décrire. Mais ces séquen­ces – c’est-à-dire ce qu’on voit à un moment donné dans une cel­lule – c’est le résul­tat des pro­ces­sus cel­lu­lai­res et non la cause ! C’est le résul­tat des pro­ces­sus cel­lu­lai­res une fois que dans le magma de réac­tions, la cel­lule a sélec­tionné – « filtré », en quel­que sorte – et n’active qu’un cer­tain nombre de réac­tions qu’elle laisse se pro­duire. Et donc effec­ti­ve­ment, on pourra tou­jours trou­ver des séquen­ces de réac­tions et tracer des cartes, mais ces cartes ne sont pas la cause des phé­no­mè­nes, mais c’est leurs consé­quen­ces. Deuxième consé­quence qu’il faut tirer : les pro­téi­nes ne sont pas spé­ci­fi­ques. Il y a des com­bi­na­toi­res poten­tiel­les immen­ses, et cela veut dire que les inte­rac­tions entre molé­cu­les sont pro­ba­bi­lis­tes. Il faut l’accep­ter, contrai­re­ment à l’idée de départ qu’il fal­lait éliminer la sto­chas­ti­cité parce que les pro­téi­nes inte­ra­gis­saient avec un seul par­te­naire ou avec un petit nombre – non, elles ont des pos­si­bi­li­tés immen­ses ! Et en fonc­tion de ce qui va être réa­lisé à un moment ou à un autre, elles vont pou­voir faire des choses dif­fé­ren­tes – et donc la nature même des phé­no­mè­nes du vivant est sto­chas­ti­que. Là, j’ai mis : « les inte­rac­tions molé­cu­lai­res sont intrin­sè­que­ment aléa­toi­res, et non pas brui­tées ». Pourquoi ? Parce que, comme je l’ai déjà dit dans l’intro­duc­tion, à l’heure actuelle il est cou­ram­ment admis que l’expres­sion des gènes est un phé­no­mène aléa­toire – mais on appelle ça du « bruit ». Alors ce qu’on entend par cela, l’expli­ca­tion qui est donnée, c’est que cer­tains fac­teurs nucléai­res trans­crip­tion­nels – on le sait – sont pré­sents en petite quan­tité dans le noyau ; et donc, à cause des fluc­tua­tions ther­mi­ques (un fac­teur de trans­crip­tion doit attein­dre par dif­fu­sion le noyau, etc.) à tout moment, dans deux cel­lu­les dif­fé­ren­tes iso­lées vous n’aurez jamais exac­te­ment le même nombre de molé­cu­les de ce fac­teur de trans­crip­tion. Donc vous aurez tou­jours des peti­tes varia­tions aléa­toi­res. Et lors­que ces varia­tions dues à la dif­fu­sion, donc à la fluc­tua­tion ther­mi­que, concer­nent des fac­teurs pré­sents en petite quan­tité, ça peut avoir des consé­quen­ces impor­tan­tes, parce que vous allez être très faci­le­ment au-dessus ou en-deçà du seuil d’action de ce fac­teur. Et donc comme ça vous allez pou­voir géné­rer des dif­fé­ren­ces de com­por­te­ment cel­lu­laire. Donc ça c’est ce que l’on appelle le bruit : c’est le fait qu’on ne peut pas moyen­ner des fluc­tua­tions ther­mi­ques sur des fac­teurs qui sont pré­sents en petite quan­tité. Mais cette manière de voir ne remet pas en cause l’idée qu’il y a une carte – qu’il y a un pro­gramme géné­ti­que – et que les molé­cu­les par ailleurs peu­vent être sté­réo­spé­ci­fi­ques, et que vous avez un réseau d’inte­rac­tions. Donc c’est sim­ple­ment des fluc­tua­tions dans la réa­li­sa­tion de ce pro­gramme. Là, ce dont je parle, c’est autre chose : je dis qu’il y a obli­ga­toi­re­ment des phé­no­mè­nes de com­pé­ti­tion, du fait que les molé­cu­les ne sont pas spé­ci­fi­ques. Et en fait on sait aussi que ces phé­no­mè­nes exis­tent, c’est-à-dire qu’on sait que sur des pro­mo­teurs il y a de nom­breux fac­teurs de trans­crip­tion qui peu­vent venir inte­ra­gir et qu’il y a des phé­no­mè­nes de com­pé­ti­tion molé­cu­laire. Et ça a été démon­tré par simu­la­tion, par une équipe de Lyon, d’ailleurs, l’équipe d’Olivier Gandrillon. On peut avoir des effets sto­chas­ti­ques très forts qui ne dépen­dent pas du fait que le fac­teur de trans­crip­tion est pré­sent en petite quan­tité, c’est un phé­no­mène dif­fé­rent. Et ça, par contre, pour les rai­sons que je vous ai expli­quées, ça touche à la nature même : ce qui est mis en cause, c’est l’idée de pro­gramme géné­ti­que, c’est-à-dire l’idée qu’on a une carte sous-jacente fixe – un espèce de sque­lette fixe d’inte­rac­tions micro­sco­pi­ques – qui expli­que ce qu’il se passe dans un être vivant. Et enfin, troi­sième consé­quence qu’on peut tirer de ces faits expé­ri­men­taux : c’est que l’onto­ge­nèse et la phy­lo­ge­nèse ne font qu’un. J’en arrive à cette idée d’onto­phy­lo­ge­nèse. En fait, si on admet – comme sem­blent le sug­gé­rer les don­nées expé­ri­men­ta­les – que la struc­ture cel­lu­laire res­treint les com­bi­na­toi­res molé­cu­lai­res, fina­le­ment on retombe aussi sur quel­que chose qu’on sait. Je veux dire, la géné­ra­tion spon­ta­née n’existe pas, il y a peut-être eu une ori­gine, on n’en sait rien, mais la seule chose à laquelle on a accès aujourd’hui, c’est quand un être vivant se déve­loppe, il part jamais d’un ADN nu – il est tou­jours pris dans une struc­ture, et on a tou­jours une struc­ture cel­lu­laire. Une cel­lule ger­mi­nale, c’est une cel­lule : il y a tou­jours une struc­ture au départ – on retombe là-dessus. Donc si l’on admet cette idée que c’est la struc­ture cel­lu­laire – comme l’indi­quent tous ces méca­nis­mes – qui permet de res­trein­dre les inte­rac­tions molé­cu­lai­res au cours de l’onto­ge­nèse, l’idée d’onto­phy­lo­ge­nèse devient qua­si­ment une déduc­tion néces­saire.

C’est ce que je vais essayer d’expli­quer main­te­nant, sur ce schéma. Ici, dans le pan­neau A, c’est la situa­tion actuelle : vous savez, à l’heure actuelle, ce qu’on appelle la « théo­rie syn­thé­ti­que de l’évolution » (le cadre géné­ral dans lequel on baigne) est le fruit de la syn­thèse entre le dar­wi­nisme et la géné­ti­que, pour aller vite. Donc dans ce cadre théo­ri­que géné­ral, on a d’un côté l’évolution qui est le résul­tat de la sélec­tion natu­relle s’exer­çant sur les phé­no­ty­pes – les struc­tu­res cel­lu­lai­res ou mul­ti­cel­lu­lai­res – et puis d’un autre côté, on a l’onto­ge­nèse qui est l’expres­sion du pro­gramme géné­ti­que contenu dans l’ADN. Or ces deux phé­no­mè­nes sont cau­sa­le­ment dis­joints : la sélec­tion natu­relle n’inter­vient pas dans l’onto­ge­nèse, la seule chose qu’elle peut faire c’est – quand elle trie et qu’elle favo­rise une struc­ture cel­lu­laire plutôt qu’une autre – trier les muta­tions asso­ciées dans l’ADN. Mais elle n’inter­vient pas direc­te­ment dans le pro­ces­sus lui-même. Maintenant dans le pan­neau B, on accepte cette idée, qu’on déduit des faits expé­ri­men­taux, que c’est la struc­ture cel­lu­laire qui trie les inte­rac­tions molé­cu­lai­res – ici on avait une flèche, la flèche clas­si­que qui va de l’ADN vers le phé­no­type. Ici, on a tou­jours la flèche mon­tante, « bottom-top », mais on est obligé de mettre aussi ici une flèche qui va dans l’autre sens : c’est-à-dire que d’un côté l’ADN fabri­que des pro­téi­nes, ces pro­téi­nes sont sou­mi­ses à des com­bi­na­toi­res molé­cu­lai­res, et cette com­bi­na­toire molé­cu­laire est triée par la struc­ture cel­lu­laire – c’est ce que repré­sen­tent ici ces deux flè­ches. Mais dans la mesure où la struc­ture cel­lu­laire est elle-même sou­mise et triée sous l’action de la sélec­tion natu­relle, le fait de rajou­ter cette petite flèche ici signi­fie qu’on réta­blit une conti­nuité cau­sale qui part de la sélec­tion natu­relle jusqu’à ce qu’il se passe au niveau molé­cu­laire pen­dant l’onto­ge­nèse. Parce qu’on est bien d’accords : vous avez par exem­ple une cel­lule qui est d’une struc­ture donnée plutôt que d’une autre, vous allez expli­quer cer­tai­nes inte­rac­tions et pas d’autres, mais le fait que cette cel­lule ait à un moment donné de son his­toire cette struc­ture et pas une autre, c’est parce qu’elle a été triée, sélec­tion­née par la sélec­tion natu­relle. Donc, de fait, ce qui déter­mine de manière ultime les inte­rac­tions qui sont triées au cours de l’onto­ge­nèse, c’est la sélec­tion natu­relle qui agit via la struc­ture cel­lu­laire. Et les phé­no­mè­nes ne sont plus dis­joints, mais c’est un seul phé­no­mène parce que vous avez une conti­nuité cau­sale.

C’est donc ce que j’ai écrit ici : l’onto­ge­nèse et la phy­lo­ge­nèse, de ce fait, ne for­ment qu’un seul pro­ces­sus – et c’est ce que j’appelle « l’onto­phy­lo­ge­nèse ». Et c’est une déduc­tion quasi-néces­saire à partir du moment où vous admet­tez que c’est la com­par­ti­men­ta­tion spa­tiale, la sépa­ra­tion tem­po­relle, etc. qui trient les inte­rac­tions molé­cu­lai­res. Donc on sort de cette ana­lyse avec un cadre théo­ri­que pour l’onto­ge­nèse qui est com­plè­te­ment cham­boulé : il n’a plus rien à voir avec le cadre de départ. Le cadre de départ, c’était les inte­rac­tions sté­réo­spé­ci­fi­ques bien pro­pres, bien nettes. Ici, vous admet­tez qu’il y a de la com­bi­na­toire, et puis – je reprends cet exem­ple – sur l’ensem­ble de la diver­sité poten­tielle, il y a un tri qui est opéré par un pro­ces­sus sélec­tif, et c’est ce qui permet de géné­rer une struc­ture. Donc on tombe dans un méca­nisme qui est à la fois concep­tuelle ana­lo­gue à la théo­rie de Darwin – parce que c’est un mélange de hasard au niveau des inte­rac­tions molé­cu­lai­res trié par une sélec­tion – mais ça va plus loin : ce n’est pas seu­le­ment ana­lo­gue à la sélec­tion natu­relle, puis­que c’est la sélec­tion natu­relle elle-même qui, in fine, est l’agent de ce pro­ces­sus – ce que j’ai expli­qué dans la diapo pré­cé­dente. C’est pour cela que j’ai intro­duit ce terme un peu bar­bare d’onto­phy­lo­ge­nèse : pour indi­quer que c’est vrai­ment un seul phé­no­mène, car là main­te­nant on n’est plus capa­ble de dis­tin­guer les deux. Les deux sont cau­sa­le­ment intri­qués, et donc on a un seul phé­no­mène et on retombe sur cette idée que je vous ai expli­quée dans l’intro­duc­tion. Et en fait on retombe sur quel­que chose qui est qua­si­ment du sens commun, si l’on consi­dère les remar­ques que j’ai faites en intro­duc­tion, à savoir qu’il y a un pro­ces­sus unique sous-jacent à l’évolution des espè­ces et à l’onto­ge­nèse : la repro­duc­tion.

Donc ça c’est une autre manière d’expli­quer, et on arrive à cette idée que le déve­lop­pe­ment n’est plus l’expres­sion d’un pro­gramme géné­ti­que, mais c’est un méca­nisme de hasard sous contrainte – le dar­wi­nisme cel­lu­laire – d’inte­rac­tions molé­cu­lai­res aléa­toi­res triées par la sélec­tion natu­relle. Pour réex­pli­quer tout cela d’une autre manière : la ques­tion qui se pose, qu’on pose sou­vent mais qui paraît assez contre-intui­tive, c’est de savoir com­ment un méca­nisme qui paraît aléa­toire peut être com­pa­ti­ble avec la très grande repro­duc­ti­bi­lité qui carac­té­rise l’embryo­ge­nèse, l’onto­ge­nèse et d’une manière géné­rale les phé­no­mè­nes du vivant. Donc je vais ren­trer dans la troi­sième partie, et petit à petit on va retour­ner à ques­tions plus pré­ci­ses et éventuellement débou­cher sur un pro­gramme de recher­ches expé­ri­men­ta­les. Pour com­pren­dre cela – un « hasard sous contrainte » – ima­gi­nez une petite bille (la partie A du schéma) sou­mise à l’agi­ta­tion brow­nienne, elle se déplace donc au hasard, et elle est libre de se dépla­cer comme elle veut. De ce fait, du fait qu’elle est libre de se dépla­cer, vous n’avez aucune pré­dic­ti­bi­lité, aucune repro­duc­ti­bi­lité autre que sta­tis­ti­que si vous le fai­siez un très grand nombre de fois, mais elle a un très grand nombre de pos­si­bi­lité à chaque fois et vous ne pouvez pas pré­dire ce qu’elle va faire. Maintenant (cas B) ima­gi­ner que vous mettez une contrainte sur son dépla­ce­ment : par cette contrainte, vous l’obli­gez à se dépla­cer entre deux parois, deux murs ici. Que va-t-il se passer ? Elle va conti­nuer à se dépla­cer au hasard, tou­jours, donc il y aura une part de hasard, mais ce hasard sera res­treint puisqu’elle ne pourra pas sortir de cet espace que vous avez déli­mité. Donc on se trouve dans une situa­tion en quel­que sorte inter­mé­diaire : vous avez res­treint ses pos­si­bi­li­tés de dépla­ce­ment aléa­toire, il y a donc une forme de pré­dic­ti­bi­lité, mais ça reste encore très flou. Maintenant (cas C) ima­gi­nez que vous conti­nuez à rap­pro­cher les contrain­tes jusqu’au point où entre les deux parois il y a qua­si­ment que l’espace cor­res­pon­dant au dia­mè­tre de la bille. Que va-t-il se passer ? La bille conti­nue de se dépla­cer au hasard, mais elle va faire une marche aléa­toire dans un espace à une dimen­sion, c’est-à-dire selon une ligne droite. Et donc, bien que intrin­sè­que­ment, elle se com­porte de manière aléa­toire, à chaque fois que vous allez lâcher la bille ici, elle va tracer un seg­ment de droite. Elle ne le tra­cera pas exac­te­ment de la même manière, parce qu’elle est tou­jours sou­mise à une marche aléa­toire, mais elle tra­cera une droite parce qu’elle est contrainte par les deux murs. L’idée, c’est qu’à l’heure actuelle on est dans la même situa­tion : la struc­ture cel­lu­laire qu’on connaît aujourd’hui, c’est le résul­tat de toute l’his­toire de la vie. Tous les êtres vivants qui exis­tent aujourd’hui, c’est des êtres qui ont sur­vécu depuis que la vie est appa­rue à tra­vers ce cycle inin­ter­rompu de mul­ti­pli­ca­tions. Et donc ils ont emma­ga­siné leur struc­ture. Pour sur­vi­vre, ils ont obli­ga­toi­re­ment emma­ga­siné dans leur struc­ture toutes les contrain­tes suc­ces­si­ves de tous les envi­ron­ne­ments aux­quels ils ont été confron­tés. Et donc, que cette struc­ture là est hau­te­ment contrai­gnante, de manière ana­lo­gue ici à ces deux murs (le cas C) de telle sorte qu’à chaque fois que vous avez une onto­ge­nèse, c’est la même chose qui se repro­duit. En même temps, cette struc­ture réduit le hasard, mais ne l’élimine pas com­plè­te­ment. Ici, cette idée c’est que vous allez tracer une droite, mais à chaque fois de manière com­plè­te­ment dif­fé­rente. Donc ça ne le réduit pas com­plè­te­ment : cette marge de hasard est utile à l’orga­nisme (et elle est contrô­lée) car c’est ce qui lui sert à créer de la diver­sité, c’est ce qui permet d’expli­quer pour­quoi les sys­tè­mes vivants sont hau­te­ment plas­ti­ques et com­ment ils peu­vent créer des lignées cel­lu­lai­res dif­fé­ren­tes, s’adap­ter à tous types de situa­tion aux­quels ils sont confron­tés, etc. Au cours de la dif­fé­ren­cia­tion cel­lu­laire, il lui reste une marge d’aléa­toire qui va lui per­met­tre de créer quel­ques types cel­lu­lai­res dif­fé­rents, mais que glo­ba­le­ment la struc­ture qui est celle de la cel­lule ger­mi­nale – puisqu’on part tou­jours d’une cel­lule – qui est le résul­tat de toute l’his­toire de la vie, par sa struc­ture elle contraint le phé­no­mène de telle manière qu’il soit repro­duc­ti­ble.

Donc si on reprend le schéma ici, je vais aller vite, la rela­tion entre géno­type et phé­no­type n’est plus une rela­tion uni­di­rec­tion­nelle qui va du géno­type au phé­no­type ; mais c’est une rela­tion bidi­rec­tion­nelle, car la contrainte sélec­tive issue du phé­no­type trie les événements molé­cu­lai­res qui sont soumis à la varia­bi­lité. Dans ce schéma il n’y a pas d’ori­gine unique du pro­ces­sus car il repose sur un méca­nisme dual. C’est impor­tant, je pense, pour les phi­lo­so­phes de la bio­lo­gie notam­ment. La bio­lo­gie oscille, dans son his­toire, entre le holisme et le réduc­tion­nisme. Et le holisme et le réduc­tion­nisme sont deux maniè­res de voir qui assi­gnent une ori­gine, ce sont des théo­ries de l’ori­gine. Dans un cas, l’ori­gine est la molé­cule, dans l’autre cas c’est le tour. Il y a tou­jours une ori­gine, soit c’est l’ordre par le haut, soit l’ordre par le bas. Là, c’est ni l’un ni l’autre : c’est plutôt le fac­teur temps qu’il faut intro­duire. Il faut voir que c’est la flèche du temps qui est intro­duite et, à tous moments il y a des contrain­tes venant du haut et du bas qui inter­vien­nent et qui se résu­ment dans l’orga­nisme qui existe à un moment donné. Dans ce pro­ces­sus, il n’y a pas d’ori­gine onto­lo­gi­que. Cela veut dire que c’est une des­crip­tion de l’état actuel, de ce qu’on voit, de ce à quoi on a accès, et on botte en touche pour ce qui est de la ques­tion de l’ori­gine – y com­pris pour la ques­tion de l’ori­gine de la vie. On admet aujourd’hui que tout pro­ces­sus d’onto­ge­nèse part d’une cel­lule – c’est ce à quoi on a accès, peut-être qu’un jour on en saura plus, mais aujourd’hui on le prend comme point de départ, et c’est ce qu’on va décrire et expli­quer. Donc on peut dire que c’est un chan­ge­ment d’onto­lo­gie, aussi.

Troisième partie

Je vais main­te­nant abor­der la der­nière partie : main­te­nant qu’on a défini un nou­veau cadre théo­ri­que, com­ment va-t-on va reve­nir vers quel­que chose de plus expé­ri­men­tal ? La ques­tion qui est posée dans un pre­mier temps est : com­ment peut-on reve­nir vers l’expli­ca­tion d’un phé­no­mène plus concret (la dif­fé­ren­cia­tion cel­lu­laire) ? Puis ensuite : com­ment est-ce qu’on peut l’abor­der de manière expé­ri­men­tale.

Donc clas­si­que­ment la dif­fé­ren­cia­tion cel­lu­laire est vue comme un méca­nisme ins­truc­tif : les cel­lu­les échangent des signaux, et selon les signaux qu’elles reçoi­vent, elles se dif­fé­ren­cient selon des voies de dif­fé­ren­cia­tion. Or, dans le cadre d’un modèle dar­wi­nien, on arrive à un modèle tota­le­ment dif­fé­rent : du fait que les molé­cu­les ne sont pas spé­ci­fi­ques et qu’il y a des pos­si­bi­li­tés com­bi­na­toi­res (notam­ment au niveau de l’expres­sion des gènes à cause de ces phé­no­mè­nes de com­pé­ti­tion) les cel­lu­les peu­vent s’orien­ter spon­ta­né­ment en fonc­tion des pro­ba­bi­li­tés asso­ciées à ces événements (donc de fré­quence dans des popu­la­tions de cel­lu­les), c’est-à-dire qu’elles vont s’orien­ter selon des choix de ligna­ges dif­fé­ren­tes sans avoir plus besoin de signaux. Ainsi, selon l’événement aléa­toire a ou b, elles vont s’orien­ter vers un type cel­lu­laire A ou B. Donc : hasard au niveau molé­cu­laire. Et l’idée que c’est la struc­ture cel­lu­laire (donc le tout) qui contraint : se gref­fent là-dessus les inte­rac­tions cel­lu­lai­res qui sont sélec­ti­ves ou sta­bi­li­sa­tri­ces ; ce sont elles qui vont figer des com­bi­nai­sons de phé­no­ty­pes donnés. Donc dans ce modèle : expres­sion aléa­toire des gènes, enga­ge­ment aléa­toire dans des ligna­ges cel­lu­lai­res, et ensuite les types cel­lu­lai­res inte­ra­gis­sent entre eux avec sta­bi­li­sa­tion réci­pro­que des phé­no­ty­pes. Donc dans ce modèle on ne nie pas le fait que les cel­lu­les inte­ra­gis­sent au cours du déve­lop­pe­ment, sim­ple­ment on ne leur assi­gne plus le rôle d’induc­teur de la dif­fé­ren­cia­tion, mais de sta­bi­li­sa­teur au contraire – sta­bi­li­sa­teur de situa­tion, de confi­gu­ra­tion qui ont été géné­rées de manière aléa­toire.

Rapidement, donc : aujourd’hui, quel­les pré­dic­tions on peut faire à partir d’un modèle comme ça ? D’abord, j’ai pu dire que l’expres­sion aléa­toire des gènes était démon­trée : ce modèle, je l’ai pro­posé la pre­mière fois en 1981, et à l’époque ça ne l’était pas du tout, donc je peux me per­met­tre encore de dire (en tout cas dans mon cas) que c’était une pré­dic­tion du modèle qui a été véri­fiée, pour des rai­sons his­to­ri­ques. Évidemment, expres­sion aléa­toire des gènes ; sto­chas­ti­cité dans la dif­fé­ren­cia­tion de la cel­lule ; et puis, les molé­cu­les ne sont pas spé­ci­fi­ques : pour qu’il puisse y avoir de l’aléa­toire, il faut que les molé­cu­les ne soient pas spé­ci­fi­ques – je l’ai expli­qué. Je vou­drais juste dire deux mots sur l’expres­sion sto­chas­ti­que des gènes et sur la varia­bi­lité cel­lu­laire, parce que ce sont des don­nées qui font aujourd’hui l’objet de plus en plus fré­quem­ment de revues, mais ce n’est pas encore quel­que chose qui est rentré dans la connais­sance cou­rante, ou mas­sive. Donc aujourd’hui, le fait que l’expres­sion des gènes est aléa­toire, c’est démon­tré. Pourquoi est-ce démon­tré ? Parce que depuis le début des années 1990, on a des tech­ni­ques qui per­met­tent de dis­cri­mi­ner ce qu’il se passe dans des cel­lu­les uni­ques, alors qu’avant, quand on vou­lait étudier l’expres­sion des gènes, on était obligé de tra­vailler sur des popu­la­tions de cel­lu­les, on extra­yait l’ARN par exem­ple de mil­lions de cel­lu­les. Et donc quand on regar­dait l’ARN d’une popu­la­tion de cel­lu­les, on ne regar­dait pas les cel­lu­les une par une, mais on fai­sait la moyenne d’un grand nombre de cel­lu­les. Maintenant par des métho­des in situ notam­ment, en uti­li­sant des mar­queurs fluo­res­cents, on peut visua­li­ser ce qui se passe dans les cel­lu­les une par une. Et depuis qu’on a ces tech­ni­ques, on sait qu’à un moment donné, dans des popu­la­tions de cel­lu­les iso­gé­ni­que pla­cées dans les mêmes condi­tions, on a tou­jours des varia­bi­li­tés de cel­lule à cel­lule. Voilà pour l’expres­sion des gènes – ces diapos sont déjà datées, ce n’est pas exhaus­tif mais je ne vais pas ren­trer dans le détail, voyez une biblio­gra­phie, il y a dif­fé­ren­tes revues qui ont été publiées récem­ment. Ça va assez loin, la varia­bi­lité trans­crip­tion­nelle, quand même : dès les années 1990 on avait des argu­ments expé­ri­men­taux très forts pour l’expres­sion sto­chas­ti­que des gènes. C’était par exem­ple le cas de l’expres­sion hétéro-allé­li­ques : il y avait ainsi des don­nées obte­nues des tech­ni­ques d’hybri­da­tion in situ où l’on visua­lise non seu­le­ment ce qu’il se passe dans des cel­lu­les dif­fé­ren­tes, mais dans les deux chro­mo­so­mes cor­res­pon­dants, et on peut regar­der ce qu’il se passe sur un chro­mo­some donné ce qui se passe, et sur l’autre allèle sur l’autre chro­mo­some. Et on avait alors montré que dans dif­fé­rents locus multi-allé­li­ques, il y a tou­jours une frac­tion de cel­lu­les où ce n’est pas les mêmes allè­les qui s’expri­ment à un moment donné dans la même cel­lule. Ça vou­lait dire clai­re­ment que ce n’était pas l’envi­ron­ne­ment en fac­teur de trans­crip­tion qui déter­mi­nait son état trans­crip­tion­nel, et déjà dans ces papiers les auteurs disaient dans les dis­cus­sions qu’ils ne voyaient pas com­ment faire autre­ment que d’admet­tre qu’il y avait une com­po­sante sto­chas­ti­que dans l’expres­sion des gènes.

Et en ce qui concerne la varia­bi­lité cel­lu­laire, c’est encore plus ancien. C’est toute une lit­té­ra­ture qui existe depuis très long­temps, mais du fait de l’hégé­mo­nie de la théo­rie du pro­gramme géné­ti­que, elle a été mise de côté. Dans les cas où l’on avait des mar­queurs de dif­fé­ren­cia­tion cel­lu­laire et qu’on pou­vait regar­der malgré tout cel­lule par cel­lule, dans des clones, dans dif­fé­rents modè­les, dès 1964 avec les tra­vaux de Jim Till, on pou­vait regar­der la ciné­ti­que de dif­fé­ren­cia­tion de cel­lu­les, avec un mar­queur, dans une popu­la­tion de cel­lu­les, nor­ma­le­ment vous faites votre ciné­ti­que, vous regar­der com­bien de cel­lu­les vous avez à dif­fé­rents temps – je sim­pli­fie la logi­que de ce type d’expé­ri­men­ta­tion – vous faites des pré­dic­tions dif­fé­ren­tes selon que vous dites que vous avez un modèle déter­mi­niste ou sto­chas­ti­que. Dans un modèle sto­chas­ti­que, vous allez admet­tre que chaque cel­lule, à chaque mitose ou par unité de temps, elle a une cer­taine pro­ba­bi­lité de se dif­fé­ren­cier, vous allez avoir une courbe expo­nen­tielle. Alors que si c’est un modèle déter­mi­niste, à un moment donné vous allez avoir une marche d’esca­lier, idéa­le­ment, plus ou moins avec du bruit.Et donc on est capa­ble mathé­ma­ti­que­ment d’ana­ly­ser ces cour­bes et de voir si c’est plutôt sto­chas­ti­que ou s’il y a sous-jacent un déter­mi­nisme. Et dès 1964 il y avait des gens qui avaient ana­lysé des situa­tions de ce type-là et ça s’est accu­mulé : ils disaient par exem­ple que la dif­fé­ren­cia­tion de la lignée héma­to­poïé­ti­que (ou d’autres) s’expli­que mieux par un modèle sto­chas­ti­que où l’on admet qu’il y a un événement sto­chas­ti­que à chaque mitose ou par unité de temps, etc. qui expli­que l’enga­ge­ment de la cel­lule selon des voies.

Alors qu’est-ce qu’on peut faire expé­ri­men­ta­le­ment ? Je conclu­rai là. Il y a deux types de choses qu’on peut faire. Premier type d’expé­ri­men­ta­tion : si vous avez un modèle qui dit que la dif­fé­ren­cia­tion cel­lu­laire est basée sur l’expres­sion sto­chas­ti­que des gènes, clai­re­ment il faut étudier l’expres­sion sto­chas­ti­que des gènes. C’est un tra­vail que je fais en col­la­bo­ra­tion, je par­ti­cipe à ce pro­gramme avec Olivier Gandrillon qui est à Lyon avec l’Université Claude Bernard. Il faut faire une ana­lyse quan­ti­ta­tive : soit on dit que les varia­tions de l’expres­sion des gènes sont un phé­no­mène acci­den­tel qui n’a pas de signi­fi­ca­tion bio­lo­gi­que ; soit on dit que ça a une signi­fi­ca­tion bio­lo­gi­que, et dans ce cas là ça devient un para­mè­tre phy­sio­lo­gi­que à part entière. Or ce qui carac­té­rise un para­mè­tre phy­sio­lo­gi­que, c’est que vous devez être capa­ble de le quan­ti­fier, d’étudier ses modi­fi­ca­tions quan­ti­ta­ti­ves au cours d’un phé­no­mène phy­sio­lo­gi­que et de cor­ré­ler ces varia­tions avec le phé­no­mène que vous étudiez, et que la cor­ré­la­tion éclaire le phé­no­mène – c’est cela, un para­mè­tre phy­sio­lo­gi­que. Donc clai­re­ment, c’est cela qu’il faut faire : ana­ly­ser quan­ti­ta­ti­ve­ment. Qu’est-ce que ça veut dire ? Vous prenez un gène donné, par exem­ple, ainsi qu’une popu­la­tion de cel­lu­les, quan­ti­fier son niveau d’expres­sion consiste à voir sa variance, avoir un coef­fi­cient de varia­tion, de son niveau d’expres­sion dans la popu­la­tion – c’est un exem­ple de quan­ti­fi­ca­tion. Je donne là un exem­ple pour expli­quer la logi­que du pro­gramme de recher­che : si vous dites que c’est du bruit, que c’est acci­den­tel, la varia­bi­lité d’expres­sion des gènes, ça doit être plat – vous avez une cel­lule qui se dif­fé­ren­cie, c’est indé­pen­dant de la phy­sio­lo­gie, c’est un phé­no­mène mar­gi­nal, et donc ça n’a aucune raison de varier. Par contre si vous dites que vous avez affaire à un phé­no­mène, par exem­ple, sélec­tif, c’est autre chose. Qu’est-ce qu’un phé­no­mène sélec­tif ? Vous partez d’une situa­tion où vous avez une grande varia­bi­lité, une grande diver­sité, et vous sélec­tion­nez et ampli­fiez un pat­tern d’expres­sion, un profil d’expres­sion. Alors vous faites une pré­dic­tion qui est aujourd’hui tes­ta­ble expé­ri­men­ta­le­ment : vous devez avoir une réduc­tion de la varia­bi­lité de l’expres­sion des gènes. C’est ce que j’ai figuré ici : si vous partez d’une situa­tion où les cel­lu­les, les pas­tilles de cou­leur, ces dif­fé­rents pat­terns d’expres­sion – c’est l’expres­sion aléa­toire – eh bien dans cet aléa, ce magma aléa­toire qu’est la dif­fé­ren­cia­tion cel­lu­laire, il y a un phé­no­mène sélec­tif qui va ampli­fier et sta­bi­li­ser les rouges et les noirs. Ça va réduire votre varia­bi­lité parce que dans votre popu­la­tion, si vous faites une ciné­ti­que, au départ vous avez une grande varia­bi­lité – des jaunes, des gris, des bleus, etc. – alors qu’à la fin vous n’avez que du rouge et du noir – vous avez réduit, et vous pouvez donc faire des pré­dic­tion. La pré­dic­tion, c’est donc que, si la base de la phy­sio­lo­gie cel­lu­laire est la sto­chas­ti­cité, alors la sto­chas­ti­cité doit deve­nir un para­mè­tre que vous devez quan­ti­fier. La quan­ti­fi­ca­tion doit vous per­met­tre d’établir des cor­ré­la­tions avec les phé­no­mè­nes bio­lo­gi­ques – c’est le prin­cipe géné­ral et c’est ce qu’on est actuel­le­ment en train d’essayer de faire.

Le deuxième type d’expé­ri­men­ta­tion, c’est qu’on peut faire de la simu­la­tion – c’est ce que j’ai fait avec un phy­si­cien de l’Université Pierre et Marie Curie – au moins dans le prin­cipe. On a publié cela il y a déjà cinq ans. La grande ques­tion est : « est-ce qu’on peut créer de l’ordre et quel­que chose qui res­sem­ble à des tissus ? ». Je ne vais pas ren­trer dans le détail, mais on peut faci­le­ment créer des modè­les infor­ma­ti­ques qui vont simu­ler le pro­ces­sus de hasard sélec­tif : on va créer des cel­lu­les vir­tuel­les et on va les faire fabri­quer des molé­cu­les, inte­ra­gir, et se com­por­ter selon des règles de hasard-sélec­tion – le modèle dar­wi­nien de dif­fé­ren­cia­tion. Il y a pas mal de para­mè­tres. On peut mon­trer qu’on peut créer des struc­tu­res repro­duc­ti­bles, ici dans notre cas c’étaient des bicou­ches cel­lu­lai­res. C’était un modèle rudi­men­taire, mais on a com­mencé par le cas le plus simple d’une dif­fé­ren­cia­tion rouge-vert. On part d’un petit nombre de cel­lu­les rouges et vertes qui ont un com­por­te­ment aléa­toire, elles sont sou­mi­ses à des règles de hasard-sélec­tion, et on laisse cette popu­la­tion se déve­lop­per. Et on peut mon­trer qu’effec­ti­ve­ment le modèle de hasard-sélec­tion en tant que modèle est capa­ble de géné­rer des struc­tu­res qui res­sem­blent à des struc­tu­res cel­lu­lai­res orga­ni­sées. Donc par rap­port à la ques­tion, ça ne prouve pas for­cé­ment que dans la nature, c’est comme cela, mais ça prouve que ça peut être comme ça, c’est-à-dire que c’est de toute façon un cadre théo­ri­que qui permet d’abor­der la ques­tion.

* Kupiec Jean-Jacques, « The exten­sion of Darwinian prin­ci­ples to embryo­ge­ne­sis », Specul. Sci. Technol., Vol. 9(1) : 19-22, 1986.

* Kupiec Jean-Jacques, « A pro­ba­bi­list theory for cell dif­fe­ren­tia­tion, embryo­nic mor­ta­lity and DNA C-value para­dox », Specul Sci Technol, 1983 ;6:471-478.

* Kupiec Jean-Jacques, « A chance-selec­tion model for cell dif­fe­ren­tia­tion », Cell Death and Differentiation, Vol.3 pp. 385-390, 1996.

* Kupiec Jean-Jacques, « Gene regu­la­tion and dna c-value para­dox : a model based on dif­fu­sion of regu­la­tory mole­cu­les », in Med. Hypotheses, vol. 28 (1), pp. 7-10, 1989

* Kupiec Jean-Jacques, Sonigo Pierre, Ni Dieu ni gène, pour une autre théo­rie de l’héré­dité, Paris, Seuil, coll. Science ouverte, 2000.

* Kupiec Jean-Jacques, « L’expres­sion aléa­toire des gènes », Pour la Science, 342, Avril 2006.

* Kupiec Jean-Jacques, L’Origine des indi­vi­dus, Le Temps des Sciences, Paris, Fayard, 2008. Trad. angl. The Origin of Individuals, World Scientific, 2009.

* Kupiec Jean-Jacques, Olivier Gandrillon, Michel Morange, Marc Silberstein (sous la direc­tion de), Le hasard au cœur de la cel­lule. Probabilités, déter­mi­nisme, géné­ti­que, Paris, Syllepse, 2009.