Le hasard et la nécessité : Différence entre versions
(Page créée avec « « Avec la généralisation de la thermodynamique, on arrive à comprendre que la vie est la règle dans certaines conditions et que le dualisme de la nécessité et du h... ») |
m (Sysop a déplacé la page Hasard et la necessité vers Le hasard et la nécessité sans laisser de redirection) |
(Aucune différence)
|
Version du 21 août 2017 à 16:22
« Avec la généralisation de la thermodynamique, on arrive à comprendre que la vie est la règle dans certaines conditions et que le dualisme de la nécessité et du hasard est dépassé. » (Ilya Prigogine)
La vie est caractérisée par l'ordre : le métabolisme des cellules nécessite la coordination de milliers de réactions chimiques, c'est l'ordre fonctionnel ; le code génétique détermine un arrangement des molécules qui permet, par exemple, la spécialisation des enzymes, c'est l'ordre architectural.
Le second principe de la thermodynamique affirme que l'état d'évolution le plus probable de tout système isolé est l'état d'équilibre désordonné (d'entropie maximale). Il semblait donc y avoir, jusqu'à présent, incompatibilité entre ce principe et l'apparition de la vie ordonnée.
Les chercheurs de l'école de Bruxelles, dont le chef de file est llya Prigogine, renversant le mouvement, ont détruit cette incompatibilité. Selon Prigogine, les structures biologiques sont des états spécifiques de non-équilibre ; elles exigent une dissipation constante d'énergie et de matière, d'où leur nom de structures dissipatives.
« C'est, écrit Prigogine, par une succession d'instabilités que la vie est apparue. C'est la nécessité, c'est-à-dire la constitution physicochimique du système et les contraintes que le milieu lui impose, qui détermine le seuil d'instabilité du système. Et c'est le hasard qui décide quelle fluctuation sera amplifiée après que le système a atteint ce seuil et vers quelle structure, quel type de fonctionnement il se dirige parmi tous ceux que rendent possibles les contraintes imposées par le milieu. » Pour llya Prigogine, le rôle du hasard dans l'apparition de la vie est donc très restreint : il se réduit à un choix entre diverses possibilités alors que, pour Jacques Monod, le choix est purement aléatoire.
Bien entendu, la théorie qualitative des structures de non-équilibre est encore dans ses premières étapes, et nous devons nous attendre à de nombreux développements dans les années futures. Il est dès à présent remarquable de constater que la vie comprend à la fois des structures régulières (du type de celles que présente le rythme cardiaque) et des structures chaotiques (du type des processus neurologiques, dont le cerveau est le siège). Il semble raisonnable, devant la généralité de ces processus, de penser que des systèmes présentant des dynamiques reliées à des attracteurs étranges ont pu jouer aussi un rôle dans la genèse des phénomènes vivants. On sait que la structure d'un flocon de neige retient la trace de certaines caractéristiques des conditions sous lesquelles s'est déroulé le processus de solidification, en particulier la trace de la distance à l'équilibre. De même, l'observation de biopolymères peut révéler quelles conditions de non-équilibre présidaient aux processus qui ont permis leur formation. Il s'agit là d'un programme dans lequel le groupe de Bruxelles est très actif.
Peu à peu se modifie la compréhension que nous avons du statut du second principe de la thermodynamique. Dans les systèmes isolés, ce principe était attaché à l'idée de dégradation ; pour les systèmes vivants, ce principe rend au contraire possible des processus d'autostructuration. Cette métamorphose du second principe a-t-elle des prolongements ? Lorsque nous considérons l'Univers dans son ensemble, nous devons à la fois considérer l'entropie et la gravitation. Or les liens connus entre thermodynamique et gravitation restent fort ténus, malgré les succès partiels de certaines théories dans le cadre de l'hypothèse des trous noirs.
L'Univers pris comme un Tout est-il promis à une évolution cyclique où est-il appelé à connaître une dégradation irréversible ? Faut-il choisir entre Univers cyclique et Univers entropique ? C'est bien l'alternative à quoi aboutissent la plupart des exposés actuels. Ne peut-on pas penser qu'une synthèse plus approfondie des acquis de la relativité et de la gravitation exprimera à l'échelle cosmologique ce qui est l'essentiel du second principe, à quelque niveau qu'il s'applique : que l'évolution d'un système dynamique n'est pas donnée ?
Sommaire
==
Du sens de hasard et de nécessité
Ilya PRIGOGINE & Isabelle STENGERS
Il est difficile d'assigner une origine à la question du hasard et de la nécessité, cette question où le passé et le futur s'enchevêtrent sur les modes du « pourquoi » et du « quand ». Il existe, dans les plus anciennes civilisations, des témoignages de la préoccupation des hommes quant à la signification des événements qui affectent les vies individuelles, l'ordre social, les rythmes de la nature Ces événements sont-ils la traduction d'une intention ou d'une volonté divine, ou le résultat d'un enchaînement universel de causes et d'effets ? Peuvent-ils être prévus (construction de calendriers, astrologie) ? ou influencés par les hommes (sacrifices, prières) ? Doivent-ils être acceptés comme la traduction de l'arbitraire douloureux de l'existence, arbitraire auquel seul peut répondre l'accession à la sagesse ou le détachement mystique ?
Même si certaines des pratiques qui autrefois leur correspondaient sont aujourd'hui déclarées irrationnelles, aucune de ces interrogations n'est, en tant que telle, véritablement « périmée ». Bien au contraire, ces questions se sont multipliées à mesure que se propageaient les champs de nos pratiques et de nos savoirs.
Nécessité, hasard, contingence, arbitraire, causalité, accident, déterminisme, intelligibilité, liberté, prévisibilité : ces différents termes entretiennent des relations multiples, qui correspondent chacun à des contextes pragmatiques différents Ainsi, le « hasard » au sens de contingence, de croisement entre deux chaînes causales indépendantes, est parfaitement compatible avec la vision d'un Univers déterministe. De même, lorsqu'il est question de l'existence humaine, à l'enchaînement causal ne s'oppose pas l'arbitraire mais les thèmes de la liberté et de la responsabilité. Enfin, hasard et prévisibilité ne s'entre-excluent pas. Si le dé est l'instrument du jeu de hasard, c'est parce que l'on peut prévoir que, en moyenne et sur une série longue de coups, ce dé tombera autant de fois sur chacune de ses six faces.
Depuis que les sciences modernes existent, elles ont été traversées par la question du hasard et de la nécessité. Il est tout à fait légitime d'affirmer que cette question ne joue pas, dans les sciences, un rôle intrinsèquement différent de celui qu'elle occupe dans les autres savoirs et pratiques humaines. En effet, chaque science se définit par une pragmatique singulière qui distribue et articule intelligibilité, régularité, contingence et événement. Corrélativement, l'histoire des sciences relate la chronologie d'inventions sans cesse plus subtiles de ces distributions et de ces articulations. Pourtant, les sciences modernes racontent également une autre histoire : celle qui les lie étroitement à la question « métaphysique » du hasard et de la nécessité. Cette histoire traduit un fait historique : les sciences modernes, et d'abord la physique, ont exprimé dans certaines de leurs controverses, de leurs interprétations théoriques et de leurs extrapolations les exigences d'une recherche d'intelligibilité de type philosophique, c'est-à-dire des exigences qui ne peuvent se satisfaire de mises en situation jugées seulement pragmatiques. Une problématique de valeur s'introduit alors au cœur des sciences. Afin de discuter de « hasard » et de « nécessité », il faut accepter ce fait culturel et historique qui confère à l'effort scientifique le sens d'une quête d'intelligibilité. La question est alors de savoir dans quelle mesure l'identification de cette intelligibilité au déterminisme définit une science historiquement datable, ou, comme le mathématicien René Thom le soutient, caractérise l'essence même de la science (K. Pomian, 1990).
Retour aux origines
Ilya PRIGOGINE
« Je ne forge pas d'hypothèses », a répondu Newton à ceux qui lui demandaient comment une force pouvait agir à distance. Cette phrase n'annonce pas vraiment la conception d'une science purement positive, mais elle exprime plutôt le constat que le monde, au sens de Newton, ne constitue pas un système déterministe, régi par des lois. Pour lui, il est possible de mesurer les effets observables des forces, mais ces dernières expriment l'intervention actuelle de Dieu dans le monde et sont soumises non à une quelconque raison accessible à l'intelligence humaine, mais à sa volonté d'auteur.
Dès l'origine de la physique moderne, deux conceptions de la nécessité se sont heurtées, c'est-à-dire deux conceptions de ce que peuvent la raison humaine et la mathématisation des phénomènes observables. Elles sont encore présentes dans la physique d'aujourd'hui. En termes contemporains, pour Newton, les mathématiques peuvent seulement viser à simuler les phénomènes, ou, en termes traditionnels, à les « sauver », à en reconstituer une description exacte mais non à en découvrir les raisons, qui renvoient à la seule nécessité des volontés divines. Pour Leibniz, au contraire, la volonté divine, si elle ne doit pas être celle d'un être despotique, et donc imparfait, se conforme au principe de raison : rien n'arrive sans qu'il y ait une raison suffisante pour laquelle ce soit ainsi plutôt qu'autrement.
L'existence de ce monde, parmi tous les mondes possibles, renvoie à Dieu, mais ce qui y arrive est soumis à une nécessité immanente que la mécanique galiléenne a pu expliciter lorsqu'elle a soumis la description de la chute des corps au principe de causalité.
Dans ce cas, en effet, les phénomènes se sont laissé décrire, comprendre et mesurer à partir du principe d'égalité entre la cause pleine et l'effet entier. Ce qui signifie, corrélativement, que le principe de causalité, mis en œuvre par Galilée (Michel Serres dir., 1989) et explicité par Huygens (qui a montré que 1'« effet » d'une chute sur une dénivellation donnée était mesurée par le carré de la vitesse acquise lors de cette chute) est la garantie que la description galiléenne est rationnelle au sens fort du terme, c'est-à-dire que les causes et les effets sont rationnellement identifiés.
La conception leibnizienne affirme tout à la fois un déterminisme universel, et le caractère rare, exceptionnel, des cas où la raison humaine peut avoir un accès opérationnel à ce déterminisme. Soit l'âne de Buridan, affamé, confronté à deux prés exactement équivalents. Pour nous, son choix (c'est-à-dire le pré vers lequel il se dirigera) est imprévisible, et peut être décrit comme spontané ou arbitraire. Seul Dieu, qui sait la manière dont l'Univers tout entier « conspire » dans ce choix, sait comment il traduit le principe de raison. Pour Leibniz, la mécanique, déterministe, est un cas et non un modèle, elle correspond à la situation où l'on peut oublier comment l'Univers conspire dans chaque cause et dans chaque effet. Ce dont nos mots, nos mesures, nos raisonnements nous rendent capables est fonction des cas. Le déterminisme n'est pas un mot d'ordre : le seul qui soit autorisé par la « conception leibnizienne » est le calculemus, c'est-à-dire « cherchons à rendre raison » ; cherchons, dans chaque cas, à expliciter de la manière la plus distincte les raisons de pourquoi ceci plutôt qu'autre chose.
Et pourtant la physique, héritière aussi bien de Newton, qui ne reconnaissait d'autre nécessité que la volonté actuelle de Dieu, que de Leibniz, qui avait voulu délier la nécessité rationnelle de tout mot d'ordre, redéfinira le sens de cet héritage.
De Laplace à Monod
Le « démon de Laplace », figure emblématique du déterminisme physique, apparaît aux premières pages de l'Essai philosophique sur les probabilités (1814). Tout au long de son essai, Laplace traitera d'un monde incertain, à propos duquel les jugements sont indécis, et le démon qu'il introduit a pour fonction d'interpréter la différence entre ce monde, qui est celui des pratiques quotidiennes, et le monde régulier que décrivent l'astronomie et la mécanique.
Le démon de Laplace ne doit pas être confondu avec le Dieu leibnizien car il est conçu à la ressemblance de l'astronome ou du mécanicien, et en constitue la figure asymptotique : il est celui qui peut prévoir la totalité de l'Univers, comme l'astronome peut prédire le comportement passé et futur du Système solaire, et ce à partir du même type de lois. En d'autres termes, le démon de Laplace et la science qu'il représente ne prétendent en rien guider la manière dont on construit la description des phénomènes auxquels on a affaire, mais bien à instituer un ordre des sciences : la différence entre les sciences ne tient pas à des différences qui caractériseraient intrinsèquement le monde, mais à l'imperfection humaine. La conception déterministe du monde met l'astronome et le mécanicien en position de juger tout à la fois le monde et les autres savoirs.
Le démon de Laplace peut tout prévoir, mais c'est seulement dans le champ de l'astronomie et de la mécanique, ces sciences sur le modèle desquelles il a été conçu, que ses prévisions ont un sens. Car le démon ne « comprend » pas l'Univers qu'il juge, ou plutôt ne le conçoit que comme une immense tautologie, une succession éternelle et nécessaire d'états équivalents engendrant des états équivalents.
Quelque vingt ans après la mort de Laplace (1827), le principe universel de conservation de l'énergie pourra, aux yeux des héritiers de Laplace, sembler affirmer de manière effective une conséquence directe de la vision mécaniciste du monde. Les différences qualitatives entre énergies ne sont plus alors que des apparences et leur conservation atteste du fait que leur vérité est mécanique, soumise au principe galiléo-leibnizien d'équivalence entre la cause pleine et l'effet entier. Le fonctionnement du vivant est soumis, comme tous les phénomènes, à un bilan, indifférent comme le démon, à la différence entre un humain qui croit et apprend et un cadavre qui se décompose.
Comment, dans le monde nécessaire mais insensé du démon de Laplace, concevoir que certaines coalitions de particules en soient venues à constituer des êtres pensants ? On peut dire que, un siècle et demi plus tard, Jacques Monod a répondu à cette interrogation.
Si les seules véritables raisons du monde se rapportent à la physique (celle du démon de Laplace ou de ses héritiers plus modernes), tout autre objet de savoir doit renvoyer à l'arbitraire, porter en lui-même, dans sa définition rationnelle, l'aveu de ce que, du point de vue d'une connaissance parfaite, il serait dénué de sens. En d'autres termes, au déterminisme universel répond, en ce qui concerne l'ensemble des questions qui nous intéressent, et notamment celle de ce qu'est un vivant, le règne de l'arbitraire et de la contingence.
Dans Le Hasard et la Nécessité (1970), Jacques Monod affirme la compatibilité de l'existence du vivant, des raisons de son organisation, avec les lois de la physique : le démon, armé de ces seules lois, ne verrait rien, au lieu où se situe un vivant, qui puisse l'inquiéter ou lui poser problème. Mais ni cette existence ni ces raisons ne peuvent être déduites des lois de la physique au sens où elles ne traduisent aucune capacité que l'on pourrait attribuer à la matière de s'organiser, de créer des formes, de faire naître la vie. Il se fait que, sur la Terre, un événement d'une très haute improbabilité a eu lieu. La singularité de cet événement, à l'origine de ce que l'on déchiffre comme le « code génétique », est d'avoir fait exister un nouveau type de nécessité, se dessinant sur fond de hasard : des mutations aléatoires affectent « ce qui » se reproduit, et les différences entre les taux de reproduction de ces divers « ce qui » entraînent nécessairement l'histoire sélective, seule « raison » tant de l'organisation d'un vivant individuel que de l'histoire des vivants.
Pour « comprendre » la vie, le démon de Laplace devrait donc, lui-même, s'initier au calcul des probabilités, car c'est la probabilité de reproduction qui constitue la question nouvelle posée par les vivants. Et il pourrait concevoir alors comment, dans la trame universelle des interactions, des êtres peuvent donner l'impression qu'ils poursuivent leurs propres fins, une fin dont le seul secret est de survivre et de se reproduire. Le hasard et la nécessité tels qu'ils sont annoncés par Monod appartiennent bien au monde contemplé par le démon de Laplace. Comme ce dernier, ils permettent avant tout de juger, tant les vivants compris dans leur principe (la sélection comme seule « raison » de l'histoire des vivants implique de manière directe la notion de « programme génétique », c'est-à-dire le déterminisme génétique) que ceux dont les espoirs, les thèses ou les pratiques tentent de voiler ce fait tragique : la solitude de l'homme dans l'immensité de l'Univers, d'où il a émergé par hasard.
De Boltzmann à Von Neumann
Jusqu'ici, les thèmes de la nécessité et du hasard, au sens scientifique, n'ont pas été présentés en tant que parties prenantes de problèmes scientifiques. Le démon de Laplace comme le hasard et la nécessité de Monod n'autorisent aucun modèle précis dont la pertinence pourrait être mise à l'épreuve à partir du monde observable mais indiquent seulement comment on doit juger ce monde. Quant à la mécanique, de Galilée à Lagrange et Laplace, elle n'a jamais mis le déterminisme en question, car c'est au contraire à partir du modèle de la mécanique que s'est opérée la rencontre entre déterminismes philosophique et scientifique. Beaucoup de types de déterminismes sont a priori concevables, y compris en physique, mais le déterminisme mécanique se reconnaît à la dualité des informations qu'il nécessite : définition d'une loi d'évolution et identification d'un état instantané quelconque à partir duquel la loi d'évolution permet de déduire une seule et unique évolution. Le déterminisme mécanique établit une relation biunivoque entre état et évolution : deux trajectoires distinctes resteront toujours distinctes ; tout état dynamique appartient à une trajectoire et à une seule.
C'est dans le domaine de la physico-chimie que s'est produite, au cours de la seconde moitié du xixe siècle, la première mise en problème du déterminisme laplacien, c'est-à-dire la première controverse scientifique explicite à propos de ses prétentions à juger le monde des phénomènes. Le point d'affrontement a été le problème de l' évolution thermodynamique irréversible vers un état d'équilibre. C'est alors que les physiciens ont dû accepter que le déterminisme laplacien comportait en fait une conséquence singulière qu'aucune conception philosophique déterministe n'avait jusque-là envisagée : la stricte équivalence du passé et du futur.
On ne décrira pas ici la lutte de Boltzmann, qui tenta en vain de séparer déterminisme dynamique et réversibilité (I. Prigogine et I. Stengers, 1988), c'est-à-dire de montrer que l'évolution irréversible, à entropie croissante, vers l' équilibre thermodynamique si elle n'avait pas de sens en ce qui concerne une particule individuelle, pouvait prendre un sens objectif pour une population de particules régies par des lois dynamiques. C'est dans le cadre d'une théorie cinétique, centrée autour d'événements dynamiques, les collisions, que Boltzmann formula le « théorème H », affirmant que les collisions entraînent une évolution de la distribution des vitesses des particules vers leur distribution d'équilibre et mènent une fonction de cette distribution des vitesses, la grandeur H, vers son extremum : H serait donc un modèle dynamique de l'entropie thermodynamique.
Qu'il suffise de dire que les contraintes inhérentes au langage dynamique se révélèrent incompatibles avec ce projet : Boltzmann dut reconnaître que, à tout état initial engendrant une évolution qui peut être décrite par la croissance d'une fonction entropie, on peut faire correspondre un autre état, dynamiquement équivalent (obtenu par inversion des vitesses de toutes les particules constituant le premier), qui engendre, lui, une évolution à entropie décroissante... C'est à la suite de cet échec que Boltzmann en vint à reconnaître qu'il avait à choisir entre le déterminisme et l'irréversibilité qui caractérise l'ensemble des phénomènes observables, et choisit le déterminisme. L'irréversibilité ne serait qu'une propriété phénoménologique, purement relative à notre mode de description, à notre incapacité d'observer et de décrire le comportement (déterministe et réversible) des entités qui composent un système.
L'interprétation « probabiliste » de Boltzmann est bien connue ; elle fait intervenir de manière explicite la liaison entre ignorance et probabilité. Son hypothèse de base est que tous les états microscopiques sont équiprobables : le système a la même probabilité d'être dans chacun d'entre eux. Pour le démon de Laplace, le système est caractérisé par une trajectoire dynamique déterminée ; pour le calculateur humain, le système sera défini par le poids statistique de chaque état macroscopique, par le nombre d'états microscopiques distincts qui le réalisent : il sera d'autant plus probable que ce nombre est grand.
L'interprétation probabiliste de Boltzmann, produit de la confrontation entre un déterminisme de type dynamique et la description des phénomènes physico-chimiques, a introduit en physique un problème qui ne s'est explicité qu'avec la mécanique quantique et, plus précisément, avec le problème de la mesure quantique. En effet, l'ensemble des dispositifs expérimentaux qui permettent l'observation et la mesure supposent une rupture de symétrie entre le passé et l'avenir. On ne peut pas dire « le démon observe » sans présupposer cette rupture. Mais si cette dernière n'est que relative à l'imperfection de nos connaissances, on aboutit soit à un dualisme (le démon, ou l'acte d'observation, échappe à la physique), soit au paradoxe d'une physique qui tire sa condition pratique de possibilité du caractère imparfait du physicien. Le monde contemplé par le démon de Laplace ne peut, en tant que tel, rendre intelligible la possibilité de sa propre description.
Si la mécanique quantique a conféré un rôle critique à ce problème, c'est notamment parce que la mesure, dans ce domaine, est inséparable de la notion d'événement. Ce sont des événements (collisions, émissions ou absorptions de photons, décompositions radio-actives) qui seuls donnent accès au monde quantique. Or ceux-ci se caractérisent expérimentalement par des grandeurs, telles que le temps de vie ou de relaxation, qui impliquent tout à la fois les probabilités et l'asymétrie entre le passé et le futur. Pourtant, comme on le sait, c'est une équation déterministe et réversible, l' équation de Schrödinger, qui définit l'évolution dans le temps de l'objet quantique.
Le dualisme évolution déterministe/événements se trouve traduit dans le formalisme de la mécanique quantique et dans l'interprétation usuelle de ce formalisme en dualisme évolution/mesure. L'objet que définit l'équation de Schrödinger n'est pas en tant que tel observable, ni par le physicien ni par un quelconque démon. La notion d'observable dépend de la réduction de la fonction d'onde, qui est traditionnellement associée avec l'opération de mesure.
Comment concevoir cette opération ? Tient-elle à une interaction, en droit intelligible en termes quantiques, avec le dispositif macroscopique que constitue l'instrument de mesure ? Mais la définition du dispositif expérimental comme « macroscopique » à partir de sa description « en droit quantique » fait, comme l'irréversibilité macroscopique, intervenir notre ignorance, notre imperfection. La mécanique quantique donne donc une forme dramatique à la conclusion que l'on a atteinte à propos de l'interprétation probabiliste de Boltzmann : un objet conçu comme intrinsèquement réversible rend inintelligible la possibilité de sa propre observation. C'est ce paradoxe dans sa version dualiste qu'a exprimé Von Neumann lorsqu'il a montré que le dispositif de mesure, interprété en termes quantiques, ne pouvait plus rien mesurer : s'il y a mesure, c'est-à-dire physique, c'est qu'il existe une réalité irréductible à la mécanique quantique, à savoir la conscience humaine. C'est l'observation en tant qu'acte humain, et non en tant qu'interaction physique du corps quantique avec un dispositif expérimental, qui est responsable de la notion même de réalité observable.
Une telle conclusion peut apparaître comme fascinante. Elle n'en est pas moins insatisfaisante. Le point de vue « philosophique » à laquelle elle aboutit se fonde sur la vérité d'une théorie, qui, comme toute théorie scientifique, ne peut faire valoir, pour s'affirmer, que sa fécondité expérimentale. Or les prévisions expérimentales de la mécanique quantique ont pour condition, dans la plupart des cas, le même type d'approximation que celui qui permet de donner sens à la notion de dispositif macroscopique (N. Cartwright, 1983). Elle permet ici de passer à une description de type cinétique, donnant sens notamment aux notions expérimentales de temps de relaxation et de temps de vie. Le cercle est donc pratiquement vicieux : l'autorité à laquelle prétend la description quantique se fonde sur ses succès prédictifs, mais ceux-ci impliquent en fait que la description elle-même subisse le même type d'opération d'approximation qui, lorsqu'il s'agit de la mesure, semble imposer une dualité entre description et observation.
Les risques de la définition
L'enjeu de la question du hasard et de la nécessité était de savoir si le fait d'appartenir à une tradition qui ne se satisfait pas d'une recherche de connaissances « purement pragmatiques » et associe aux sciences les valeurs d'une recherche d'intelligibilité implique une relation privilégiée entre science et déterminisme. Jusqu'ici, on a pu constater ce privilège de fait et mesurer le prix dont il se paie. Il reste une autre interprétation possible. Abandonnant la conception laplacienne, réaliste, d'un monde déterministe, ne pourrait-on soutenir que la tâche de la science est, dans chaque domaine, de définir des objets susceptibles d'une intelligibilité déterministe ? La quête d'intelligibilité traduirait donc alors non la réalité du monde, mais les exigences de la raison.
Dans quelle mesure la définition d'un objet peut-elle garantir une intelligibilité déterministe ? Pour répondre de manière concrète, il suffit de prendre l'exemple des systèmes physico-chimiques qui ont longtemps semblé, en-dehors du cas particulier de la dynamique, illustrer la possibilité d'une description déterministe.
L'état d'équilibre physico-chimique est stable, et cette stabilité peut recevoir deux interprétations distinctes quoique convergentes :
- D'une part, elle peut renvoyer directement au deuxième principe de thermodynamique, et le système physico-chimique est alors décrit par une fonction d'état, aussi appelé potentiel thermodynamique. Ce dernier est fonction de la définition du système, c'est-à-dire de sa description en termes de variables externes, ou de contrôle – qui décrivent les relations du système à l'environnement, et que l'expérimentateur peut faire varier à volonté –, et de variables internes, et il actualise de manière directe les conséquences du deuxième principe : sa valeur extremum définit l'état d'équilibre auquel mène l'évolution irréversible (productrice d'entropie) du système.
- D'autre part, la stabilité de l'état d'équilibre peut être interprétée selon la théorie probabiliste de Boltzmann : l'évolution qui mènerait le système loin de l'état d'équilibre est alors non plus une violation du second principe mais une évolution hautement improbable.
Quel est le degré de généralité de cette double définition du système thermodynamique qui garantit le déterminisme d'une évolution vers un état final stable ? Peut-on toujours décrire un système thermodynamique par une fonction d'état ? L'hypothèse d'équiprobabilité qui fonde l'interprétation de Boltzmann est-elle toujours valide ? À cette double interrogation, la thermodynamique des systèmes éloignés de l'équilibre a donné une réponse négative. Lorsque les relations entre le système et le milieu imposent au système le maintien d'une activité productrice d'entropie, la définition thermodynamique et le deuxième principe ne conservent leur pouvoir prédictif que près de l'équilibre. Ailleurs, aucune fonction d'état ne peut plus être définie qui permette au deuxième principe de garantir une évolution déterministe vers un état stable (P. Glansdorff et I. Prigogine, 1971). Corrélativement, on peut montrer que, loin de l'équilibre, l'hypothèse d'équiprobabilité des états de Boltzmann n'est plus valide de manière générale (G. Nicolis et I. Prigogine, 1977).
La thermodynamique des systèmes éloignés de l'équilibre est désormais bien connue. C'est dans ce domaine que peuvent se produire des phénomènes d'auto-organisation spontanée (structures dissipatives, caractérisées par un comportement collectif cohérent) et des évolutions de type bifurquant.
Au déterminisme des évolutions vers l'équilibre ou vers un état stationnaire proche de l'équilibre se substitue, loin de l'équilibre une problématique où les notions de stabilité et d'instabilité sont primordiales. C'est de la stabilité ou de l'instabilité du régime d'activité par rapport aux fluctuations que dépend la pertinence de la définition du système en termes de ses variables externes et internes. Aux points de bifurcation, cette définition ne permet pas de prévoir le comportement, mais seulement de comprendre les raisons pour lesquelles une fluctuation incontrôlable, loin de rester sans conséquence, pourra s'amplifier jusqu'à mener le système vers un nouveau type de régime d'activité qualitativement différent.
La différenciation spatio-temporelle, l'activité cohérente impliquant des corrélations de portée macroscopique entre événements locaux qui se produisent loin de l'équilibre n'impliquent l'intervention d'aucun lien causal nouveau par rapport à ceux qui caractérisent comme incohérent le même système à l'équilibre. L'activité cohérente est donc « autoengendrée ». Le terme « auto » désigne, ici, l'émergence d'un problème conceptuel qui ne se posait pas à l'équilibre.
La possibilité que des fluctuations, par définition incontrôlables, s'amplifient traduit que la possibilité, pour les variables « de contrôle », de contrôler effectivement dépend non d'un droit de la définition, mais du régime d'activité du système. C'est pourquoi il est préférable, ici, d'abandonner le terme « variable de contrôle » et de parler de contrainte.
Le propre de la notion de contrainte est de ne pas fournir les prémisses d'une opération de déduction. La contrainte est une condition nécessaire mais non pas suffisante pour ce qui se produit. Être mis en prison, c'est subir une contrainte ; mais ce que sera l'expérience de la prison, la vie qui se construira dans ces conditions, est un problème ouvert, auquel répondra une histoire où pourront jouer des circonstances qui, dans d'autres situations, auraient été insignifiantes. De manière un peu similaire, un système porté loin de l'équilibre par une contrainte peut devenir sensible à des « circonstances » qui étaient insignifiantes à l'équilibre (notamment les fluctuations locales de sa propre activité, mais aussi celles de sa relation avec l'environnement, le champ gravitationnel, etc.). Ces circonstances « prennent sens » à partir de l'activité du système et sont intégrées dans cette activité à laquelle elles ouvrent de nouveaux types de structuration. Le propre de la contrainte est donc d'acquérir, au cours du processus dont elle est condition, une signification qui ne préexiste pas à ce processus (G. Nicolis et I. Prigogine, 1977 ; I. Prigogine et I. Stengers, 1988).
En pratique, cela signifie que les systèmes expérimentaux étudiés par la physico-chimie permettent, malgré leur relative simplicité, de mettre en question la possibilité d'identifier un système une fois pour toutes. La définition du système ne peut pas précéder celle de ses différents régimes d'activité, parce que le régime d'activité peut rendre nécessaire la prise en compte de nouveaux aspects tout à la fois de cette activité et de ses relations avec l'environnement. En d'autres termes, l'idée de rechercher la définition d'un système qui garantirait sa description déterministe occulte le fait que la pertinence de cette définition peut toujours être mise en cause par l'activité que cette définition prétend rendre déductible.
De l'identique au même
L'une des formulations les plus générales de l'idéal déterministe est l'énoncé : « les mêmes causes produisent les mêmes effets », cela sous-entendant que, pour que deux causes soient dites « les mêmes », elles doivent désigner les « mêmes » systèmes. C'est cette définition que la découverte du « chaos déterministe » permet de mettre en cause. Ici encore, une propriété intrinsèque du système va nous mener à mettre en lumière le caractère risqué de toute définition.
On parle de chaos déterministe à propos de systèmes que l'on considère comme intégralement définis par leurs équations d'évolution. Ces dernières sont déterministes, la question de la réversibilité est ici secondaire : le chaos déterministe peut caractériser aussi bien une dynamique réversible (voir le modèle du « boulanger », I. Prigogine et I. Stengers, 1988) qu'une dynamique dissipative (comme le modèle météorologique de Lorentz, J. Gleick, 1989).
La découverte du chaos déterministe met en lumière la différence entre l'idéal mathématique du déterminisme et sa possibilité de mise en œuvre opérationnelle telle qu'elle est par exemple explicitée par la proposition « les mêmes causes produisent les mêmes effets ».
Que signifie « même » ? Si l'on « se donne » la définition initiale d'un système avec une précision infinie, à la définition déterministe du système correspond évidemment une trajectoire déterministe, mais l'énoncé est devenu « des causes identiques produisent des effets identiques », et n'est plus opérationnel que pour un mathématicien ou un métaphysicien. Car un physicien et avec lui tous ceux qui ont à confronter le modèle et le phénomène doivent distinguer entre « même » et « identique » : deux mêmes systèmes ou deux mêmes causes impliquent qu'aucune opération de mesure ne permet de les distinguer, mais toute opération de mesure, quelle qu'elle soit, est de précision finie. Les nombres qu'elle produit peuvent avoir trois, cent ou dix mille décimales, il reste encore une série infinie de décimales à la valeur indéterminée : un nombre infini de systèmes distincts correspond à toute définition opérationnelle du terme « même ».
En ce qui concerne la classe des systèmes « stables », la différence entre « identique » et « même » n'a pas de conséquence dramatique. L'imprécision sur la définition des conditions initiales affecte certes la définition de la trajectoire dynamique mais ne met pas en cause la notion de trajectoire. Il n'en va pas de même pour les systèmes dits chaotiques. Ces derniers sont déterminés par le fait qu'on peut attribuer une valeur positive à un paramètre appelé 1'« exposant de Liapounov ». Pour de tels systèmes, toute différence entre deux conditions initiales, aussi proches soient-elles, s'accroît de manière exponentielle au cours du temps, la divergence exponentielle entre deux trajectoires étant mesurée par l'exposant de Liapounov.
On peut lier à l'exposant de Liapounov positif la caractérisation du système dynamique par un horizon temporel. Après un certain temps d'évolution, qui dépend à la fois de l'exposant de Liapounov, de la précision des conditions initiales et de la précision de la définition de ce que sont deux « mêmes » systèmes, l'ensemble des informations que procure cette connaissance de l'état initial a perdu sa pertinence. Il n'est plus possible, alors, de caractériser le système en termes d'une trajectoire individuelle ; on ne peut plus le décrire que selon les contraintes qui définissent l'ensemble de tous les systèmes caractérisés par les mêmes équations déterministes. On peut tenter de faire reculer l'horizon, d'allonger le temps pendant lequel on peut encore parler d'un système individuel. Mais le prix à payer devient très rapidement démesuré : pour multiplier par dix le temps de prédiction, il faut multiplier par e10 la précision des mesures.
La question, générale, de ce qu'est une définition, une description finie, qu'elle soit par mots ou par nombres, prend donc, dans le cas des systèmes chaotiques, un sens spécifique qui met directement en question l'idéal du déterminisme. Ainsi, un historien qui ferait l'hypothèse que l'histoire est déterministe mais répond à une dynamique chaotique devrait ensuite se taire : il aurait proféré une affirmation de type métaphysique « arrive ce qui devait arriver », mais aurait nié toute possibilité de lier à cette affirmation une quelconque description historique Il aurait au contraire affirmé que, dans l'histoire, le moindre détail compte, non pas seulement tel traité, mais la provenance du papier sur lequel il a été écrit, non pas seulement telle guerre, mais le fait que tel soldat ait ou non écrit à sa fiancée avant de mourir.
Réalisme et pertinence
Ilya PRIGOGINE & Isabelle STENGERS
Dés 1906, Pierre Duhem avait souligné qu'une description mathématique peut inspirer à la physique une idéalisation de type incorrect. Pour qu'une description mathématique ait un sens physique, elle doit résister à l'à-peu-près (P. Duhem, 1981). Une petite différence quantitative ne doit pas entraîner de disparité qualitative. Cette thèse de Duhem était inspirée par les modèles purement mathématiques de Jacques Hadamard (1898) ; mais, dès cette époque, on savait que l'idéal d'intégrabilité, de déduction d'une trajectoire à partir de ses équations n'était pas généralisable. C'est en 1892 en effet que Poincaré avait publié son fameux théorème selon lequel les systèmes dynamiques à plus de deux corps ne sont pas, de manière générale, intégrables.
Pendant plus de soixante ans, les conséquences du théorème de Poincaré n'ont pas attiré beaucoup l'attention. C'est seulement avec les travaux initiés par Kolmogoroff, Arnold et Moser qu'ils ont été reconnus comme le point de départ d'une nouvelle conception de la dynamique, centrée non autour du modèle que constituait le système intégrable et sa trajectoire déterministe, mais autour de la classification qualitative des systèmes dynamiques. En 1986, sir James Lighthill, alors président de l'International Union of Theoretical and Applied Mechanics, proclamait de la manière la plus solennelle les conséquences conceptuelles de ce renouvellement de la dynamique : « Ici, il me faut m'arrêter et parler au nom de la grande fraternité des praticiens de la mécanique. Nous sommes très conscients, aujourd'hui, de ce que l'enthousiasme que nourrissaient nos prédécesseurs pour la réussite merveilleuse de la mécanique newtonienne les a menés à des généralisations dans le domaine de la prédictibilité [...] que nous savons désormais fausses. Nous voulons collectivement présenter nos excuses pour avoir induit en erreur le public cultivé en répandant à propos du déterminisme des systèmes qui satisfont aux lois newtoniennes du mouvement, des idées qui se sont, après 1960, révélées incorrectes » (J. Lighthill, 1986).
La notion d'instabilité dynamique et la mise en échec pratique du déterminisme ne signifient pas forcément le renoncement au déterminisme : on peut toujours affirmer, au-delà de la classification des systèmes dynamiques et du chaos déterministe, que la réalité est bien déterministe puisque les équations qui permettent de parler de système dynamique ou de chaos le sont. Mais la réalité n'est plus alors seulement ce qui existe indépendamment de nos connaissances, mais de plus ce qui devrait être conçu de manière indépendante par rapport à nos possibilités effectives d'entrer en relation avec elle. C'est là un sens du terme réalisme tout à fait singulier, qui traduit la singularité de la dynamique soumise au principe leibnizien de raison suffisante : dans ce cas, en effet, l'objet, défini par l'égalité entre la cause et l'effet, semble dire de lui-même ses propres « raisons », semble s'expliquer de lui-même. Ce qui permet d'oublier le fait que cet objet répond, en l'occurrence, à nos questions. L'objet dynamique constitue la représentation singulière que l'on peut construire à propos de phénomènes qui répondent de manière pertinente à la question de la mise en équivalence de la cause et de l'effet.
La manière dont on peut interroger un être ou un phénomène n'est pas une donnée « seulement pragmatique », mais, en tant que traduction des relations que cet être ou ce phénomène entretient avec son environnement, c'est une contrainte quant à la manière dont on a à le concevoir. Considérée sous cet angle, l'ambition réaliste pourrait être redéfinie, devenir une ambition ouverte. Elle serait alors l'ambition de construire une représentation d'objet qui, non seulement, soit cohérente avec le type de question que l'on peut poser au phénomène, mais aussi qui explique la pertinence de ce type d'interrogation : l'objet, alors, rendrait compte du type d'accès que nous avons à lui. Une telle ambition constituerait un idéal qui ne privilégierait plus la physique comme la seule science réaliste, tous les autres savoirs étant, eux, relatifs à l'imperfection des connaissances. Elle constituerait un défi pour l'ensemble des savoirs : le défi d'avoir à conférer une signification positive à ce qui trop souvent est décrit comme un simple obstacle au type de connaissance dont rêverait le scientifique.
Revenons-en au problème de la physique, et plus précisément à celui de l'événement dont on a souligné que c'était lui qui avait ouvert de manière indépassable l'accès expérimental que l'on a au monde quantique. C'est dans la mesure où l'événement quantique a été renvoyé à l'opération de mesure et où les collisions, sur lesquelles Boltzmann avait fondé son théorème H, ont été explicitement soumises à l'idéal de réversibilité déterministe que sont nés les paradoxes mettant en scène une réalité qui rend inintelligible la possibilité de sa propre connaissance. Dans la perspective réaliste défendue ici, la réalité physique impose de donner un sens à l'événement. C'est la possibilité, récemment formulée par le groupe de physique de Bruxelles, de réaliser cette ambition qui va être maintenant envisagée dans ses grandes lignes.
Les grands systèmes de Poincaré : une physique de l'événement
Le théorème publié par Poincaré en 1892, qui a sonné le glas de l'ambition de réduire l'ensemble des systèmes au modèle unique du système intégrable, mettait au premier plan la notion de résonance. On ne peut ici entrer dans des détails trop techniques, mais il faut cependant souligner que Poincaré se fondait sur un théorème dynamique qui montre que tout système intégrable peut être représenté d'une manière assez singulière : si un système est intégrable, il est toujours possible de définir un ensemble de variables (appelées variables cycliques) telles que les forces d'interaction entre les constituants du système se trouvent formellement éliminées. Le système est alors décrit comme si chacun de ses degrés de liberté (par exemple, un système de N particules à 6 N degrés de liberté ; l'espace dit « de phase » sera alors l'espace à 6 N dimensions où chaque état possible du système est caractérisé par un point) évoluait indépendamment des autres. Lorsque cette représentation est possible, les « vitesses » – ou plus précisément les moments, produit de la masse par la vitesse – prennent la forme de quantités invariantes, dépendant des seules conditions initiales. Il faut préciser qu'un ensemble de fréquences sont mises au premier plan. En effet, dans cette représentation, les coordonnées de position correspondant à chaque degré de liberté ont la forme de variables d'angle, et ont donc pour dérivée par rapport au temps une fréquence, dépendant en général des conditions initiales.
La résonance se produit lorsque au moins deux fréquences d'un même système ont entre elles un rapport simple (l'une égale l'autre ou est le double, ou le triple, ou... de l'autre). Elle se traduit par un couplage entre les degrés de liberté résonant et par un transfert d'énergie entre eux. Or les événements, tels qu'ils s'imposent en physique, peuvent être représentés comme liés à des situations de résonance. La collision entre deux particules se traduit par un transfert d'énergie entre elles, l'émission d'un photon lorsqu'un atome excité rejoint son état fondamental est un transfert d'énergie de l'atome vers le champ.
Poincaré a montré que l'existence de résonances affecte directement la possibilité d'intégrer le système dynamique, c'est-à-dire la possibilité de décomposer son mouvement en un ensemble de mouvements indépendants. Plus précisément, elle fait obstacle à la démarche clé de la dynamique face à un système dynamique : partir de la représentation cyclique d'un système intégrable connu, introduire la différence entre ce système connu et celui que l'on a à traiter sous forme de perturbation du système connu et définir les nouvelles variables cycliques correspondant au système « perturbé ». Poincaré a montré que, dans la mesure où la « perturbation » entraîne des résonances entre les degrés de liberté définis comme indépendants dans le système non perturbé, il n'est pas possible de construire à partir des variables cycliques du système non perturbé la définition des nouvelles variables cycliques correspondant au système perturbé.
La démonstration de Poincaré met donc en lumière le contraste entre une conception intuitive (intuitivement, si une collision est parfaitement élastique, elle est soumise à la même loi déterministe et réversible que la trajectoire des particules) et la démarche technique du physicien qui doit construire effectivement la description du comportement, déterministe et réversible, du système. On peut dire que, pendant les quelque soixante-dix ans où le théorème de Poincaré n'a pas affecté l'identification de la dynamique au déterminisme, la conception intuitive a dominé l'obstacle technique que Poincaré avait mis en lumière. Le renouveau de la dynamique marque le moment où cet obstacle est devenu problème positif, et où les spécialistes de la mécanique ont découvert l'étonnante variété des comportements dynamiques effectifs.
De manière générale, l'existence de résonances complique terriblement la description dynamique.
Typiquement, dans un petit système dynamique, la situation se caractérise par un mélange qualitatif : la plupart des conditions initiales engendrent des trajectoires telles qu'aucune résonance ne se produit (comportement périodique), mais d'autres génèrent des résonances. Si l'on transforme la définition du système dynamique en augmentant l'intensité de la « perturbation », la distribution dans l'espace des phases des points correspondant à des trajectoires qualitativement différentes se modifie, et les « zones » où se situent les différents types de résonance peuvent en venir à s'enchevêtrer.
Il existe pourtant un type de système dynamique où l'existence de résonance n'est pas facteur de complication, mais engendre un nouveau type de simplicité. De tels systèmes sont appelés « grands systèmes de Poincaré ». La singularité de ces systèmes est que leur description est stable par rapport à l'intensité de la perturbation. La transition de la représentation périodique (système intégrable, perturbation nulle) à une représentation de type chaotique est abrupte : elle se produit pour une perturbation aussi faible que l'on veut. Si l'on considère que, depuis Poincaré, les systèmes dynamiques forment un spectre qualitativement différencié, à un extrême se situent les systèmes stables, intégrables, décrits par des trajectoires déterministes et réversibles, mais à l'autre se trouvent désormais les « grands systèmes de Poincaré » auxquels convient une description cinétique, à symétrie temporelle brisée, centrée autour de la notion d'événement.
Le mode de description cinétique, qui prévaut depuis le théorème H de Boltzmann jusqu'à la chimie, l'optique quantique ou la description des processus de désintégration atomique, avait été traditionnellement défini, tant en dynamique classique qu'en mécanique quantique, comme un mode de description seulement approximatif par rapport à la description fondamentale déterministe. On peut désormais démontrer qu'il constitue une représentation aussi fondamentale : représentation pertinente dans le cas d'un grand système de Poincaré comme la description déterministe l'est dans le cas d'un système intégrable.
Un tel résultat ouvre de nouveaux problèmes et entraîne notamment, par la définition dynamique qu'elle confère à l'événement, une redéfinition de la description cinétique elle-même. La théorie cinétique traditionnelle, celle que Boltzmann avait employée pour le théorème H, mettait en scène un événement isolé, instantané, abstrait de tout substrat dynamique : figure du hasard. Elle apparaît désormais comme une version simplifiée, valable dans certaines conditions, d'une description cinétique plus complète où est mise en scène la temporalité de l'événement, la dynamique complexe selon laquelle l'événement affecte son environnement qui, à son tour l'affecte lui-même. Cette redéfinition du mode d'intelligibilité cinétique permet d'expliquer les déviations qui caractérisent certains processus par rapport à la description cinétique classique. Elle permet aussi d'unifier ce que le formalisme quantique séparait : l'évolution (schrödingérienne) de l'objet quantique et la définition des observables, associée à la mesure.
L' équation de Schrödinger affirme et présuppose, dans la manière même dont elle pose le problème de l'évolution, le caractère intégrable du système qu'elle décrit. Sa grande fécondité implique que les systèmes intégrables quantiques sont nombreux, ce qu'a d'ailleurs confirmé le fait que l'analogue quantique de la plupart des systèmes classiques non intégrables se révèle intégrable. En revanche, de même que les « grands systèmes de Poincaré » classiques n'admettent pas de représentation en termes de trajectoires, leur analogue quantique n'admet pas de représentation en termes de l'équation de Schrödinger. Qui plus est, les « grands systèmes de Poincaré quantiques » sont littéralement partout, car si un atome isolé peut être représenté par l'équation de Schrödinger, l'atome en interaction avec un champ (c'est-à-dire susceptible d'émettre ou d'absorber un photon) est, lui, un grand système de Poincaré.
On retrouve en fait ici la question de l'accès au monde quantique : l'atome isolé de ses interactions avec son champ est inobservable, et les événements que nous observons désignent l'atome que décrit un grand système de Poincaré. C'est pourquoi la fécondité expérimentale de la mécanique quantique a toujours dépendu d'approximations qui permettent de passer de l'équation de Schrödinger à une équation de type cinétique. De manière brutale, on peut dire que les paradoxes de la mécanique quantique centrés autour de la mesure ont mis l'homme et la mesure là où ils n'avaient rien à faire, là où doit être prise en compte la classification qualitative des systèmes dynamiques quantiques. Corrélativement, la théorie quantique devient une théorie réaliste, qui décrit, au même titre que la dynamique classique, un monde observable, mais un monde où le démon de Laplace lui-même devra se muer en théoricien de la cinétique, prévoyant, comme les spécialistes de la mécanique quantique, les événements, leurs fréquences, leurs conséquences.
Déterminisme et intelligibilité
Ilya PRIGOGINE & Isabelle STENGERS
La question du hasard et de la nécessité a toujours été, dans nos sciences, une question portant soit sur le monde soit sur les idéaux de la connaissance. Le parcours accompli n'aboutit pas à un renoncement à une question de ce type. En un sens, comme l'interprétation probabiliste de Boltzmann, l'interprétation dynamique de l'événement que nous avons esquissée est une expression de sa fécondité. Le parcours aboutit plutôt à une redéfinition du sens de cette question, que l'on propose d'axer non plus sur une problématique de jugement mais sur une problématique de pertinence.
Le sens d'une interrogation ne se démontre ni ne se réfute. Il est affaire de conviction, et c'est en tant que tel qu'il guide le travail des scientifiques et intervient dans leurs controverses. Mais cette conviction n'est pas pour autant arbitraire : elle se nourrit du passé pour définir ce que pourrait être demain une nouvelle cohérence de nos sciences. Cette cohérence ne devrait plus traduire une hiérarchie, expression d'un jugement, mais une exigence dont chaque science aurait la charge : l'exigence de rendre explicite, dans le concept singulier de son objet, et notamment dans la manière singulière dont il articule hasard et nécessité, le type de question qui en assure l'accès le plus pertinent, le type de regard et de pratique qu'il a fallu apprendre pour devenir capable d'en reconnaître la singularité.
Ilya PRIGOGINE
Universalis
E.U., Ilya PRIGOGINE, Isabelle STENGERS, « HASARD & NÉCESSITÉ », Encyclopædia Universalis [en ligne], consulté le 21 août 2017. URL : http://www.universalis.fr/encyclopedie/hasard-et-necessite/