L’homme face aux trois infinis ontologiques formels

par Bernard Dugué
jeudi 26 juillet 2012

L’homme aurait subi trois blessures narcissiques selon Freud. La première avec Copernic, lorsque l’homme prend conscience que la terre n’est plus le centre de l’univers. La seconde avec Darwin, lorsqu’il découvre que l’homme n’est au fond qu’un singe modifié. La troisième avec la psychanalyse où l’inconscient se dévoile comme une instance intrapsychique échappant à la maîtrise complète du sujet. Blessure ? Le mot est un peu vite dit et l’on verra dans ce propos le signe d’une manie qu’ont certains scientifiques de vouloir rabaisser l’homme, non sans quelques zestes de misanthropie. Le narcissique n’est pas forcément où on croit le trouver. Freud est un farceur.

L’homme est face à trois transcendances, trois infinis échappant à sa compréhension, l’infiniment grand du cosmos, l’infiniment petit des particules et l’infiniment complexe du vivant. Le substantif infini ne convient pas tout à fait. Mieux vaudrait user de la notion du transfini, inventée par Cantor pour désigner un infini déterminé (celui par exemple les nombres entiers). Et encore, la notion serait trompeuse. Disons plutôt que l’univers physique, la matière microphysique et le monde de la biologie moléculaire échappent pour l’instant à la formalisation complète. Les processus du vivant s’annoncent sans fin, avec des découvertes chaque jour dans les laboratoires. Et du côté de la physique, les deux grandes théories ne peuvent être unifiées en un socle unique. La gravitation n’est pas compatible avec la théorie quantique. Cette conjecture n’entre pas dans nos cordes de citoyens du monde mais elle ne se résout pas pour autant dans les cordes des physiciens. Malgré les immenses découvertes scientifiques, l’homme reste perplexe face à l’énigme de l’univers. Il ne comprend toujours pas comment le cosmos se présente dans sa configuration formalisée avec une efficacité toute magique par les équations d’Einstein. Il ne sait pas plus pourquoi les particules sont prises dans les mailles mathématiques de la physique quantique où apparaissent parfois des infinis (QED, QCD). Il ne parvient pas non plus à comprendre l’infini complexité des processus épigénétiques si bien que le code informationnel du vivant reste une pierre de rosette dont le décryptage est pour l’instant hors de portée de l’entendement humain.

Les historiens des sciences ont décrit et analysé un tournant essentiel dans la pensée scientifique située entre la fin du 19ème siècle et le début du 20ème. C’est le tournant formel, avec quelques savants célèbres parmi lesquels le logicien Frege dont les travaux ont représentée une innovation radicale rapportée à la logique de prestigieux prédécesseurs comme Aristote, Leibniz puis Kant. Un coup d’œil embrassant un siècle permet de voir, disons entre 1870 et 1970, le développement considérable de champs scientifiques souvent séparés mais unis par un même souci, celui de détecter, analyser, représenter les formes et trouver s’il y a lieu quelques règles les régissant. Les sciences de cette époque, assumant l’héritage positiviste, se plaçaient sous le principe du déterminisme. Il en découle alors un enjeu général pour la science, celui de calculer et prévoir le cours objectif des choses dans l’univers et la nature. Nul ne peut dire si les savants y ont cru mais ils ont caressé le rêve d’un univers dont les formes seraient accessibles en totalité à l’emprise du calcul. Alors que dans le domaine des mathématiques, Hilbert avait en tête la perspective d’un achèvement de sa discipline mais un célèbre confrère nommé Gödel mis un terme à ce rêve d’un univers formel où tout s’emboîte logiquement et peut être déterminé. Une abondante littérature a été consacrée à ces questions épistémologiques cruciales. A la même époque, en physique, biologie, sciences humaines, la forme est devenu une préoccupation. D’abord en chimie organique, puis dans les recherches sur l’évolution (d’Arcy Thompson), la psychologie de la forme (gestalt, Erhenfels, Mach, début 20ème). La thermodynamique statistique et la théorie de l’information (Shannon). Laquelle sera appliquée aux systèmes vivants (Atlan). Les champs morphogénétiques (Waddington, Thom). Citons également quelques recherches en sciences du langage et notamment le formalisme russe des années 1920-30 ouvrant la voie vers des recherches structuralistes pour être parfois récupéré par une vision marxiste de la littérature. Le principe sous-jacent étant que la littérature est avant tout une technique. Ce qui permet de penser que dès qu’il y a de la forme, on trouve de la technique, on trouve aussi Aristote et son idée du matériau qui prend forme et enfin, on tombe sur la thèse des quatre causes. On pourrait dire, en une formule saisissante, que la science contemporaine, c’est Aristote sans les causes finales. Autrement dit, l’efficience de l’agent (souvent l’homme) qui façonne la matière en lui donnant une forme.

 L’exploration sans fin des formes de la nature (atomes, particules, galaxies, molécules, gènes, cellules, œuvres…) est restée, en Occident moderne, adossée à l’idée d’une nature calquée sur le paradigme des physicalités, des objectivités, des matérialités aux contours et formes définies, quitte à ce qu’elles s’associent dans des systèmes très complexes. Mais la mécanique quantique a troublé cette vision et avec la découverte des particules et la théorie des champs quantifiés, le monde matériel est apparu plus comme une sorte d’écume particulaire émergeant d’un champ infini de formes élémentaires. L’électrodynamique quantique (qui concerne les processus électromagnétiques impliquant photons et particules chargées) révèle d’étranges propriétés dans le calcul complet des processus. Des infinis apparaissent auxquels sont soustraits d’autres infinis et le résultat final colle avec une précision inouïe aux observations. Mais il y a un problème en plus de ces questions d’infini, c’est que cette méthode fait intervenir dans les étapes de calcul des paramètres qui n’ont pas de signification physique. Les pionniers de la physique quantique émirent quelques réticences envers cette méthode. « Cela ne ressemble pas du tout à des mathématiques sensées. Les mathématiques sensées impliquent de négliger des quantités quand elles sont petites – pas de les négliger parce qu'elles sont infinies et que vous n'en voulez pas ! » affirmait Dirac alors que Feynman lançait une autre critique : « l'escroquerie que nous pratiquons ... est appelée techniquement renormalisation. Mais quelque subtil que soit le mot, c'est toujours ce que j'appellerais un processus dingue ! Le fait d'avoir à recourir à ce genre de prestidigitation nous a empêché de démontrer que la QED était logiquement cohérente mathématiquement. C'est surprenant que l'on n'ait pas encore réussi à montrer d'une manière ou d'une autre que la théorie est logiquement cohérente ; je soupçonne que la renormalisation n'est pas légitime mathématiquement ». La QED fonctionne ainsi par on ne sait quel mystère mais elle fait appel à des mathématiques insensées comprenant des infinis et dont la cohérence n’est pas établie alors que la signification physique est parfois absente *. Si bien que parmi la jeune génération, il est des physiciens en quête d’une théorie alternative utilisant des mathématiques plus « physiques et moins ésotériques ».

La méditation sur les théories quantiques des champs nous place face à des infinis mais qui ne s’opposent pas à notre finitude car il existe un point de jonction et ce point c’est le monde matériel accessible au sens et aux instruments. Une interprétation réaliste consiste à concevoir un domaine sub-quantique où se déroulent une infinité de processus virtuels. La théorie dit alors que les particules situées sur la couche d’action sont détectables. Les particules observables sont les excitations du champ. Cette conception rejoint quelque part Spinoza dont la doctrine énonce un infini immanent à la finitude avec laquelle il se raccorde.

Examinons maintenant la cosmologie. Et plus spécialement les avancées théoriques sur la mécanique quantique du trou noir. Une importante controverse, que l’histoire jugera aussi décisive sinon plus que celle de Valladolid, opposa deux grands physiciens, Stephen Hawking et Leonard Susskind. Que se passe-t-il lorsqu’un objet ou un rayonnement est absorbé dans un trou noir ? Pour Hawking l’information est irrémédiablement perdue, ce qui constitue un sévère coup de canif dans l’édifice théorique physique basé sur la conservation de l’information, pensa Susskind qui dans un passionnant livre raconte trente ans d’investigation pour démontrer que l’information n’est pas perdue (Trous noirs, la guerre des savants, Robert Laffont). Je ne suis pas compétent pour discuter des détails théoriques mais sur le plan ontologique, je dirai que ce résultat confirme l’importante de la forme dans l’univers. Il y a même une équivalence entre forme et énergie. Cela rejoint mon analyse de l’équation de Schrödinger où un système stationnaire peut être décrit en séparant le paramètre énergie et la forme. Finalement, la conservation de l’information n’est autre que la conservation de l’énergie. Alors que la gravitation pourrait être une force entropique et donc dépendante de la forme (voir Verlinde) Et ces trous noirs ? Il me semble bien que le trou noir quantique décrit la conscience de l’homme face au monde. Lorsque nous voyons un paysage, celui-ci pénètre dans notre dispositif mnésique (qui dépasse le neuronal) comme si nous étions un trou noir et ce, sans limites. L’inconscient est infini, comme l’univers et tout ce qu’on ne voit pas.

La conscience d’une infinitude est somme toute assez récente, du moins dans la conception appuyée par les résultats de la physique contemporaine. Le champ de conscience perceptive tel qu’on peut le concevoir en correspondance avec les trous noirs quantiques nous place face à une infinitude, au même titre qu’une autre infinitude se présente, celle des processus dans les champs quantiques (j’aurais pu évoquer les hadrons et les quarks pour renforcer le paradigme). La troisième infinitude se trouve dans la complexité des mécanismes génétiques, épigénétiques et protéomiques (interactions cellulaires notamment). C’est encore une infinitude immanente qui en se réduisant telle un « vecteur d’état biologique hypercomplexe », produit ces êtres vivants que nous observons et que nous sommes, des êtres voués à la finitude. Mais derrière ces créatures vivante règne une infinitude de formes, qu’il s’agisse des innombrables protéines dont la conformation réelle en situation de fonctionner nous échappe, tout comme la gestion des informations génétiques, épigénétiques, lesquelles participent au fonctionnement cognitif du noyau cellulaire.

Alors peut-être penserez-vous qu’il n’y a rien de nouveau sous le soleil car depuis quelques décennies on trouve dans les livres destinés au grand public l’idée des trois infiniment : 1 petit, 2 grand, 3 complexe. Néanmoins, ces infinitudes relève plus du quantitatif que du qualitatif. Le grand et le petit relèvent de la dimension spatiale quant au complexe, il renvoie à un nombre colossal d’interactions. On peut alors penser que ces infinis sont épistémologiques alors que les infinitudes que je viens d’évoquer sont ontologiques et d’essence formelle. Il y a donc une substance formelle sous-jacente qui alliée à l’énergie et moyennant quelques conditions parvient à émerger dans le monde de l’action. Nous voilà donc, humbles créatures si astucieuses et inventives, placées face à l’énigme de trois transcendances avec lesquelles nous entretenons une relation finie. Je crois qu’il est vain de vouloir percer ce mystère. Réfléchir à ces choses est inquiétant et peut rendre fou. C’est peut-être pour cela que l’homme préfère jouer avec la nature plutôt que de tenter de la comprendre. Pascal avait eu quelques intuitions visionnaires sur ce thème. Retenons tout de même l’amorce d’un second tournant formel qui est de nature ontologique et non plus épistémologique comme celui du siècle précédent.

 -------------------------------------------------------------------

* En fait, la question des régularisateurs mathématiques pourrait renvoyer à des réalités qui ne sont pas physiques. De mémoire, je mentionne des expériences menées au SLAC de Stanford où il apparaît que la diffraction des électrons conduit à calculer qu’une moitié de l’énergie des hadrons nucléaires n’apparaît pas. Ce qui permet de spéculer sur des processus à double sens, l’un vers le monde d’action (diffraction) et l’autre vers le monde intérieur qui reste une énigme (c’est ici que je place le concept d’immanation).

** De mémoire, cette fois d'ordinateur, je livre ce texte complémentaire issu de mes recherches métaphysiques mais sa lecture est plus que facultative, surtout pour ceux qui n'ont pas une aspirine à portée de verre.

Le dédoublement de l’interaction forte

La théorie des quarks correspond plus à la phénoménologie initiale. Il était en effet question d’interaction nucléaire essentiellement due à un échange de mésons doté de masse, et donc de porté finie. On se retrouve avec des processus impliquent des particules massiques et des particules sans masse de spin 1, ce qui autorise en principe une portée infinie, comme pour l’électromagnétisme. Il se produit alors une situation critique de disjonction, ce qui impose de raccorder la théorie des quraks avec la phénoménologie de départ. C’est dans cet esprit que l’interaction entre nucléons est considérée comme un résidu de l’interaction entre quarks (Elbaz, p. 139). La phénoménologie complète des processus microphysiques insiste on ne peut mieux sur une interaction forte effective entre quarks et une interaction forte entre hadrons, avec des échelles de grandeurs nettement différenciées (t’ Hooft, ). C’est cet état de fait qui conduit à proposer un schéma où l’ontophysique se compose de l’interaction forte entre hadrons et de l’interaction faible impliquant hadrons et leptons ; quant aux processus fort impliquant les quarks, il semble bien que l’on ait affaire à une réalité très différente dessinant une correspondance avec la théophysique. De plus, il n’est pas nécessaire de prendre en compte la théorie des quarks pour formaliser la cohésion des nucléons dans les noyaux atomiques.

 Il existe en effet une théorie alternative plus simple modélisant les interactions fortes définies comme forces liant les nucléons. Le modèle de Skyrme formalise le proton et le neutron comme des structures topologiques sans faire appel à une composition à partir de quarks. Il présente des points communs avec la chromodynamique quantique et permet de calculer certains paramètres caractérisant les interactions hadroniques avec une meilleure précision que des calculs d’ordinateurs de plusieurs milliers d’heures effectués en utilisant le formalisme de la chromodynamique quantique (D’Hocker, 1985). Ainsi, l’interaction forte responsable de la cohésion nucléaire peut être décrite à partir d’un modèle simple et efficace du point de vue prédictif, quand à la chromodynamique quantique, elle se scinde en deux aspects. Le premier entre en compétition avec le modèle de Skyrme pour expliquer la cohésion des nucléons, l’autre est tout autre car il explique la composition des hadrons. Il faut donc différencier la phénoménologie des hadrons et la phénoménologie des quarks ; la première ne nécessite pas que les hadrons soient composés de quarks, et le modèle fait appel à des conceptions assez anciennes sur le méson-pi en tant que médiateur de la force nucléaire ; la deuxième explique la composition des hadrons en quarks, et introduit une champ immatériel supplémentaire pour faire de la QCD une théorie fondée sur l’invariance de jauge.

Notons également que l’interaction hadronique traitée par le modèle de Skyrme est un donné phénoménal lié à une réalité crée, le noyau et ses nucléons qui appartiennent au monde d’action (I). Ce donné phénoménal est étendu à la création des particules hadroniques appartenant à la famille de base. Sont pris en compte les hadrons composés des quarks u, d et s, tandis que les quarks c, b, t ne sont pas pris en compte. Les intentions liée à cette approche sont ainsi plus liées à des préoccupations descriptives que spéculatives ; il s’agit de décrire la phénoménologie de la cohésion nucléaire, et non pas de comprendre les fondements les plus profonds du réel, lequels sont partiellement dévoilés aux hautes énergies, tout en mettant en jeu la totalité du spectre hadronique (incluant les quarks c, t, b).

Le modèle de Skyrme est basé sur une propriété théorique du pion (méson-pi) qui est de développer un comportement du type onde solitaire, c’est-à-dire une onde qui ne se disperse pas. Skyrme interprète alors ces solitons comme des protons composés de pions (d’ Hocker, 1985, p. 538). On peut voir dans ce modèle un aspect ontophysique, mais cet aspect utilise autant que faire ce peut les données empiriques, et il n’y a pas d’entités inobservables telles que les quarks. Les nucléons deviennent alors composés de mésons. Dans ce cas, la force forte gouverne les interactions entre pions, entre pions et nucléons, ainsi que certaines résonances hadroniques. La phénoménologie des processus fort telle que la prend en compte le modèle de Skyrme a pour objectif d’expliquer à partir d’un modèle la force cohésive qui maintient les noyaux, mais aussi les résonances hadroniques produites lors de chocs élastiques à énergie élevée. En fait, le modèle de Skyrme formalise la production des hadrons avec des énergies pas trop élevée, ce qui étend le champ théorique de ce modèle aux nucléons stables, ainsi qu’aux hadrons de faible énergie possédant la saveur étrange s (Oka, 1992).

L’interaction forte est comprise dans un aspect profondément différent de celui développé dans la procédure théorique initiée par Skyrme : les quarks entrent en scène. Bien que le contexte empirique soit le même (quoique plus étendu au niveau du nombre de quarks) la formalisation est différente et semble obéir à un autre objectif. En effet, les hadrons étant composés de quarks, la phénoménologie du deuxième aspect de la force forte cherche à expliquer comment des quarks se combinent puis tiennent ensemble. Pour ce faire, la QCD est calquée sur l’électromagnétisme, tandis que l’invariance de jauge nécessite l’introduction d’un champ possédant 8 bosons véhiculant l’interaction entre quarks. Cette théorie ne donne rien de plus quant à la compréhension de la cohésion du noyau ; elle semble plus spécifiquement appropriée à l’étude des hadrons dans le sens où ces particules révèlent un dynamisme créateur propre à cette substance invisible qui est le milieu subquantique. La théorie des quarks explique également quelques aspects propres aux phénomène de réactions hadroniques. En effet, ces réactions ne permettent pas d’observer des quarks car il se trouve que la force qui lie les quarks est quasi-nulle lorsque ces quarks sont rappochés, mais que lorsque l’on cherche à les éloigner, la force devient intense au point que l’énergie le libération des quarks est infinie. Ainsi, l’énergie mise à disposition pour libérer des quarks est utilisée d’une autre manière, car à partir d’un certain seuil, l’énergie devient suffisante pour produire des hadrons supplémentaires.

La QCD semble proche de l’électromagnétisme et pourtant, sa phénoménologie est inversée car au contraire de la force électromagnétique qui décroit avec l’augmentation de la distance, la force forte décroit lorsque la distance entre quarks diminue (c’est ainsi que les physiciens raisonnent, mais la notion de distance n’est pas forcément pertinente car elle s’applique au monde étendu. La notion de proximité semble plus appropriée pour décrire ce qui se passe). Cette théorie se démarque considérablement de ce que l’on sait du monde d’action. Constitue-t-elle pour autant un supplément spéculatif plus ou moins esthétique ? Rien n’est sûr car la donnée du champ gluonique constitue une explication d’un mystère inhérent à la phénoménologie de la diffraction. Il faut en effet revenir sur ces expériences qui révèlent quelques aspects des processus faibles. Il se confirme que ce sont bien les saveurs des quarks qui interagissent de manière faible avec les électrons. En ce sens, la théorie des quarks précise quelle est la nature des processus faibles qui causent la diffraction. De plus, ces expériences montrent qu’une moitiée de l’énergie du proton n’est pas révélée, aussi, il est satisfaisant de pouvoir assigner ce vide ontophysique à la présence de processus faisant intervenir quarks et gluons, et donc insensibles aux électrons. La physique contemporaine s’oriente donc vers la construction d’une réalité invisible de nature substantielle, tandis que l’expérience doit en principe permettre d’augmenter les données autorisant cette construction.

Cette situation est formalisée par une fonction de distribution des partons (PDFs) qui formalise une certaine réalité impliquée dans la diffraction des partons, avec les données théoriques du modèle standard formalisant les processus faibles responsable de la diffraction. De plus, les données issues de la QCD sont également utilisées, et donc la PDFs combine au sein d’une construction formelle la décription des processus faibles et des processus forts faisant intervenir les gluons (Owens, 1992). Les processus interactifs faibles (leptons-hadrons) ou forts (hadrons-hadrons) sont décrits comme servant de source d’informations sur le PDFs, ou bien de vérification de prédictions déductibles de la QCD basée sur la connaissance du PDFs. Il est manifeste que la physique ne suffit plus pour interpréter les réalités sondées par la physique des particules : “it is crucial to recognise the “unphysical” aspects of the parton distribution (i.e. renormalisation and scale dépendance) as well as their attractive physical interpretation”, Owens, 1992, p.303).

Le premier aspect non-physique est la dépendance d’échelle désignée également comme autosimilarité. Cette situation se traduit par le fait que plus on sonde la réalité, plus on révèle de partons, constituants du vide. Cet état de fait est donc en contradiction totale avec les fondements de la physique atomiste où il est question de parvenir à élucider des constituants élémentaires. De plus, la fonction de distribution des partons est une construction théorique qui ne permet pas une mesure directe et non ambigüe. Enfin, la renormalisation fait appel à des régulateurs mathématiques qui n’ont pas de signification physique, tandis que les calculs effectués font apparaître des infinis. On sort donc de la physique calculable, comme cela est le cas pour la QED qui formalise l’interaction électromagnétique.

En conclusion, on note que l’interaction forte se dédouble en deux aspects, l’un étant plus proche de la réalité ordinaire liée aux nucléons, et fait l’objet d’une description à partir du modèle de Skyrme et de ses développements théoriques fondés sur les ondes solitaires liés à la non-linéarité des équations. On est ici plus proche d’une ontophysique de l’étant. L’autre aspect de l’interaction forte concerne un hypothétique dynamisme créateur universel, et indique la forme des symétries profondes de la nature, tout en révélant de possibles processus impliquant une Lumière intérieure gluonique et des quarks substantiels. L’invariance de jauge est ici fondamentale. L’intérêt de ce deuxième aspect de l’interaction forte se comprend également si l’on admet qu’il donne une explication au mystère de l’énergie manquante dans les expériences de diffraction. Auquel cas, la théorie des processus quarks-gluons et gluons-gluons participe à la compréhension des réalités les plus profondes de la nature (formalisées notamment par la fonction de distribution des partons), et ouvre probablement la voie vers la révélation de la constitution théophysique de l’univers (qui dépend bien évidemment de la physique et de l’ontophysique). Ainsi une analyse épistémologique de la QCD doit être effectuée sérieusement afin de confirmer les argumentations qui s’esquissent au cours de notre réflexion que l’on poursuit en cherchant quelles correspondances sont mises en jeu.


Lire l'article complet, et les commentaires