Une nouvelle théorie menace de dynamiter les lois de la physique

par Rollo
vendredi 9 février 2007

Selon Robert Laughlin, Prix Nobel 1998 de Physique, les lois du monde macroscopique sont indépendantes de celles du monde microscopique et résultent uniquement de comportements collectifs. En d’autres termes, aucune loi ne peut être hiérarchisée ou considérée comme fondamentale si on augmente l’échelle de complexité à l’infini. Cette nouvelle théorie dite de l’émergence s’oppose au réductionnisme conventionnel selon lequel les lois de la physique sont déduites des propriétés des particules élémentaires et de leur interaction. Aujourd’hui de nombreux physiciens se rallient à cette cause tout en piétinant les intérêts des grands pontifes de la Physique.

"Le tout est plus que la somme des parties"
Aristote, 350 av. JC


L’émergence selon Laughlin

Dans un interview de la revue La Recherche [1], Robert Laughlin explique sa propre vision, qui repose sur "la perfection émergeant de l’imperfection", en faisant l’analogie avec un tableau impressionniste de Monet (le jardin de Giverny) :

"Rendu par Monet, un champ de fleurs suscite notre intérêt car il apparaît comme un tout parfait. Les tâches de peintures ont néanmoins des formes aléatoires ; elles sont imparfaites. Cette imperfection montre que l’essence du tableau est son niveau d’organisation... Pour ainsi dire le tableau "émerge" d’un ensemble de tâches apparemment désordonné".

Concrètement, un exemple de phénomène physique mettant en avant cette théorie est celui de la cristallisation :

"Il est facile d’expliquer que les atomes tendent à cristalliser parce qu’ils interagissent les uns avec les autres selon des règles bien définies...Nous nous reposons sur les lois de la rigidité..., même si, autant que je sache, il est impossible de les déduire de la physique atomique".

la conclusion de Laughlin vise le fondement même de la physique, science expérimentale et bastion du réductionnisme. Elle est née de l’observation de phénomènes naturels et de leurs postulats sous-jacents, de la même manière que dans la légende bien connue d’Isaac Newton découvrant la loi de la gravitation en voyant une pomme tomber d’un arbre. Pour lui l’ère du réductionnisme a clairement sonné [2] ; toutes les théories actuelles ont en fait émergé les unes des autres en s’appuyant sur des axiomes déterministes.


Le déclin du déterminisme

Le déterminisme universel, un des plus forts symbôles du réductionnisme du XIXème siècle, s’appuie sur le principe de causalité :

  1. Tout phénomène a une cause

  2. Dans les mêmes conditions, les mêmes causes sont suivies des mêmes effets.

Le déterminisme a été remis en cause au siècle suivant par deux grandes théories : la mécanique quantique et un peu plus tard le chaos déterministe.

La première a entraîné le principe d’incertitude de Heisenberg (1927) qui implique qu’il n’est pas possible de connaître avec exactitude à la fois la position et la quantité de mouvement (masse fois vitesse) d’une particule. Il faut avoir recours au calcul probabiliste.

La seconde décrit un système déterministe non prédictible. C’est l’application de la sensibilité aux conditions initiales, découverte au XIXème siècle par Poincarré, qui a permis de mitiger les conséquences du principe de causalité et de développer la théorie du chaos déterministe :

Une modification infime des conditions initiales peut provoquer des résultats imprévisibles sur le long terme.

Le chaos déterministe s’appuie d’ailleurs sur la mécanique newtonienne et ne la remet nullement en cause. Elle donne par exemple une explication à un problème aussi simple que la description des mouvements du double pendule [3]. La métaphore du papillon énoncée en 1972 par le météorologue Lorenz illustre bien ce principe : "Prédictibilité : le battement d’aile d’un papillon au Brésil peut-il déclencher une tornade au Texas ?".

Si l’on se base sur la pensée de Laughlin, la mécanique quantique et le chaos déterministe sont en fait des systèmes réductionnistes "émergés". A l’heure actuelle, la seule théorie déterministe qui pourrait aboutir à une unification de toutes les autres est le modèle des supercordes qui postule que toute particule ou force fondamentale peut être décrite comme l’interaction d’un ensemble de vibrations infinitésimales. Malheureusement il est impossible de vérifier cette théorie purement abstraite par l’expérience ou l’observation. Là encore les conflits d’intérêts ou l’échec de l’outil mathématique détermineront (feront émerger ?) l’avenir de l’émergence ou des supercordes. Comme le dit Robert Laughlin on en revient finalement à un débat idéologique, puisque "même les scientifiques adhèrent à des sytèmes de croyance". Entre les bonnes vieilles supercordes de papy et le multiverse féérique d’Andrei Linde [4], il revient à chacun de se faire sa propre opinion.


[1] La Recherche n° 405, février 2007

[2] Robert Laughlin, A différent universe : reinventing Physics from the bottom down, Basic Books, 2005

[3] http://www.youtube.com/watch?v=8VmTiyTut6A

[4] http://www.stanford.edu/ alinde/



Lire l'article complet, et les commentaires