L'univers considéré comme un tout

par Georges Paturel last modified 2010 Apr 15 15:06


Le spectacle des galaxies nous a montré comment l'utilisation des lois de la physique, permettait de connaître des grandeurs inaccessibles à l'expérience. Un exemple était donné par l'estimation du nombre approximatif d'étoiles contenues dans une galaxie : 100 à 300 milliards d'étoiles... Si nous voulions les dénombrer, il nous faudrait compter, sans relâche, pendant trente siècles.
Le but était justement de montrer comment on pouvait obtenir de s résultats encore plus époustouflants: calculer l'âge de l'univers et déterminer l'époque à laquelle celui-ci est devenu observable.

 

 

L'expansion de l'univers

Einstein a publié sa théorie de la relativité générale où il suppose qu'un champ de gravitation est équivalent à un champ d'accélération [1].. De plus, il impose qu'aucun observateur n'a de position privilégiée, tout point de l'univers est équivalent aux autres. Enfin, il suppose que la matière est distribuée uniformément. Notons à quel point cette dernière hypothèse était audacieuse pour l'époque. En effet, en 1915, aucune observation ne militait pour une distribution uniforme de la matière. Les galaxies n'étaient pas encore reconnues comme des objets extérieurs à notre Galaxie et la distribution des étoiles dans notre Galaxie n'était visiblement pas homogène, la voie Lactée semblait nous le prouver.

W. de Sitter trouva une solution aux équations de la relativité générale, mais dans cette solution l'univers n'était pas statique. Einstein jugea cette solution non physique et pour maintenir ses hypothèses d'homogénéité et de stationnarité il modifia ses équations en introduisant la " constante cosmologique ". On peut penser que cette façon de procéder est arbitraire mais il faut savoir que l'addition de cette constante donne simplement une solution plus générale, exactement comme une constante d'intégration dans le calcul d'une primitive. Tout au plus peut-on dire que cette constante a été introduite pour une mauvaise raison (forcer l'univers à être statique). Nous reviendrons sur cette constante car elle a fait une nouvelle entrée remarquée sur la scène de la cosmologie.

Vous voyez déjà comment avance la science. Elle progresse en zigzags : il y a des erreurs, des corrections, des hypothèses hardies, des a priori, mais la trajectoire s'affine progressivement. Finalement, c'est l'expérience qui a le dernier mot. C'est ce qui va se produire pour le sujet qui nous occupe. L'astronome E. Hubble démontra en 1922 la nature " extragalactique " des galaxies. Mais il alla plus loin. Il observa que plus une galaxie était lointaine, plus son spectre montrait des raies spectrales décalées vers les grandes longueurs d'ondes, exactement comme si les galaxies étaient animées d'une vitesse de fuite, les éloignant de nous, d'autant plus rapidement qu'elles sont plus lointaines. C'est la fameuse loi de Hubble : V= H.D, où D est la distance de la galaxie, V sa " vitesse " cosmologique et H la constante de Hubble. A ce point je veux faire une remarque que je trouve importante : ce que les astronomes mesurent, ce n'est pas une vitesse, mais un décalage spectral. Bien sûr, le phénomène physique le plus simple qui explique un tel décalage est l'existence d'une vitesse entre la source et l'observateur. Mais cette vitesse n'est pas une vitesse au sens habituel du terme, même si elle en a toutes les caractéristiques. Nous appelons cette vitesse une " vitesse cosmologique " par opposition à la vitesse " propre ", habituelle.

Faisons une nouvelle remarque sur l'évolution des idées. Connaissez-vous K. Lundmark ?
Probablement non, et pourtant cet astronome suédois avait trouvé l'expansion des galaxies avant Hubble. Sans doute l'idée était-elle dans l'air à cette époque là, mais l'histoire ne retiendra que le nom de Hubble, qui eut l'audace de proposer une loi simple pour décrire cette expansion, malgré la mauvaise qualité des mesures disponibles. Il n'est pas rare en science de voir une idée germer indépendamment en plusieurs endroits.

 

L'âge de l'univers

L'homme guéri de son " anthropocentrisme " devait-il à nouveau se croire au centre de l'univers puisqu'il semblait placé au centre de ce mouvement de fuite générale des galaxies. Non, bien sûr. La relativité générale stipule qu'aucun observateur n'a de place privilégiée. Pour faire comprendre, je voudrais donner une analogie que j'aime bien, même si elle est critiquée par les puristes. C'est la fameuse image du ballon sphérique qui se gonfle. Dans ce schéma nous serions des êtres infiniment plats, courants sur la surface du ballon. Notre univers serait la surface du ballon. Si j'aime bien cette analogie c'est parce qu'elle reproduit assez bien la méthode que l'on emploie pour établir la relation entre les coordonnées d'espace et de temps, sous les hypothèses vues plus haut. Dans le calcul plus rigoureux la sphère peut avoir un rayon infini voire même imaginaire. Cette relation fixe ce qu'on appelle la métrique, en l'occurrence la métrique dite de Robertson-Walker. Le rayon variant avec le temps, la distance entre deux points immobiles sur le ballon va varier. En supposant [2] que le rayon varie proportionnellement à un paramètre t, que nous appellerons le temps cosmologique, i.e. R=a.t, on trouve que la " vitesse " entre deux points, immobiles sur la sphère, est proportionnelle à la distance D qui les sépare (attention la distance doit se mesurer à la surface sur un arc de grand cercle). Plus précisément on trouve : V= (R'/R).D, où R' est la dérivée de R par rapport au temps t. En comparant à la loi de Hubble on voit que la constante de Hubble est H= R'/R. L'âge de l'univers est défini comme le temps to qui s'est écoulé depuis l'origine t=0 jusqu'à l'instant présent. Il est facile d'établir à partir des relations données ci-dessus qu'il est égal à l'inverse de la " constante " de Hubble. Dans le modèle Einstein-deSitter que nous mentionnions en note, on trouve plus précisément to=(2/3H).

La loi de Hubble selon ce schéma est donc :

 

c.Dl/l = R'/R. D (1)

Où c est la vitesse de la lumière et D la distance de la galaxie considérée.

Au passage nous allons établir une relation qui nous servira plus loin. Quand R croît, les longueurs sur la surface croissent aussi. Si on imagine les extrémités d'une règle de longueur L, sous-tendues par un même angle au centre, on établit que R/L est une constante. Il en va de même pour les longueurs d'ondes. R/l est une constante. On établit ainsi qu'à deux instants différents to et t on a les relations suivantes (toujours en adoptant le modèle EdS):

 

R/Ro = l/lo = (t/to)2/3. (2)

Si to est le temps qui s'est écoulé depuis le début de l'univers (c'est à dire l'âge de l'univers) et t le temps auquel une source a émis un rayonnement, alors le rayonnement est reçu avec un décalage spectral Dl/l=(lo -l)/l tel que :

 

Inversement, le décalage relatif Dl/l mesuré nous donne directement le temps, compté depuis le début de l'univers, auquel la source a émis le rayonnement.

Si pour mesurer H, donc to, il est facile de mesurer le décalage spectral, Dl, observé pour une galaxie, en revanche, la distance D qui nous sépare des galaxies est très délicate à obtenir. En 1977, B. Tully et R. Fisher ont trouvé une relation, la relation TF, qui relit la vitesse de rotation d'une galaxie à sa luminosité. Une telle relation, comme nous l'avons montré à plusieurs occasions dans les Cahiers Clairaut (CC34 et CC82), permet de mesurer la distance d'une galaxie. Pour la petite histoire des sciences, J. Heidmann et ses collaboratrices, L. Gouguenheim et L. Bottinelli, utilisaient cette relation dès les années 1970. M.S. Roberts, un autre pionnier dans ce domaine, avait également pressenti l'usage d'une telle relation. Mais le formalisme était compliqué. Tully et Fisher simplifièrent l'usage de cette relation. On parle maintenant de la relation TF.

Tout paraît résolu. Il semble qu'il n'y ait qu'à appliquer la relation TF pour mesurer les distances des galaxies, et déduire la fameuse constante H. Mais la réalité est bien différente. Pour une même vitesse de rotation les galaxies n'ont pas toutes exactement la même luminosité. Il y a une certaine dispersion intrinsèque. Pour prendre une comparaison, tous les enfants d'un âge donné n'ont pas la même taille, même s'il y a bien une relation certaine entre l'âge et la taille. Le problème avec les galaxies est que, au-delà d'une certaine distance, on ne voit plus les galaxies de faible luminosité. L'échantillon est donc progressivement biaisé. C'est le biais compris par le Suédois Malmquist. Pour les galaxies un autre astronome nordique, Pekka Teerikorpi, un finlandais né de père suédois, a sans doute été le premier à comprendre clairement les subtilités de ce biais. Il nous a aidé à comprendre.
Par la prise en compte de ce biais, la valeur de la constante du Hubble fut divisée par deux et l'âge de l'univers multiplié par deux. On estime aujourd'hui que la constante de Hubble a pour valeur H=60 km.s-1Mpc-1. Converti en unités plus classiques, l'inverse de H vaut 17 Milliards d'années et l'âge de l'univers 11 milliards d'années dans le modèle EdS.

On peut se rappeler que mille fois l'inverse de la constante de Hubble mesurée, comme le font les astronomes en kilomètres par seconde et par mégaparsecs, donne un temps en milliard d'années.

 


(t en milliard d'années et H en (km/s)/Mpc)

 

La recombinaison

L'univers se dilate. On suppose que, comme pour un gaz qui se détend, la température moyenne de l'univers va en diminuant. Plus on regarde loin dans les profondeurs de l'espace, plus la température moyenne du milieu ambiant visé est grande. A la limite, la région visée est si chaude, que les atomes se cassent pour donner un mélange de particules, protons et électrons libres. Mais qui dit électrons libres dit absorption des ondes électromagnétiques, donc de la lumière. Par exemple, une plaque métallique sur laquelle les électrons de conduction circulent librement, absorbe les ondes. C'est cette propriété qui explique la cage de Faraday ou la réflexion de la lumière par un miroir métallique (voir les CC87). Mais alors, cela signifie qu'on ne voit plus rien au-delà de cette distance où il fait si chaud que les atomes se décomposent. Hélas, oui, c'est le mur de la recombinaison que nous ne pourrons franchir, dans l'état de nos connaissances, qu'avec les neutrinos ou les ondes gravitationnelles.

Les astronomes ont l'habitude de prendre le problème dans l'autre sens. Ils partent de l'univers de jadis, très chaud, et ils imaginent ce qui se passe lors du refroidissement du à l'expansion. Ils savent que les éléments chimiques se forment dans les étoiles à partir de l'hydrogène. Ils en déduisent qu'à l'origine il devait y avoir exclusivement, ou presque, de l'hydrogène, c'est à dire des protons et des électrons mais dans une chaleur telle qu'ils ne pouvaient pas se combiner. Nous pourrions envisager de remonter encore plus avant dans le temps en parlant de la soupe primitive de quarks qui va donner les protons et les électrons. Mais nous ne goûterons pas à cette soupe pour le moment. Nous imaginons donc les protons et les électrons virevoltants les uns à côté des autres à grande vitesse. Puis, la température diminuant, les vitesses vont se réduire, et, à un moment précis, un proton pourra retenir un électron. Il y aura " combinaison ". Je ne comprends pas pourquoi on appelle ce phénomène la RE-combinaison car les particules primordiales se combinent pour la première fois, de mémoire d'homme. Mais c'est ainsi, et nous ferons comme tout le monde.

Ce phénomène de la recombinaison entre un électron (é) et un proton (p) s'étudie avec les lois de la physique-chimie. Le proton et l'électron se combinent pour donner un atome d'hydrogène et de l'énergie sous forme de photon (hn). L'équilibre p + é H + hn, est régi par la loi de Saha. Arrêtons-nous un instant sur cette loi. La physique statistique nous dit que la concentration [x] d'une particule x est une fonction qui dépend de la température T, du potentiel chimique, de la masse de la dite particule et de quelques constantes fondamentales.
Le rapport des concentrations [H]/[p].[é] s'écrit donc comme une fonction de la température et de la densité totale. C'est normal, les protons et les électrons se combinent plus ou moins facilement selon leur densité et leur vitesse (température). Par ailleurs, les potentiels chimiques interviennent dans le calcul sous la forme de l'énergie libérée lors de la combinaison proton-électron. Cette valeur est connue : hn=13,6 eV. Si on calcule maintenant la concentration en électrons (relativement à celle des protons), on trouve qu'elle passe très brutalement de la valeur " un " à la valeur " zéro ". En d'autres termes on passe très vite d'un univers totalement ionisé (un électron pour un proton) à un univers où tous les électrons sont combinés. La transition est si brusque (voir la figure) qu'elle se produit dans une étroite plage de température, typiquement à 3600 degrés K. C'est à cette température que l'univers est devenu transparent.
A ce moment là, l'univers est partout baigné du rayonnement à 3600 degrés Kelvin. Quand cela s'est-il produit ? C'est ce que nous allons voir.

 

Vers les années 1970, deux ingénieurs de la Bell-Company, Penzias et Wilson, cherchaient à produire un récepteur radio aussi parfait que possible. Malgré leurs efforts ils ne parvinrent pas à supprimer un bruit de fond parasite. Ils réalisèrent bientôt que ce bruit était un signal venu de l'univers. En 1978, ils reçurent le prix Nobel de physique pour cette découverte. La mesure de la longueur d'onde au maximum permit de dire que ce signal correspondait à celui qu'émettrait un corps " chauffé " à une température de 3 degrés Kelvin. La thermodynamique nous apprend en effet qu'un corps à la température T émet principalement à la longueur d'onde l telle que le produit l.T a une valeur constante connue. Si on suppose que ce rayonnement provient de très loin, il a du subir le décalage spectral. La longueur d'onde devait être beaucoup plus courte dans le passé et donc la température beaucoup plus grande. En identifiant ce rayonnement à celui produit lors de la recombinaison protons-électrons, on en déduit que le rapport des longueurs d'ondes est dans le rapport des températures, c'est à dire de 3600/3. Le décalage spectral qui résulte est 1 + Dl/l=3600/3. D'après la relation établie plus haut (relation 3), on calcule ainsi que la recombinaison s'est produite au temps,

 

Soit environ 270 000 ans, en adoptant H=60 km.s-1Mpc-1, et en gardant le modèle Einstein-deSitter.

 

Conclusion

L'histoire de la physique ne se conclura sans doute jamais. Notre conclusion n'est donc que provisoire. Mais le résultat que l'on vient de trouver est quand même époustouflant. Imaginez une corde de 11 mètres de longueur qui matérialiserait les 11 milliards d'années de notre univers. L'Homo habilis ne serait apparu que deux millimètres avant l'une des extrémités de la corde et par son intelligence des lois de la nature il pourrait analyser des phénomènes qui se seraient produits à l'autre extrémité, à seulement 0.3 millimètres du début de la corde. Rien n'est jamais terminé. Plusieurs expériences récentes tendent à confirmer que l'univers est plat (notre sphère aurait un rayon infini et plutôt que de parler de rayon R(t) on préfère alors parler de paramètre d'échelle). Mais l'autre hypothèse du modèle EdS n'est pas confirmée. La constante cosmologique n'est pas nulle. L'univers serait bien en expansion mais une expansion accélérée.

Tous ces merveilleux résultats nous pousserait facilement à nous auto-proclamer les rois de l'univers comme étant les êtres les plus aboutis, les rois des contrées inaccessibles, les rois des connaissances ultimes ... Ne serions nous pas en train de répéter l'erreur si souvent commise en nous pensant au centre du monde. Ce n'est plus de l'anthropocentrisme géométrique mais de l'anthropocentrisme culturel. Si on essaye de prendre du recul sur nous même en regardant l'évolution de la matière depuis l'énergie primordiale et les quarks, on est frappé par les changements de phases successifs, chaque phase ayant des propriétés nouvelles que n'avaient pas les phases précédentes. Les atomes se sont formés, d'abord simples, puis de plus en plus lourds et complexes au fur et à mesure de l'évolution stellaire. Dans les régions les plus froides les molécules, combinaisons des atomes précédents, se sont formées à leur tour, d'abord simples et de plus en plus complexes, jusqu'à donner les premières briques dont la matière vivante est constituée. Ne serions nous pas simplement une étape de cette évolution grandiose ? Vous voyez qu'on passe vite à des idées subjectives hors du cadre rigoureux des sciences. Mais n'est-ce pas ainsi que la cosmologie a commencé ?

 

[1] Comme me l’a fait remarquer un collègue Y. Baryshev, cette hypothèse n’est vraie que pour les masses non chargées.

[2] Avec le modèle de Einstein-deSitter (EdS) on trouve que R=t2/3 . Ce résultat s’établit en résolvant les équations de la relativité générale dans le cas où la partie spatiale de l’univers est sans courbure et où la constante cosmologique est nulle.

Retour.gif

Personal tools