
Un après-midi du début de l’année 1994, alors qu’ils étaient dans la salle de contrôle d’un télescope au Chili, Nicholas Suntzeff, astronome associé à l’observatoire interaméricain du Cerro Tololo, et Brian Schmidt, qui avait tout juste terminé sa thèse au centre d’astrophysique de Harvard-Smithsonian, discutaient des avancées dans l’étude des étoiles en fin de vie qui explosent en supernovæ. Ils arrivèrent à la conclusion que le moment était enfin venu d’utiliser leur expertise dans ce domaine pour s’attaquer à l’une des questions fondamentales de la cosmologie : quel est le destin de l’Univers ?
Premier constat, la matière contenue dans le cosmos a un effet gravitationnel attractif sur tout le reste de la matière et sur l’Univers dans son ensemble. Dès lors, l’expansion de l’espace – qui a commencé lors du Big Bang et s’est poursuivie depuis – devrait ralentir à cause de la matière. Mais de combien ? Est-ce que l’expansion et l’attraction tendront vers un équilibre à l’infini ? Ou l’attraction prendra-t-elle le dessus et l’expansion finira-t-elle par faire marche arrière dans une sorte de Big Bang inversé, un Big Crunch ?
L’expansion finira-t-elle par s’inverser, et l’Univers terminer en un Big Crunch ?
Les supernovæ pouvaient apporter une réponse. Pour cela, les deux astronomes commencèrent à griffonner un plan sur une feuille et tout ce dont ils auraient besoin en termes de temps d’observation sur les télescopes, du nombre de chercheurs à mobiliser, etc.
Pendant ce temps, à quelque 9 600 kilomètres, une collaboration au laboratoire américain Lawrence-Berkeley, en Californie, sous la direction du physicien Saul Perlmutter, poursuivait déjà le même objectif, en utilisant cette approche des supernovæ. Nicholas Suntzeff et Brian Schmidt avaient entendu parler de ce projet. Mais ils savaient aussi que l’équipe du Supernova Cosmology Project (SCP) était principalement composée de physiciens qui, comme Saul Perlmutter, apprenaient l’astronomie sur le tard. D’après Brian Schmidt et Nicholas Suntzeff, une équipe d’astronomes expérimentés était en mesure de rattraper leur retard.
Et c’est bien ce qu’a fait leur équipe… juste à temps. En 1998, les deux collaborations rivales sont parvenues indépendamment à la même conclusion quant à l’ampleur du ralentissement de l’expansion de l’Univers : il n’y avait pas de ralentissement, mais une accélération !
Cette découverte, qui a maintenant vingt-cinq ans, a fourni la première preuve de l’existence de l’« énergie noire » – un nom pour désigner ce qui est à l’origine de l’accélération et qui, même à l’époque, ne signifiait presque rien, mais pouvait englober presque tout. Cette expression était presque une plaisanterie, et nous en étions les victimes : si l’énergie noire était réelle, elle devait représenter les deux tiers de la masse et de l’énergie de l’Univers. Quant à savoir ce qui la constituait, c’était un mystère.
Un quart de siècle plus tard, ce résumé est encore d’actualité, même si la science a bien progressé depuis. Au fil des décennies, les astrophysiciens ont rassemblé des preuves de plus en plus convaincantes de l’existence de l’énergie noire, et cet effort continue à alimenter une part importante de la cosmologie observationnelle tout en inspirant des méthodes toujours plus ingénieuses pour, sinon la détecter, du moins en esquisser les propriétés. Mais dès les premiers mois de 1998, les théoriciens ont compris que l’énergie noire posait un problème existentiel plus urgent que le sort de l’Univers : l’avenir de la physique.
Un problème existentiel
Le problème d’un univers rempli de matière qui ne s’est pas encore effondré sur lui-même a hanté l’astronomie au moins depuis l’introduction par Isaac Newton de sa loi universelle de la gravitation. En 1693, six ans après la publication de ses Principia, Newton a reconnu devant un ecclésiastique curieux que l’idée d’un univers en équilibre perpétuel revenait à faire en sorte que « non pas une seule aiguille, mais un nombre infini d’entre elles (autant qu’il y a de particules dans un espace infini) se tiennent exactement en équilibre sur leurs pointes. Pourtant, j’admets que c’est possible, ajouta-t-il immédiatement, au moins pour une puissance divine. »
« C’est une grande occasion manquée pour la physique théorique », a écrit Stephen Hawking dans une introduction de 1999 à une nouvelle traduction des Principia. « Newton aurait pu prédire l’expansion de l’Univers. »
Il en va de même pour Albert Einstein. Lorsqu’en 1917, il a appliqué ses équations de la relativité générale à la cosmologie, il a été confronté au même problème que Newton. Contrairement à Newton, cependant, Einstein a ajouté à l’équation non pas une puissance divine, mais un terme générique et arbitraire, représenté par le symbole grec lambda (Λ), qui maintient l’Univers en parfait équilibre.

Au cours de la décennie suivante, l’astronome Edwin Hubble a rendu Λ superflu en constatant que d’autres « univers-îles », ou galaxies, existent au-delà de la Voie lactée et que, dans l’ensemble, ces galaxies semblent s’éloigner de nous d’une manière assez simple : plus elles sont lointaines, plus vite elles creusent l’écart – comme si, peut-être, l’Univers avait émergé d’un seul événement explosif qui aurait eu lieu partout en même temps. La découverte, en 1964, de preuves à l’appui de la théorie du Big Bang a immédiatement fait passer la cosmologie du statut de métaphysique à celui de science exacte. Six ans plus tard, dans un essai paru dans le magazine Physics Today qui a marqué une génération, l’astronome (et protégé de Hubble) Allan Sandage a défini la cosmologie du Big Bang comme « la recherche de deux nombres ». Le premier est le « taux d’expansion » actuel. Le second est la « décélération de l’expansion » au fil du temps.
Plus de vingt ans encore allaient s’écouler avant que les premières recherches réelles sur le second nombre ne commencent, mais ce n’est pas une coïncidence si deux collaborations se sont attaquées au problème en même temps ou presque. Ce n’est qu’à ce moment-là que les progrès technologiques et théoriques ont rendu possible l’étude du paramètre de décélération.
À la fin des années 1980 et au début des années 1990, les moyens utilisés par les astronomes pour collecter la lumière passaient de l’analogique au numérique : des plaques photographiques, qui recueillaient environ 5 % des photons qui les frappaient, ont été remplacées par des capteurs électroniques, qui ont un taux de collecte de photons supérieur à 80 %. Il devenait alors possible de regarder plus loin dans l’Univers. Or une vision de plus en plus profonde de l’espace ouvre l’opportunité (parce que la vitesse de la lumière est finie) de « remonter dans le temps » et retracer l’histoire de l’Univers : des données indispensables pour étudier les détails de l’expansion cosmique.
Le diagramme de Hubble, comme les cosmologistes appellent le graphique utilisé par Edwin Hubble pour déterminer que l’Univers est en expansion, représente deux valeurs : les vitesses auxquelles les galaxies semblent s’éloigner de nous sur un axe et les distances des galaxies par rapport à nous sur l’autre axe.

La vitesse de récession des galaxies, c’est-à-dire la vitesse à laquelle l’étirement de l’espace les éloigne de nous, est simple à mesurer. Elle est directement reliée au décalage en fréquence de leur lumière vers l’extrémité rouge de la partie visible du spectre électromagnétique (on parle de décalage vers le rouge ou de redshift en anglais).

Il est toutefois plus difficile de déterminer la distance de ces galaxies par rapport à nous. Il faut pour cela disposer d’une « chandelle standard », c’est-à-dire d’une catégorie d’objets qui ont tous la même luminosité absolue. Si vous savez qu’une ampoule a une puissance de 100 watts et que vous l’éloignez de vous, sa luminosité apparente diminue. Cette dernière est reliée à la luminosité absolue par une loi simple qui dépend de l’inverse du carré de la distance. En mesurant la luminosité apparente de l’ampoule, il est possible de calculer à quelle distance elle se trouve.

Pour tracer son diagramme, Hubble a utilisé un type particulier d’étoiles comme chandelles standard, les céphéides, dont la luminosité varie de façon régulière (leur luminosité absolue est reliée à la période d’oscillation). Mais ces astres sont difficiles à détecter au-delà de 100 millions d’années-lumière. Or les astronomes qui veulent mesurer le taux d’expansion au cours de l’histoire de l’Univers ont besoin de remonter sur des milliards d’années-lumière.
À la fin des années 1980, les supernovæ de type Ia, c’est-à-dire l’explosion d’une naine blanche lorsqu’elle accrète trop de matière à partir d’une étoile compagnon, ont commencé à susciter de l’intérêt pour définir une nouvelle chandelle standard. La logique semblait raisonnable : si la cause de l’explosion est toujours la même, l’effet, c’est-à-dire la luminosité absolue de la déflagration, devrait l’être aussi. Cependant, des recherches plus approfondies ont montré que l’effet n’était pas uniforme : la luminosité apparente et la durée de la courbe de lumière (l’évolution de la visibilité de la « nouvelle étoile » qui s’estompe progressivement) diffèrent d’une supernova à l’autre.
En 1992, Mark Phillips, également astronome à l’observatoire interaméricain du Cerro Tololo (et futur membre de l’équipe de Nicholas Suntzeff et Brian Schmidt), a établi une corrélation entre la luminosité absolue d’une supernova et sa courbe de lumière : les supernovæ les plus brillantes diminuent lentement, tandis que les plus faibles diminuent vite. Les supernovæ de type Ia n’étaient donc pas des chandelles standard, mais elles étaient peut-être standardisables.
Compétition pour l’expansion
Pendant plusieurs années, la collaboration SCP de Saul Perlmutter avait misé sur le fait que les supernovæ de type Ia étaient des chandelles standard. Mais la possibilité de les normaliser a été proposée avant que la collaboration High-z (z est la désignation habituelle du redshift) de Brian Schmidt et Nicholas Suntzeff entre dans la course. Les deux équipes avaient donc maintenant les outils nécessaires pour atteindre leur objectif.
Le diagramme original de Hubble suggérait une relation linéaire entre la vitesse et la distance (« suggérait » parce que les incertitudes de mesure de l’astronome à l’époque ne survivraient pas à un examen par les chercheurs d’aujourd’hui). Les deux équipes des années 1990 ont choisi de représenter le décalage vers le rouge (vitesse) sur l’axe horizontal et la magnitude apparente (distance) sur l’axe vertical. En supposant que l’expansion décélère, cette ligne devrait à un moment donné s’écarter de l’axe à 45 degrés et s’infléchir vers le bas pour indiquer que les objets distants sont plus brillants et donc plus proches que ce à quoi on pourrait s’attendre sans décélération.
De 1994 à 1997, les deux groupes ont utilisé les principaux télescopes terrestres et, surtout, le télescope spatial Hubble pour collecter des données sur des dizaines de supernovæ qui leur ont permis d’étendre le diagramme de Hubble de plus en plus loin. Dès janvier 1998, ils avaient les premières preuves que la ligne divergeait effectivement de l’axe à 45 degrés. Mais au lieu de s’incurver vers le bas, la ligne s’incurvait vers le haut, ce qui indiquait que les supernovæ étaient moins lumineuses que prévu et que l’expansion ne ralentissait donc pas, mais s’accélérait. Cette conclusion est aussi contre-intuitive et, à sa manière, aussi révolutionnaire que l’a été la compréhension que la Terre ne se trouve pas au centre de l’Univers.

Pourtant, malgré la surprise, la communauté des astrophysiciens a immédiatement accepté ce résultat. Cinq mois seulement après la découverte, lors d’une conférence organisée au Fermilab, deux tiers des participants (environ 40 sur 60) ont déclaré qu’ils étaient prêts à envisager l’existence de l’« énergie noire » (terme inventé cette année-là par Michael Turner, cosmologiste de l’université de Chicago, en clin d’œil à la matière noire). Le Λ d’Einstein était, semble-t-il, de retour, avec une valeur différente pour introduire non plus une stabilité statique mais une accélération.
Certains des facteurs qui ont conduit à ce consensus rapide sont d’ordre sociologique. Deux équipes étaient parvenues au même résultat indépendamment l’une de l’autre. Ce résultat était à l’opposé de ce à quoi elles s’attendaient, elles avaient utilisé des données différentes (avec des catalogues distincts de supernovæ), et tout le monde dans la communauté connaissait l’intensité de la concurrence entre les deux équipes.
Mais un facteur au moins aussi convaincant pour consolider le consensus était d’ordre scientifique : le résultat réglait des soucis majeurs en cosmologie. À l’époque, certaines étoiles semblaient plus anciennes que l’âge supposé de l’Univers et les grandes structures, telles que les superamas de galaxies, paraissaient bien plus développées que prévu. Elles n’auraient pas dû avoir le temps d’être aussi évoluées.
Problèmes résolus ! Une expansion qui s’accélère aujourd’hui implique une expansion plus lente dans le passé ; il s’est donc écoulé plus de temps depuis le Big Bang que ce que les cosmologistes avaient estimé auparavant. Le monde était plus vieux que les scientifiques ne le pensaient.
Mais la raison la plus convaincante pour laquelle les scientifiques étaient prêts à accepter l’existence de l’énergie noire était peut-être d’ordre comptable. Pendant des années, les spécialistes se sont demandé pourquoi la densité cosmique semblait si faible. Selon le modèle qui prévalait à l’époque (et qui prévaut encore aujourd’hui), l’Univers a subi une « inflation » qui a commencé environ 10 – 36 seconde après le Big Bang et qui s’est terminée, plus ou moins, vers 10 – 33 seconde. Dans l’intervalle, la taille de l’Univers a été multipliée par un facteur 1026.
Un point pour l’Univers plat
Cette croissance vertigineuse aurait « lissé » l’espace de sorte que l’Univers aurait une géométrie dite euclidienne (par opposition à une géométrie sphérique ou hyperbolique). On dit aussi que l’Univers est « plat ». Mais cette configuration correspond à une densité de masse et d’énergie cosmique qui doit être exactement égale à la densité critique pour avoir une courbure spatiale nulle.
Avant 1998, les observations indiquaient que la composition de l’Univers était loin de cette densité critique. Les astrophysiciens avaient recensé la matière sous forme de baryons (les protons, les neutrons qui constituent les atomes qui forment l’étoffe de vous, moi, des objets de notre quotidien, des planètes, des étoiles, etc.) et de matière noire. Cette seconde composante de l’Univers n’est accessible aux télescopes dans aucune partie du spectre électromagnétique, mais elle est détectable, comme les chercheurs l’ont compris depuis les années 1970, de manière indirecte, par exemple par des effets gravitationnels dans les courbes de rotation des galaxies. Ce bilan comptable s’élevait à seulement un tiers de la densité critique. Où était le reste ? L’énergie noire était la réponse providentielle : sa contribution à la densité de masse et d’énergie serait en effet environ des deux tiers, juste ce qu’il fallait pour atteindre la densité critique.
Si les influences sociologiques et les intuitions professionnelles ont poussé les astrophysiciens à accepter l’énergie noire, il était essentiel de trouver d’autres preuves pour confirmer cette hypothèse.
L’un des moyens d’étudier la composition de l’Univers consiste à analyser le fond diffus cosmologique (CMB), le phénomène découvert en 1964 qui a fait entrer la cosmologie dans le domaine de la science. Le CMB est un rayonnement datant de l’époque où l’Univers n’avait que 379 000 ans, lorsque les atomes se sont formés et que la lumière a émergé du plasma primordial en suivant son propre chemin. D’une certaine façon, les fluctuations de température dans la carte de ce rayonnement sont l’équivalent de l’ADN de l’Univers, car elles dépendent directement des conditions qui régnaient dans l’Univers primordial avec notamment les quantités de matière baryonique, de matière noire et d’énergie noire. Simulez des millions d’univers avec des valeurs différentes et vous obtiendrez autant de cartes uniques du fond diffus.
La sonde WMAP, lancée en 2001, a fourni un premier relevé de ces fluctuations du fond diffus. Planck, un observatoire spatial encore plus précis, a commencé à collecter ses propres données sur le CMB en 2009 et a publié ses résultats définitifs en 2018, corroborant les conclusions de WMAP : l’Univers est composé à 4,9 % de matière baryonique, à 26,6 % de matière noire et à 68,5 % d’énergie noire.

Pourtant, malgré la convergence de résultats d’observations très différentes dans le cadre du modèle standard de la cosmologie, les théoriciens se sont heurtés dès le début à une question d’une évidence implacable : qu’est-ce que l’énergie noire ? Cette dernière contribue à la cohérence de notre description de l’Univers, du moins à l’échelle macroscopique, celle qui relève de la relativité générale. Mais à l’échelle microscopique, en revanche, elle n’a aucun sens.
Selon la physique quantique, l’espace n’est pas vide. Il fourmille de particules qui apparaissent et disparaissent tout aussi subitement. Chacune de ces particules porte un peu d’énergie, donc à tout instant le vide contient de l’énergie qui serait à l’origine de l’énergie noire. Cette explication semble raisonnable jusqu’à ce qu’on fasse le calcul… la physique quantique prévoit une valeur de densité d’énergie bien supérieure aux deux tiers initialement suggérés par les astronomes… d’un facteur 10120. Comme le dit la plaisanterie, même pour la cosmologie, la marge d’erreur est importante !
Dès l’hiver 1998, les théoriciens se sont attelés à la tâche de réduire cet écart en proposant de nouvelles formes d’énergie noire. Et ils y travaillent encore. Les pistes se comptent par milliers dans la littérature. Les astrophysiciens ont vite exprimé une certaine frustration. Comment s’y retrouver dans cette jungle d’hypothèses ? Adam Riess, auteur principal de l’article sur la découverte de High-z, souligne qu’à une époque il vérifiait consciencieusement tous les nouveaux articles qui sortaient sur le sujet, mais la plupart des théories étaient « trop farfelues ». Devant un parterre de théoriciens, en 2007, Brian Schmidt déclara : « Nous avons désespérément besoin de votre aide. Dites-nous [aux observateurs] ce dont vous avez besoin, nous irons le chercher pour vous. »
Des milliers d’hypothèses ont été proposées sur la nature de l’énergie noire
Depuis, la frustration des astronomes s’est transformée en une attitude proche de l’indifférence. Nicholas Suntzeff, aujourd’hui professeur émérite à l’institut Mitchell pour la physique fondamentale et l’astronomie à College Station, au Texas, avoue qu’il jette à peine un coup d’œil sur le flot quotidien d’articles en ligne. « Il existe une infinité de théories sur ce que serait l’énergie noire, mais j’ai tendance à ne pas leur accorder beaucoup de crédit », confie Richard Ellis, astronome qui était membre de l’équipe SCP. Pour découvrir ce qu’est l’énergie noire, les théoriciens doivent savoir comment elle se comporte. Par exemple, change-t-elle au cours du temps ? « Nous avons vraiment besoin d’observations plus précises pour progresser », ajoute Richard Ellis.
Les relevés sur les supernovæ de type Ia continuent de remplir le diagramme de Hubble avec de plus en plus de points de données et des barres d’incertitude de plus en plus petites. Mais cela n’aide pas les théoriciens à avancer.
Et même, à force d’affiner cette technique, les astrophysiciens commencent à devoir réexaminer la fiabilité des hypothèses qu’ils utilisent pour interpréter les mesures. « À mon avis, la valeur de cette méthode a un peu baissé au fil des années, explique Richard Ellis, aujourd’hui professeur d’astronomie à l’University College de Londres, il est presque certain, par exemple, qu’il existe plus d’un mécanisme physique à l’origine de l’explosion d’une naine blanche dans un système binaire. » Et ces mécanismes subtilement différents se traduiraient par des données qui, contrairement à la percée de Mark Phillips en 1993, ne sont pas normalisables.
Autre problème, les analyses des composants chimiques des supernovæ ont montré que les étoiles qui ont explosé il y a plus longtemps contiennent surtout des éléments légers, alors que les spécimens plus récents sont enrichis en éléments lourds (en accord avec la théorie selon laquelle ces éléments sont produits par les générations successives de supernovæ). « Il est donc logique que des matériaux moins évolués [plus anciens] arrivant sur une naine blanche dans le passé puissent modifier la nature de l’explosion », explique Richard Ellis. Malgré cela, « les astronomes sont toujours très enthousiastes à l’idée d’utiliser les supernovæ. »
La traque se poursuit
Par exemple, le projet Nearby Supernova Factory, une émanation du SCP, exploite une technique que les membres de l’équipe nomment « l’intégration des jumeaux ». Plutôt que de traiter toutes les supernovæ de type Ia comme une espèce uniforme au cours du temps, ils examinent les propriétés de spécimens dont la luminosité dans différentes longueurs d’onde suit presque exactement le même schéma d’évolution. Une fois qu’ils ont trouvé des « jumeaux », ils essaient de normaliser à partir de ces données.
En 2024, deux nouvelles installations au Chili verront le jour et commenceront leur propre relevé de milliers de supernovæ dans le ciel austral. L’observatoire Vera C. Rubin localisera d’abord les objets, puis le 4MOST (Télescope spectroscopique multi-objets de 4 mètres) identifiera leur composition chimique, ce qui permettra de comprendre pourquoi les supernovæ contenant plus d’éléments lourds explosent différemment.

La caméra du projet DES (Dark energy survey), installée sur le télescope Victor-Blanco, de l’observatoire du Cerro Tololo, au Chili, capte la lumière de centaines de millions de galaxies. Ces données serviront à mieux comprendre comment l’expansion de l’Univers a varié au cours du temps.
© Reidar Hahn/Fermi National Accelerator Laboratory
Quant aux télescopes spatiaux, les chercheurs continuent d’exploiter les supernovæ dans les archives de Hubble, et Adam Riess espère que le télescope JWST « finira par s’intéresser » aux supernovæ à grand redshift, une fois que l’instrument spatial aura atteint la plupart de ses objectifs principaux. La communauté des spécialistes des supernovæ attend également le télescope Nancy-Grace-Roman, qui succédera au JWST et dont le lancement est prévu pour le début de l’année 2027.
L’étude des supernovæ n’est pas le seul moyen de sonder la nature de l’énergie noire. Une autre solution consiste à analyser les oscillations acoustiques baryoniques (BAO), des ondes qui se sont formées lorsque les noyaux atomiques ont rebondi les uns sur les autres dans le plasma primitif, chaud et chaotique. Lorsque l’Univers s’est assez refroidi pour que les atomes s’assemblent à partir des noyaux et des électrons, ces ondes se sont figées en laissant des zones de surdensité et de sous-densité. Ces régions sont visibles dans le CMB et ont servi de graines pour les amas de galaxies. La distribution statistique des fluctuations de température du CMB, et des galaxies par la suite, est liée à une distance caractéristique séparant les structures à travers le ciel. De la même manière que les supernovæ servent de chandelles standard, fournissant une échelle de distance s’étendant de nos globes oculaires à l’ensemble de l’Univers, les BAO livrent une règle étalon. Les scientifiques peuvent mesurer l’évolution de cette distance caractéristique (et donc les variations de la vitesse d’expansion de l’Univers) en étudiant la distribution des galaxies au cours du temps. « Les BAO sont probablement la manière la plus claire de retracer l’histoire de l’expansion de l’Univers », souligne Richard Ellis.

Les astronomes attendent les résultats de deux grandes études des BAO qui devraient leur permettre de reconstituer l’évolution cosmique à des époques de plus en plus reculées dans l’Univers. L’instrument spectroscopique de l’énergie noire (DESI) installé sur le télescope Mayall, de l’observatoire américain de Kitt Peak, recueille les spectres optiques (lumière décomposée en ses longueurs d’onde constitutives) de près de 35 millions de galaxies, quasars et étoiles, à partir desquels les astronomes seront en mesure de construire une carte tridimensionnelle s’étendant des objets proches jusqu’à une époque où l’Univers avait environ un quart de son âge actuel. Les premières données, publiées en juin 2023, contenaient près de deux millions d’objets que les chercheurs étudient actuellement.

Le plan focal de la caméra de DESI est composé de 10 tronçons similaires à celui-ci. Chaque tronçon supporte 500 éléments robotisés qui pointent chacun sur une galaxie individuelle pour en mesurer la lumière.
© Marilyn Sargent/©2017 The Regents of the University of California ; Laboratoire américain Lawrence Berkeley
En 2024, le spectrographe Prime Focus, un instrument du télescope Subaru de 8,2 mètres, situé sur le Mauna Kea, à Hawaii, commencera sa propre collecte de données, mais à des distances encore plus grandes que DESI.
L’observatoire spatial Euclid de l’Agence spatiale européenne, lancé le 1er juillet 2023, apportera sa contribution au catalogue des BAO. Il utilisera également une deuxième méthode : l’effet de lentille gravitationnelle faible. Cette approche assez nouvelle exploite un effet de la relativité générale. Les galaxies et les amas de galaxies assez massifs déforment l’espace-temps de leur voisinage et dévient la lumière venant d’objets situés plus loin. Si la configuration est avantageuse, on obtient un effet de loupe qui amplifie la lumière de l’objet d’arrière-plan. Les astronomes extraient de ces données le taux de croissance des amas de galaxies, qui dépend de la compétition entre l’attraction gravitationnelle et l’effet répulsif de l’énergie noire. Les données d’Euclid devraient être disponibles d’ici à deux ou trois ans.
« Depuis la découverte de l’accélération, explique Saul Perlmutter, les cosmologistes espéraient qu’une expérience offrirait des données vingt fois plus précises, et nous avons enfin la possibilité, dans les cinq années à venir, de voir ce qui se passe lorsque nous atteignons ce niveau. »
Il y a vingt-cinq ans, en décembre, la revue Science qualifiait l’énergie noire de « percée de l’année 1998 ». Depuis, les deux équipes pionnières ont reçu de nombreuses récompenses, dont le prix Nobel de physique 2011 attribué à Saul Perlmutter, Adam Riess et Brian Schmidt. L’énergie noire est un élément essentiel du modèle cosmologique standard, au même titre que la matière baryonique, la matière noire et l’inflation.

Le télescope spatial Euclid a décollé le 1er juillet 2023. En novembre, l’Agence spatiale européenne a dévoilé les premières images en couleur de l’instrument. Sur cette photographie, 1 000 galaxies de l’amas de Persée et plus de 100 000 galaxies en arrière-plan. La lumière de certaines a mis 10 milliards d’années pour nous parvenir. Avec des outils d’une si grande précision à disposition, la traque de l’énergie noire entre dans une nouvelle ère.
© ESA/Euclid/Consortium Euclid/Nasa, J.-C. Cuillandre (CEA Paris-Saclay), G. Anselmi, CC BY-SA 3.0 IGO
Et pourtant… comme toujours en science, il est possible qu’une hypothèse fondamentale soit erronée. Par exemple, comme l’avancent certains théoriciens, nous pourrions avoir une compréhension inexacte de la gravité. Une telle erreur fausserait les données, auquel cas les mesures des BAO et les résultats d’Euclid sur les effets de lentilles gravitationnelles faibles divergeront. Les cosmologistes devront repenser leurs postulats.
D’un point de vue scientifique, ce résultat ne serait pas la pire des choses. « Ce qui a poussé les physiciens à se lancer dans ce domaine n’est généralement pas le désir de comprendre ce que nous savons déjà, me confiait Saul Perlmutter il y a quelques années, mais le désir de surprendre l’Univers en train de faire des choses vraiment bizarres. Nous aimons voir notre intuition du monde mise en défaut. »
« Je suis très heureux d’avoir dit cela, dit ce chercheur lorsque je lui rappelle cette citation aujourd’hui, parce que cela ressemble beaucoup à ce que je vois tout autour de moi. » Pourtant, en parlant des progrès (ou de l’absence de progrès), il ajoute : « c’est lent. » Il rit. « C’est bien d’avoir du mystère, mais ce serait quand même bien d’en savoir un peu plus, du côté expérimental ou du côté théorique. »
Peut-être que le déluge de données à venir aidera les théoriciens à discerner comment l’énergie noire se comporte dans l’espace et au cours du temps, ce qui contribuerait grandement à déterminer le destin de l’Univers. D’ici là, la génération de scientifiques qui a entrepris d’écrire le dernier chapitre de l’histoire du cosmos devra se contenter d’une conclusion plus modeste : « à suivre ».
Aller à la source