Le principe d’équivalence d’Einstein à l’épreuve de Microscope… Entretien avec Manuel Rodrigues

oneramanuel1paysage
Suite de notre découverte de l’ONERA et de ses travaux de recherche dans les domaines spatial et aéronautique*, à travers, cette fois, la rencontre avec Manuel Rodrigues (2e en partant de la gauche), chef du projet Microscope, un important programme de recherche visant à vérifier la pertinence du principe d’équivalence au fondement de la théorie de la relativité générale d’Einstein. Ni plus ni moins.

- Si vous deviez présenter les enjeux de votre programme de recherche ?

Il s’agit de concevoir et développer un instrument (T-SAGE) permettant d’éprouver dans l’espace et, avec une précision inégalée au monde (de 10-15), le principe d’équivalence énoncé par Einstein dans le cadre de sa théorie de la relativité générale. Le test est réalisé à bord du satellite de la mission Microscope, le premier micro-satellite du CNES dédié à la physique fondamentale.

- Et si vous deviez maintenant rappeler l’objet de ce principe d’équivalence ?

C’est le principe suivant lequel les lois de la physique sont les mêmes dans un système accéléré et dans un système soumis à la gravité. Autrement dit, deux objets, même de matière différente, chutent de la même façon dans le vide, indépendamment de leur masse et de leur composition.

Même si la théorie de la relativité générale permet de décrire de très nombreuses réalités, jusqu’à l’orbite de Mercure – une des énigmes qu’elle a permise de percer – elle reste insuffisante pour d’autres phénomènes observés dans l’univers : en effet, selon la relativité générale, l’énergie est de la masse, donc elle gravite. Mais si tel était le cas, la gravitation, parce qu’attractive, devrait freiner l’expansion de l’univers. Or, ce qu’on observe, c’est au contraire une expansion qui va s’accélérant au cours du temps. Une contradiction que les astrophysiciens ont surmonté en faisant l’hypothèse de l’existence d’une autre énergie, appelée énergie noire. La partie visible ne constituerait plus qu’un infime pourcentage de l’univers.

D’autres théories ont cependant été développées en réponse à ce constat. Parmi les plus importantes, il y a la mécanique quantique, qui se révèle particulièrement satisfaisante, pour la compréhension de l’infiniment petit. Elle a de surcroît permis de faire des avancées majeures dans différents domaines technologiques comme le laser ou les diagnostics médicaux par IRM.

Selon cette mécanique quantique - et c’est une différence majeure avec la théorie de la relativité générale – tous les états d’énergie ne sont pas possibles : on passe d’un état d’énergie à un autre sans transition (on parle alors de quantum d’énergie). Selon la théorie d’Einstein, en revanche, on passe de manière continue d’un état d’énergie à un autre. Cette divergence entre les deux théories ne satisfait pas les physiciens qui s’emploient à définir une théorie intermédiaire qui permettrait d’articuler les deux.

- Le programme vise-t-il donc à vérifier la possibilité de maintenir ce principe d’équivalence ?

Oui. Aujourd’hui, ce principe est vérifié au sol, avec 13 chiffres après la virgule. Mais selon des théories, ce ne serait plus le cas au delà du 13e chiffre. L’instrument scientifique que nous avons conçu et développé à l’ONERA va donc vérifier la permanence de ce principe d’équivalence 15 chiffres après la virgule et, du même coup, le bien fondé ou pas des théories alternatives.

- Qu’est-ce que cela fait-il à l’ingénieur que vous êtes de prendre part à ces recherches qui agitent la communauté des physiciens ?

C’est bien sûr une aventure exceptionnelle : les résultats de notre programme de recherche vont tout de même peut-être marquer l’histoire des sciences de l’univers ! C’est dire aussi la responsabilité qui pèse sur nos épaules !

- En quoi consiste l’apport de l’ONERA ?

Initialement, le contrat conclu avec le CNES, qui dirige le programme, prévoyait, comme je l’ai indiqué, la conception et le développement de l’instrument embarqué dans le satellite Microscope. Nous avons proposé d’aller au-delà, en abritant, ici, à Palaiseau, le Centre de Mission Scientifique en charge du pilotage des expériences dans l’espace, de la récolte des données et de leur analyse. De plus, la coordination de la mission scientifique est assurée, au titre de PI (Principal Investigateur), par Pierre Touboul, le directeur du Département Mesures Physiques de l’ONERA. Nous participerons donc aussi à la publication des résultats finaux.

- Depuis quand l’ONERA est-il engagé dans ce programme ?

Depuis 2000. Une étape importante a été franchie en 2016, avec le lancement du satellite…

- Comme expliquer ce laps de temps, plus de quinze ans ?

Et le programme n’est pas terminé ! L’explication est simple : le domaine spatial n’est pas un long fleuve tranquille, sans que les défis technologiques y soient toujours pour quelque chose… Quelques mois à peine après avoir lancé le programme, le CNES a été confronté à des contraintes budgétaires qui l’ont obligé à geler un certain nombre de programmes. De 2000 à 2006, nous avons reçu des financements moindres que prévus, mais qui nous ont tout de même permis de mener des études et d’améliorer notre concept. A partir de 2006, nous avons pu avancer en commençant à réaliser un premier prototype. Une phase indispensable car personne au monde n’avait encore conçu ce type d’instrument, particulièrement complexe. Autant le reconnaître, nous avons depuis connu d’autres aléas mais inhérents aux domaines de recherche qui sont à la pointe de la technologie. Sur les dix années, pas moins de quatre ont été consacrées rien qu’au développement du prototype. Les six autres l’ont été au modèle de base, au prix de deux années supplémentaires d’aléas techniques.

- Comment parvient-on à mener un projet aussi complexe dans la durée ? On devine l’intérêt des institutions et de leur inscription dans le temps. Mais cela ne suppose-t-il pas la présence de personnes à même d’assurer en quelque sorte la mémoire d’un programme de recherche aussi long ? D’ailleurs, vous-même, quand y avez vous pris part ?

J’y participe depuis ses débuts ! Avec le recul, et sans m’attribuer à moi seul le mérite, je crois important qu’un programme puisse s’appuyer sur des gens assez motivés pour le poursuivre dans la durée. Dans ce domaine de recherche-ci comme dans d’autres, on a parfois besoin de temps pour bien maîtriser le sujet et commencer à tirer profit du moindre enseignement de nos études.

- Qu’est-ce qui vous motive d’ailleurs à titre personnel ?

Il y a bien sûr l’enjeu scientifique, proprement colossal. Pouvoir travailler dans ce domaine – il s’agit tout de même de la théorie de la relativité générale d’Einstein, une personnalité s’il en est – est forcément motivant. Qui plus est, j’avais toujours rêvé de travailler dans le domaine spatial !

- Venons-en aux ressources que vous mobilisez pour les besoins de ce programme : outre le CNES, avez-vous d’autres partenaires ?

Oui. Un programme comme celui-ci mobilise plusieurs équipes et organismes de recherche français et européens. Pour notre part, nous nous sommes associés à un partenaire historique : l’Observatoire de la Côte d’Azur avec lequel nous travaillons depuis les années 70. La première fois, c’était à l’occasion d’une autre mission du CNES, lancée en deux temps, en 1971 et 1976 : la mission Cactus, du nom du premier accéléromètre à réaliser une cartographie du champ des gravités de la terre. Depuis, comme vous vous en doutez, les équipes de recherche ont changé, tant du côté de l’Observatoire que de l’ONERA, mais depuis ce temps-là, les deux organismes ont toujours entretenu des relations privilégiées.

- Quels autres partenaires se sont-ils imposés ? Une manière de vous inviter à illustrer comment un programme comme le vôtre s’élabore par agrégation successive, fût-ce de manière fortuite…

De ce point de vue, le ZARM est un bon exemple : c’est un laboratoire de microgravité de l’Université de Brême, dont l’Agence spatiale européenne (qui nous avait passé commande d’un accéléromètre pour les besoins d’une mission conjointe avec la Nasa), nous avait recommandé de nous rapprocher pour réaliser nos tests en conditions quasi réelles (le ZARM disposait d’une tour de chute libre). C’est en travaillant ainsi avec lui que nous avons découvert qu’il couvrait un champ d’activité bien plus large, en physique fondamentale. La première collaboration s’étant bien passée, nous avons naturellement eu envie de l’associer à notre programme actuel : en plus d’assurer les tests de chute libre, il a participé à leur définition.

- Une illustration, au passage, de la manière dont la recherche se fait : au moyen d’équipements sophistiqués, mais aussi d’interactions entre des ingénieurs et chercheurs qui ont envie de travailler ensemble…

Oui, a fortiori quand vos interlocuteurs sont des personnalités, comme c’était le cas du responsable du département de l’université de Brême, dont dépend le Zarm. Il est d’ailleurs aujourd’hui à la tête du DLR, l’Agence spatiale allemande. Nous nous sommes tout de suite bien entendus avec lui. Et il en va pour le chercheur comme du commun des mortels : il ne travaille jamais aussi bien qu’avec des personnes avec lesquelles il s’entend !

- Reste que vous avez jusqu’ici cité plusieurs partenaires, tous extérieurs au Plateau de Saclay. Est-ce à dire que l’écosystème Paris-Saclay n’est pas plus favorable que cela à la réalisation de votre programme ?

(Rire) Si. Le programme a aussi associé des acteurs de Paris-Saclay, mais un peu plus tard, au cours de son développement : en 2014, précisément, quand nous avons commencé à monter le Centre de Mission Scientifique du satellite Microscope, en prévision du lancement prévu en 2016. Sans que cela relativise la portée de leur contribution. Au contraire. D’ailleurs, c’est même à un chercheur du Plateau de Saclay que l’on doit d’avoir sauvé le programme…

- Expliquez-vous…

En commençant à réfléchir à la manière dont nous allions traiter les données, nous avons anticipé sur les défauts qu’elles pouvaient présenter, en particulier ce qu’on appelle les « trous de données ». De prime abord, nous avons pensé recourir à une solution basique, celle du moindre carré : on prend deux points et on fait une régression linéaire comme celle qu’on apprend au lycée. Sauf que le résultat n’était pas aussi probant ainsi que devaient le montrer les calculs d’un thésard. Ce qui signifiait le risque de voir réduites à néant les chances de réussite de la mission…

- Comment faire face à une telle découverte ?

Dans un premier temps, nous nous sommes dit que les calculs de ce thésard devaient être erronés ! Un collègue de l’Observatoire de la Côté d’Azur les a donc repris en parallèle. Force était de constater que notre thésard avait vu juste. Autant dire que la situation paraissait des plus critiques… Notre thésard a commencé par inventorier les techniques permettant de boucher les trous de données en consultant ce qui avait été publié sur le sujet. Nous avons cherché de notre côté. Un membre de notre équipe connaissait un chercheur astrophysicien du CEA de Saclay, qui était confronté à la même problématique – des images manquantes sous l’effet de problèmes de télémétrie ou de perturbations atmosphériques. Dans le domaine de l’Astrophysique des techniques existaient. Nous avons donc monté un projet commun dans le cadre du Labex UnivEarthS pour adapter ces méthodes de calcul à notre cas sur Microscope. La méthode consiste non pas à boucher, mais à reconstruire l’image issue des téléscopes, en s’appuyant sur des techniques dites de repainting, utilisées aussi en photographie pour reconstituer des images dégradées. Après le LabEx UnivEarthS, nous avons également rejoint le groupe du Département Sciences de la Planète et de l’Univers (SPU), qui s’est constitué au sein de l’Université Paris-Saclay, autour du traitement des données scientifiques spatiales. Il nous permet d’échanger avec des astrophysiciens autour de nos différentes techniques de traitement de signal, à travers des colloques et des séminaires. Les thèmes abordés peuvent être très divers : ils vont du Big Data jusqu’aux techniques de correction des données spatiales.

- Une illustration, cette fois, du fait que la recherche procède aussi par des pas de côté, en se confrontant à des chercheurs d’univers très différents…

En effet. Je suis convaincu que si on veut faire de nouvelles avancées voire des ruptures, franchir une marche supplémentaire, décisive, il importe de savoir investir des domaines très différents du sien. J’ai eu la chance de faire mes études à l’Ecole supérieure de Physique Chimie Industrielle de Paris (l’école de feu Pierre-Gilles de Gennes, une autre personnalité s’il en est) où on nous incitait à toujours penser à regarder ailleurs que dans son champ de prédilection. J’ai eu aussi la chance de travailler avec Georges Charpak qui a eu l’idée d’appliquer son fameux détecteur de particules à un tout autre domaine, l’imagerie médicale.

- Vous étiez donc prédisposé à cette approche interdisciplinaire requise par la mission qui vous occupe aujourd’hui…

Exactement.

- Où en est cette mission et quelle en est la prochaine étape ?

En avril 2016, une étape importante a été franchie avec le lancement du satellite Microscope. Jusqu’en novembre, nous avons procédé aux phases de tests de notre instrument. Puis, pendant les deux années à venir, nous alternerons des sessions scientifiques et des sessions d’étalonnage de façon à extraire ce fameux signal de violation du principe d’équivalence. Ce signal sera, en effet, très probablement, noyé dans un bruit lié notamment aux paramètres instrumentaux, qu’il faut donc pouvoir estimer.

Avec le CNES, nous nous sommes donné un an, après la fin de la mission en 2018, pour valider les données et nous assurer que le signal de violation n’est pas une erreur de mesure. Suite à quoi nous publierons un papier signé avec les différentes institutions partenaire – le CNES, l’Observatoire de la Côte d’Azur, le ZARM, etc.

- Malgré le poids des enjeux, on vous sent zen…

Il faut l’être pour mener un tel programme. Et puis comment ne pas être d’abord heureux d’y participer ?

Pour en savoir plus sur le satellite Microscope, cliquer ici.

Voir aussi les sites de l’ONERA (cliquer ici) et du Département des Sciences de la Planète et de l’Univers, de l’Université Paris-Saclay (cliquer ici).

* Pour mémoire, le précédent article de cette série est un entretien avec Elise Koeniguer, en charge de Méduse, un « Programme Fédérateur de Recherche » visant à améliorer le suivi d’évolution d’un site au moyen d’’images satellitaires « intelligentes ». Pour y accéder, cliquer ici.

1 commentaire à cet article
  1. Ping : Des images satellitaires « intelligentes » au service du territoire. Entretien avec Elise Koeniguer | Paris-Saclay

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>