Le Naturel Est-il Naturel? - Vue Alternative

Table des matières:

Le Naturel Est-il Naturel? - Vue Alternative
Le Naturel Est-il Naturel? - Vue Alternative
Anonim

Les spécialistes du domaine de la physique fondamentale (et maintenant, par définition, de la théorie des particules élémentaires, de l'astrophysique relativiste et de la cosmologie) comparent souvent l'état de leur science à la situation de la fin du XIXe siècle. La physique de l'époque, basée sur la mécanique newtonienne, la théorie maxwellienne du champ électromagnétique, la thermodynamique et la mécanique statistique de Boltzmann-Gibbs, ont expliqué avec succès presque tous les résultats expérimentaux. Certes, il y avait aussi des malentendus - le résultat nul de l'expérience de Michelson-Morley, l'absence d'une explication théorique des spectres de rayonnement du corps noir, l'instabilité de la matière, se manifestant par le phénomène de la radioactivité. Cependant, ils étaient peu nombreux et ils n'ont pas détruit l'espoir d'un triomphe garanti des idées scientifiques formées - du moins,du point de vue de la majorité absolue des scientifiques réputés. Presque personne ne s'attendait à une limitation radicale de l'applicabilité du paradigme classique et à l'émergence d'une physique fondamentalement nouvelle. Et pourtant, elle est née - et en seulement trois décennies. Par souci d'équité, il convient de noter que la physique classique a depuis élargi ses capacités à tel point que ses réalisations auraient semblé étrangères à des titans d'autrefois tels que Faraday, Clausius, Helmholtz, Rayleigh, Kelvin et Lorenz. Mais c'est une histoire complètement différente.que ses réalisations auraient semblé étrangères aux titans des temps anciens comme Faraday, Clausius, Helmholtz, Rayleigh, Kelvin et Lorenz. Mais c'est une histoire complètement différente.que ses exploits auraient semblé étrangers à des titans d'autrefois comme Faraday, Clausius, Helmholtz, Rayleigh, Kelvin et Lorenz. Mais c'est une histoire complètement différente.

Une discussion détaillée des difficultés de la physique fondamentale moderne prendra trop de place et dépasse mon intention. Par conséquent, je me limiterai à quelques faiblesses bien connues de la théorie la plus réussie et la plus universelle du micromonde - le modèle standard des particules élémentaires. Il décrit deux des trois interactions fondamentales - forte et électrofaible, mais n'affecte pas la gravité. Cette très grande théorie a permis de comprendre de nombreux phénomènes en utilisant le principe de l'invariance de jauge. Cependant, elle n'a pas expliqué la présence de masse dans les neutrinos et n'a pas révélé la dynamique de la rupture de symétrie spontanée de l'interaction électrofaible, responsable de l'apparition de masse due au mécanisme de Higgs. Il n'a pas permis de prédire la nature et les propriétés des particules qui peuvent être considérées comme des candidats au rôle de porteurs de matière noire. Le modèle standard n'a pas non plus été en mesure d'établir des liens sans ambiguïté avec les théories inflationnistes qui sont au cœur de la cosmologie moderne. Et, finalement, elle n'a pas clarifié la voie de la construction d'une théorie quantique de la gravitation, malgré les efforts véritablement titanesques des théoriciens.

Je ne présume pas que les exemples cités (et il y en a d'autres) permettent de juger du passage de la physique fondamentale à un état instable chargé d'une nouvelle révolution scientifique. Il y a des opinions différentes à ce sujet. Je m'intéresse à une question qui n'est pas si globale, mais non moins intéressante. De nombreuses publications contemporaines remettent en question l'applicabilité du critère de naturalité des concepts théoriques, qui a longtemps été considéré comme un principe directeur fiable et efficace dans la construction de modèles de microcosmes (voir, par exemple, GF Giuduce, 2017. The Dawn of the Post-Naturalness Era). Est-ce le cas, quel est le caractère naturel d'une théorie physique et qu'est-ce qui peut la remplacer? Pour commencer, j'en ai parlé avec Sergei Troitsky, chercheur en chef à l'Institut de recherche nucléaire de l'Académie des sciences de Russie.

Sergey Vadimovich Troitsky, membre correspondant de l'Académie des sciences de Russie, chercheur principal à l'Institut de recherche nucléaire de l'Académie des sciences de Russie. Photo de prof-ras.ru
Sergey Vadimovich Troitsky, membre correspondant de l'Académie des sciences de Russie, chercheur principal à l'Institut de recherche nucléaire de l'Académie des sciences de Russie. Photo de prof-ras.ru

Sergey Vadimovich Troitsky, membre correspondant de l'Académie des sciences de Russie, chercheur principal à l'Institut de recherche nucléaire de l'Académie des sciences de Russie. Photo de prof-ras.ru

Sergei, d'abord, convenons de l'essentiel. Comment évaluez-vous l'état actuel de la physique fondamentale? Selon la terminologie bien connue de Thomas Kuhn, est-ce une science normale, une science en phase d'avant la crise ou simplement en crise?

ST: Vous considérez la cosmologie comme une physique fondamentale. C'est tout à fait raisonnable, mais je n'en suis pas un expert et je m'abstiendrai donc de procéder à des évaluations. Mais si nous parlons de physique des hautes énergies et du modèle standard des particules élémentaires comme fondement théorique, alors dans ce domaine, en fait, tout est très difficile. Depuis de nombreuses années, le grand collisionneur de hadrons (LHC) travaille au CERN et produit des résultats. Grâce à lui, la situation en physique des particules est devenue, d'une part, très ennuyeuse et, d'autre part, extrêmement intéressante. Je me souviens souvent que peu de temps avant le lancement du LHC, un physicien théoricien très respecté avait prédit que désormais un large pilier s’ouvrirait dans notre science, ce qui conduirait rapidement à des découvertes majeures. Il pensait que littéralement dans les premières heures de fonctionnement du collisionneur ou, au plus tard, dans un délai d'un an, des partenaires de particules déjà connues seraient identifiéslongtemps prédit par la théorie de la supersymétrie. Ils étaient considérés à l'avance comme des particules de matière noire attendues depuis longtemps et pouvant être étudiées pendant de nombreuses années. Telle est la grande perspective de notre science.

Et que s'est-il passé en pratique? Il n'y avait pas de super partenaires, et non, et les chances de les ouvrir à l'avenir se sont considérablement atténuées. Il y a six ans, le boson de Higgs a été capturé au LHC, et il est devenu une sensation mondiale. Mais comment l'évaluer? Je dirais que c'est, en un sens, la réalisation la plus terrible du LHC, car le Higgs a été prédit il y a longtemps. Tout serait bien plus intéressant s'il n'était pas possible de l'ouvrir. Et maintenant, il s'avère que nous n'avons que le modèle standard, même s'il est bien confirmé dans les expériences. Les miracles ne se sont pas produits, les découvertes qui n'entrent pas dans le cadre du modèle standard n'ont pas été faites. En ce sens, la situation est bien d'avant la crise, car nous savons avec certitude que le modèle standard n'est pas complet. Vous l'avez déjà noté dans l'introduction de notre conversation.

Lorsque deux protons entrent en collision (non représentés sur la figure), deux quarks (Quark) se forment, qui, une fois fusionnés, forment un boson W (boson vectoriel faible) - une particule portant une faible interaction. Le boson W émet le boson de Higgs, qui se désintègre en deux quarks b (quark du bas). Image tirée de l'article: B. Tuchming, 2018. Désintégration longtemps recherchée du boson de Higgs vu
Lorsque deux protons entrent en collision (non représentés sur la figure), deux quarks (Quark) se forment, qui, une fois fusionnés, forment un boson W (boson vectoriel faible) - une particule portant une faible interaction. Le boson W émet le boson de Higgs, qui se désintègre en deux quarks b (quark du bas). Image tirée de l'article: B. Tuchming, 2018. Désintégration longtemps recherchée du boson de Higgs vu

Lorsque deux protons entrent en collision (non représentés sur la figure), deux quarks (Quark) se forment, qui, une fois fusionnés, forment un boson W (boson vectoriel faible) - une particule portant une faible interaction. Le boson W émet le boson de Higgs, qui se désintègre en deux quarks b (quark du bas). Image tirée de l'article: B. Tuchming, 2018. Désintégration longtemps recherchée du boson de Higgs vu.

Vidéo promotionelle:

Alors allons plus loin. Quelle est l'importance du principe de naturalité dans la théorie des particules et qu'est-ce que c'est? Ce n'est pas un simple respect du bon sens, n'est-ce pas?

ST: Je le vois comme une sorte de critère esthétique, mais des explications sont nécessaires ici. Le modèle standard comprend trois composants. Tout d'abord, c'est la liste des particules qu'il contient. Tous ont déjà été découverts, le boson de Higgs était le dernier. Deuxièmement, il y a un groupe d'interactions qu'elle décrit. Mais il y a aussi une troisième partie - un ensemble de paramètres libres. Ce sont dix-neuf nombres qui ne peuvent être déterminés qu'expérimentalement, puisqu'ils ne sont pas calculés dans le cadre du modèle lui-même (voir S. V. Troitsky, 2012. Problèmes non résolus de physique des particules élémentaires).

Et c'est là que surgissent les difficultés. Tout d'abord, il y a trop de ces paramètres. Dix-neuf est un nombre étrange qui ne semble pas suivre de n'importe où. De plus, leurs significations sont trop différentes et donc difficiles à expliquer. Disons que le nombre de paramètres libres comprend les masses de leptons - électron, muon et particule tau. Un muon est environ deux cents fois plus lourd qu'un électron, et un tau est près de vingt fois plus massif qu'un muon. C'est la même chose avec les quarks - leurs masses diffèrent par ordre de grandeur, et tout le reste est identique.

Les masses de toutes les particules du modèle standard sont dispersées sur une très large plage. Dans le modèle standard, cette hiérarchie de masse n'est pas expliquée de manière satisfaisante. Image de la section Difficultés du modèle standard du projet d'Igor Ivanov sur le grand collisionneur de hadrons
Les masses de toutes les particules du modèle standard sont dispersées sur une très large plage. Dans le modèle standard, cette hiérarchie de masse n'est pas expliquée de manière satisfaisante. Image de la section Difficultés du modèle standard du projet d'Igor Ivanov sur le grand collisionneur de hadrons

Les masses de toutes les particules du modèle standard sont dispersées sur une très large plage. Dans le modèle standard, cette hiérarchie de masse n'est pas expliquée de manière satisfaisante. Image de la section Difficultés du modèle standard du projet d'Igor Ivanov sur le grand collisionneur de hadrons.

Un autre exemple est la valeur du paramètre sans dimension, qui caractérise la violation de l'invariance CP dans les interactions fortes. Sa valeur exacte est inconnue, mais les expériences montrent que dans tous les cas, elle est inférieure à 10-9. Encore une fois, c'est étrange. En général, les paramètres libres du modèle standard varient considérablement en ampleur et semblent presque aléatoires.

Une des méthodes d'enregistrement expérimental des axions. La figure en bleu montre le flux estimé des axions émis par le Soleil, qui sont ensuite convertis dans le champ magnétique terrestre (rouge) en rayons X (orange). Ces rayons pourraient être détectés par le télescope spatial XMM-Newton. On ne sait toujours pas où chercher les axions: ils peuvent être des particules de matière noire ou se manifester dans l'évolution des étoiles
Une des méthodes d'enregistrement expérimental des axions. La figure en bleu montre le flux estimé des axions émis par le Soleil, qui sont ensuite convertis dans le champ magnétique terrestre (rouge) en rayons X (orange). Ces rayons pourraient être détectés par le télescope spatial XMM-Newton. On ne sait toujours pas où chercher les axions: ils peuvent être des particules de matière noire ou se manifester dans l'évolution des étoiles

Une des méthodes d'enregistrement expérimental des axions. La figure en bleu montre le flux estimé des axions émis par le Soleil, qui sont ensuite convertis dans le champ magnétique terrestre (rouge) en rayons X (orange). Ces rayons pourraient être détectés par le télescope spatial XMM-Newton. On ne sait toujours pas où chercher les axions: ils peuvent être des particules de matière noire ou se manifester dans l'évolution des étoiles.

Donc, il y a trop de paramètres libres du modèle standard, leurs valeurs semblent non motivées et excessivement dispersées. Mais qu'est-ce que le naturel a à voir avec cela?

S. T.: Et nous l'avons juste approchée. En physique élémentaire des particules, le principe de naturalité des modèles théoriques a une signification très spécifique. Cela exige que tous les paramètres libres sans dimension soient égaux à zéro, ou que l'ordre de grandeur ne soit pas trop différent de un - disons, dans la plage d'un millième à mille. Les paramètres du modèle standard ne répondent manifestement pas à ce critère. Mais il y a aussi une condition supplémentaire, qui a été formulée en 1980 par le remarquable physicien théoricien néerlandais Gerard 't Hooft, l'un des créateurs du modèle standard. Il a postulé qu'une très petite valeur de tout paramètre libre ne reçoit une explication naturelle que si sa mise à zéro stricte conduit à l'apparition d'une symétrie supplémentaire, à laquelle obéissent les équations de la théorie. Selon 't Hooft,La «proximité» d'une telle symétrie sert de sorte de bouclier protégeant la rareté de ce paramètre des corrections importantes dues aux processus quantiques impliquant des particules virtuelles. Quand j'étais étudiant et étudiant diplômé, toute notre science s'est littéralement épanouie avec ce postulat. Mais c'est encore un affaiblissement du principe de naturalité, dont nous discutons.

Gerard 't Hooft, physicien théoricien néerlandais, l'un des fondateurs du modèle standard. Photo du site sureshemre.wordpress.com
Gerard 't Hooft, physicien théoricien néerlandais, l'un des fondateurs du modèle standard. Photo du site sureshemre.wordpress.com

Gerard 't Hooft, physicien théoricien néerlandais, l'un des fondateurs du modèle standard. Photo du site sureshemre.wordpress.com

Que se passe-t-il si vous dépassez le modèle standard?

ST: Ici aussi, se pose le problème du naturel, quoique d'un autre ordre. Le paramètre dimensionnel le plus important du modèle standard est la moyenne du vide du champ de Higgs. Il détermine l'échelle d'énergie de l'interaction électrofaible, et les masses de particules en dépendent. En dehors du modèle standard, il n'existe qu'un seul paramètre également fondamental de la même dimension. Il s'agit bien entendu de la masse de Planck, qui définit l'échelle d'énergie pour les effets quantiques associés à la gravité. Le champ de Higgs est d'environ 250 GeV, soit le double de la masse du boson de Higgs. La masse de Planck est d'environ 1019 GeV. Leur ratio est donc soit un très petit nombre, soit un nombre gigantesque, selon ce qu'il faut mettre dans le numérateur et ce qu'il y a dans le dénominateur. En fait, d'autres échelles intéressantes en dehors du modèle standard sont en cours de discussion,mais ils sont aussi infiniment plus grands que le champ de Higgs. Alors là aussi, on a affaire à une étrangeté évidente, c'est-à-dire à un manque de naturel.

Alors, peut-être vaut-il mieux considérer le principe comme une relique naturelle de la science du XXe siècle et l'abandonner complètement? Ce n'est pas pour rien que certains scientifiques parlent du début de l'ère postnaturelle

ST: Eh bien, même un refus complet ne résoudra pas tous nos problèmes. Comme je l'ai dit, le principe du naturel est quelque chose du domaine de l'esthétique. Mais il y a aussi des problèmes expérimentaux qui ne mèneront nulle part. Disons que l'on sait maintenant avec certitude que le neutrino a une masse, alors que les symétries du modèle standard exigent qu'elle soit strictement nulle. Il en va de même pour la matière noire - dans le modèle standard, ce n'est pas le cas, mais dans la vie, apparemment, c'est le cas. Il est possible que si les difficultés expérimentales peuvent être raisonnablement résolues, rien ne devra être abandonné. Mais, je le répète, tout ce complexe de problèmes est bien réel et indique la nature de crise de la situation actuelle en physique fondamentale. Il est possible que la sortie de cette crise soit une révolution scientifique et un changement de paradigme existant.

Sergey, que signifie le principe du naturel pour vous personnellement? Peut-être même émotionnellement?

ST: Pour moi, c'est, en un sens, le principe de calculabilité. Pouvons-nous non seulement tirer de l'expérience, mais calculer tous ces 19 paramètres? Ou du moins les réduire à un seul paramètre vraiment gratuit? Ce serait bien pour moi. Mais jusqu'à présent, cette possibilité n'est pas visible. Soit dit en passant, à un moment donné, beaucoup espéraient que les principales difficultés du modèle standard pourraient être résolues sur la base du concept de supersymétrie. Cependant, même les généralisations supersymétriques minimales du modèle standard contiennent jusqu'à 105 paramètres libres. C'est déjà vraiment mauvais.

Mais pour un tel calcul, vous devez vous fier à quelque chose. Comme le dit le proverbe, vous ne supposez rien - vous n’obtiendrez rien

S. T.: C'est juste le point. Idéalement, j'aimerais avoir une théorie unifiée complète, qui, du moins en principe, permettra d'effectuer tous les calculs nécessaires. Mais où l'obtenir? Depuis de nombreuses années, la théorie des cordes a été proposée comme candidate pour une telle fondation universelle. Il existe depuis près de 50 ans, un âge assez respectable. C'est peut-être une merveilleuse construction théorique, mais elle n'a pas encore eu lieu en tant que théorie unifiée. Bien entendu, personne n'est interdit d'espérer que cela se produira. Cependant, dans l'histoire de la physique, il est rarement arrivé qu'une théorie se soit développée pendant un demi-siècle sur des promesses de succès futurs, puis tout à coup et en fait tout expliqué. En tout cas, j'en doute.

Certes, il y a ici une certaine subtilité de la théorie des cordes, ce qui implique l'existence d'environ 10 500 vides avec des lois physiques différentes. Au sens figuré, chaque aspirateur doit avoir son propre modèle standard avec son propre ensemble de paramètres libres. De nombreux partisans du principe anthropique soutiennent que notre propre ensemble ne nécessite pas d'explication, car il ne peut y avoir de vie et, par conséquent, de science dans des mondes avec une physique différente. Du point de vue de la logique pure, une telle interprétation est acceptable, à l'exception du fait que la rareté du paramètre θ ne peut pas être déduite du principe anthropique. Ce paramètre aurait bien pu être plus - à partir de là, les chances d'émergence d'une vie intelligente sur notre planète n'auraient pas diminué. Mais le principe anthropique n'annonce que l'existence possible d'un ensemble presque infini de mondes et se limite en fait à cela. Il ne peut pas être réfuté - ou, pour utiliser la terminologie, falsifié. Ce n'est plus de la science, du moins dans ma compréhension. Il me semble incorrect d'abandonner le principe de falsifiabilité des connaissances scientifiques au profit d'une théorie qui en fait ne peut rien expliquer.

Je ne peux pas être en désaccord. Mais allons plus loin. Comment sortir de la crise - ou, si vous voulez, sortir de la pré-crise de la physique fondamentale? Qui a la balle maintenant - les théoriciens ou les expérimentateurs?

S. T.: Logiquement, la balle devrait être du côté des théoriciens. Il existe des données expérimentales fiables sur la masse des neutrinos et des observations d'astronomes confirmant l'existence de matière noire. Il semblerait que la tâche soit évidente: trouver les bases d'une nouvelle approche théorique et construire des modèles spécifiques permettant une vérification expérimentale. Mais jusqu'à présent, de telles tentatives n'ont abouti à rien.

Encore une fois, il n'est pas clair à quoi s'attendre du grand collisionneur de hadrons après sa modernisation prévue. Bien sûr, beaucoup de données seront reçues sur cette machine, et même maintenant, loin de toutes les informations collectées par ses détecteurs ont été traitées. Par exemple, il est prouvé que les électrons et les muons ne sont pas entièrement identiques dans leurs interactions. Ce serait une découverte très sérieuse, expliquant peut-être la différence de leurs masses. Mais ces preuves sont encore faibles, vous pouvez leur faire confiance ou vous ne pouvez pas leur faire confiance. Cette question sera très probablement résolue lors d'expériences ultérieures au LHC. Cependant, il convient de rappeler que les équipes de physiciens expérimentaux qui y travaillent ont rapporté plus d'une fois des indices de découvertes majeures en dehors du modèle standard, et plus tard ces annonces ont été réfutées.

Ce qui reste? On peut espérer des super-accélérateurs qui seront construits un jour, mais avec eux, tout n'est pas encore clair - du moins pour une perspective à 10-20 ans. La balle est donc vraiment du côté des astrophysiciens. Une percée vraiment radicale peut être attendue de cette science.

Pourquoi?

ST: Le fait est qu'il n'est pas possible de trouver de nouvelles particules impliquées dans des interactions fortes. Par conséquent, nous devons rechercher des particules à faible interaction, qui ne sont pas dans le modèle standard. S'ils interagissent faiblement, ils interagissent rarement et les manifestations de telles interactions doivent attendre longtemps. Nous ne pouvons pas attendre longtemps les expériences sur les accélérateurs. Mais l'Univers attend depuis près de 14 milliards d'années, et les effets d'interactions, même très rares, peuvent s'accumuler tout ce temps. Il est possible que de tels effets soient découverts par des astrophysiciens. Et il existe déjà des exemples de cela - après tout, la présence d'oscillations de neutrinos, démontrant une masse non nulle de cette particule, a été découverte dans l'étude des neutrinos solaires. Ces espoirs sont d'autant plus justifiés,que la base d'observation de l'astronomie et de l'astrophysique est en constante expansion grâce aux nouveaux télescopes terrestres et spatiaux et à d'autres équipements. Par exemple, un an après le premier enregistrement direct des ondes gravitationnelles, il a été prouvé qu'elles se propagent à la même vitesse que le rayonnement électromagnétique. C'est un résultat très important qui en dit long pour les théoriciens.

Conférence de Sergei Troitsky "L'univers comme laboratoire de physique des particules", prononcée le 8 octobre 2017 à l'Université d'État de Moscou. M. V. Lomonosov au Festival des sciences:

Sergei, puisque vous avez évoqué l'espace, souvenons-nous de Johannes Kepler. En 1596, il remarqua que les rayons moyens des orbites planétaires de Mercure à Saturne calculés par Copernic étaient de 0,38: 0,72: 1,00: 1,52: 5,2: 9,2. La distance entre Mars et Jupiter a semblé à Kepler trop grande, et donc contre nature. Il a supposé qu'il y avait une planète encore inconnue, et finalement il avait raison. Au réveillon du Nouvel An 1801, Giuseppe Piazzi découvre Cérès dans cette zone, désormais reconnue comme une planète naine. Bien sûr, maintenant nous savons qu'il n'y a pas une planète, mais toute une ceinture d'astéroïdes. Kepler n'avait aucune idée de lui, mais je pense qu'il n'aurait pas été trop surpris. En général, sur la base du critère du naturel, une prédiction très spécifique a été faite, qui au début était justifiée littéralement, et plus tard, si vous voulez, avec intérêt. Quelque chose de similaire est-il possible aujourd'hui en physique fondamentale?

S. T.: Ceci n'est pas exclu. Si nous appliquons le critère de naturalité pour expliquer la hiérarchie des masses fermioniques, alors une nouvelle symétrie apparaîtra presque certainement. En fait, à ce jour, divers candidats ont été proposés pour ce rôle, mais ils ne nous satisfont pas tous. Si une telle symétrie peut être trouvée, elle pourrait nous conduire à des particules encore inconnues. Certes, les prédire directement, comme celui de Kepler, ne fonctionnera pas, mais nous apprendrons quelque chose d'utile. Cependant, il est possible que dans ce cas également, les instructions utiles soient plutôt vagues, avec un ensemble colossal d'options. Par exemple, l'axion est prédit uniquement sur la base de la nouvelle symétrie proposée par Peccei et Quinn. Cependant, ce mécanisme permet une très grande liberté dans le choix des paramètres, et nous n'avons donc aucune indication sur l'endroit où chercher l'axion. Cela peut être une particule de matière noireou il peut se manifester dans l'évolution des étoiles ou ailleurs - nous ne le savons tout simplement pas.

Eh bien, le temps nous le dira. Et merci beaucoup pour la conversation

J'ai également parlé avec Gia Dvali, professeur de physique aux universités de New York et de Munich et codirecteur du Max Planck Institute for Physics (au fait, ce centre scientifique renommé a été créé en 1914 sous le nom de Kaiser Wilhelm Institute of Physics, et son premier directeur était Albert Einstein). Naturellement, nous avons parlé du même sujet.

George Dvali, professeur de physique au Center for Cosmology and Particle Physics de l'Université de New York et de l'Université Ludwig-Maximilian de Munich, directeur de l'Institut Max Planck de physique à Munich. Photo du site astronet.ge
George Dvali, professeur de physique au Center for Cosmology and Particle Physics de l'Université de New York et de l'Université Ludwig-Maximilian de Munich, directeur de l'Institut Max Planck de physique à Munich. Photo du site astronet.ge

George Dvali, professeur de physique au Center for Cosmology and Particle Physics de l'Université de New York et de l'Université Ludwig-Maximilian de Munich, directeur de l'Institut Max Planck de physique à Munich. Photo du site astronet.ge

Guia, comment interprétez-vous le problème du naturel du modèle standard?

GD: En général, je peux répéter ce que Sergei a dit. Les équations du modèle standard incluent un ensemble de paramètres libres qu'il ne peut pas prédire. Les valeurs numériques de ces paramètres sont très différentes les unes des autres, et même si nous parlons d'objets apparemment similaires. Prenons, par exemple, un neutrino, un électron et un quark t. Tous sont des fermions, mais la masse du neutrino, très probablement, ne dépasse pas une fraction d'électron-volt, la masse de l'électron est approximativement égale à cinq cent mille électron-volts et la masse du quark t est de 175 GeV - 175 milliards d'électrons-volts. De telles différences peuvent en effet sembler anormales.

Mais ce n'est que le côté extérieur. Pour mieux tout comprendre, il faut prendre en compte la sensibilité aux ultraviolets de ces paramètres. Nous parlons de leur dépendance à une augmentation de l'échelle des énergies - ou, ce qui est le même, à une diminution de l'échelle spatiale. Disons que nous mesurons d'abord la masse d'un électron dans un laboratoire, puis regardons ce qui lui arrive à des distances de Planck. Avec cette approche, les paramètres sont divisés en plusieurs groupes. La sensibilité maximale aux ultraviolets est démontrée par la densité d'énergie du vide physique. Dans la région de Planck, il est proportionnel au quatrième degré de changement d'échelle. Si la masse de Planck est doublée, la valeur de l'énergie du vide augmentera 16 fois. Pour la masse du boson de Higgs, cette dépendance n'est pas si grande: pas la quatrième, mais seulement la seconde. Les masses de fermions changent très faiblement - uniquement selon la loi logarithmique. Enfin, le paramètre θ ne remarque pratiquement pas de changements dans l'échelle de Planck. Bien que sa sensibilité ne soit pas nulle, elle est si petite qu'elle peut être ignorée.

Que signifie cet écart dans le degré de sensibilité des paramètres libres du modèle standard? Diverses options sont possibles ici. Par exemple, nous pouvons supposer que la masse du boson de Higgs ne mérite pas du tout le statut de quantité fondamentale. Cette hypothèse s'étend automatiquement aux masses de particules, qui dépendent de la masse de Higgs. Ensuite, la propagation de leurs valeurs ne semblera pas plus étrange que, par exemple, la différence de taille des molécules et des galaxies. Ni l'un ni l'autre ne prétendent en aucune façon être fondamentaux, et il est donc insensé d'évaluer leur taille en termes de naturel.

Si cette analogie semble trop exagérée, voici un autre exemple. On connaît bien l'énergie caractéristique de l'interaction forte, son ordre est de 1 GeV. Et nous savons aussi que l'échelle des interactions fortes n'est pas fondamentale, donc sa faible valeur par rapport à la masse de Planck ne surprend personne. En général, si nous admettons qu'en termes de naturel ou de non-nature, il est raisonnable de comparer exclusivement des quantités fondamentales, alors pour les paramètres du modèle standard, ce problème disparaîtra en fait.

Fait intéressant, la même logique fonctionne pour les partisans du principe anthropique. Ils croient qu'il existe une grande variété d'aspirateurs avec des lois physiques différentes, ce que l'on appelle généralement le multivers. Notre propre univers a émergé de l'un de ces aspirateurs. Si nous adoptons ce point de vue, alors en général, il n'y a pas de problème de naturalité des paramètres du modèle standard. Mais je n'aime pas cette approche, même si j'avoue qu'elle a ses partisans.

Ainsi, le rejet de l'hypothèse que les paramètres du modèle standard sont fondamentaux supprime le problème du naturel. Est-ce la fin de la discussion ou pouvons-nous aller plus loin?

GD: Bien sûr, c'est possible - et nécessaire. À mon avis, il est beaucoup plus important et plus intéressant de parler non pas du caractère naturel du modèle, mais de son autoconsistance. Par exemple, nous travaillons tous dans le cadre de la théorie quantique des champs. Incidemment, cela s'applique non seulement au modèle standard, mais également à la théorie des cordes. Toutes les implémentations physiquement significatives de cette théorie devraient être basées sur la théorie spéciale de la relativité, de sorte que leurs équations devraient se ressembler dans tous les cadres de référence inertiels. Cette propriété est appelée invariance relativiste de la théorie, ou invariance de Lorentz. Il existe un théorème selon lequel toutes les théories des champs quantiques invariants de Lorentz doivent être invariantes CPT. Cela signifie que leurs équations de base ne devraient pas changer avec le remplacement simultané des particules par des antiparticules, l'inversion des coordonnées spatiales et l'inversion du temps. Si cette invariance est violée, la théorie ne sera pas auto-cohérente et aucune quantité de naturel n'aidera à la construire. En d'autres termes, la théorie des champs quantiques auto-cohérente est forcée d'être invariante CPT. Par conséquent, lorsque l'on discute du naturel, il faut veiller à ne pas le confondre avec l'auto-cohérence. Cette stratégie ouvre de nombreuses possibilités intéressantes, mais en discuter nous mènera trop loin.

Wilhelm de Sitter, l'astronome néerlandais qui a créé l'un des premiers modèles cosmologiques relativistes (modèle de de Sitter). Source: Photographic Archive Université de Chicago
Wilhelm de Sitter, l'astronome néerlandais qui a créé l'un des premiers modèles cosmologiques relativistes (modèle de de Sitter). Source: Photographic Archive Université de Chicago

Wilhelm de Sitter, l'astronome néerlandais qui a créé l'un des premiers modèles cosmologiques relativistes (modèle de de Sitter). Source: Photographic Archive Université de Chicago

Gia, est-ce possible au moins un exemple?

GD: - Bien sûr. Comme vous le savez, l'espace de notre Univers se développe à un rythme croissant - comme le disent les cosmologistes, nous vivons dans le monde de de Sitter. Cette accélération est généralement attribuée à la présence d'énergie de vide positive, également appelée énergie sombre. Sa densité mesurée est extrêmement faible, environ 10-29 g / cm3. Si nous supposons que la gravité peut être décrite dans le cadre de la théorie quantique des champs, alors il est naturel de s'attendre à ce que la valeur de l'énergie du vide soit plusieurs dizaines d'ordres de grandeur supérieure à cette valeur. Comme ce n'est pas le cas, le critère du naturel ne fonctionne évidemment pas. Cependant, nous avons maintenant de plus en plus de raisons de penser que la faible valeur de l'énergie du vide peut être justifiée sur la base du critère d'auto-cohérence.

Mais ce n'est pas encore fini. Dans le cadre de la nouvelle approche, la conclusion suggère que l'énergie du vide change avec le temps. Si vous n'introduisez pas d'hypothèses supplémentaires, alors l'échelle de temps de ces changements est incroyablement grande - 10132 ans. Cependant, si nous associons ces changements à la présence d'un certain champ scalaire, alors cette échelle sera comparable à l'époque de Hubble, qui est un peu plus de dix milliards d'années. Il résulte des calculs qu'il ne peut dépasser le temps de Hubble que de plusieurs fois, et non de plusieurs ordres de grandeur. Pour être honnête, je ne suis pas entièrement impressionné par cette conclusion, mais c'est assez logique. Il existe d'autres options, mais elles sont complètement exotiques.

Résumons. De manière générale, comment voyez-vous le problème du naturel des modèles de physique fondamentale et quelles solutions pensez-vous être optimales?

GD: Alexey, permettez-moi de commencer par une perspective historique, cela ne fera pas de mal. Au cours des dernières décennies, les opinions de notre communauté, la communauté de ceux qui sont engagés dans la physique fondamentale, ont fortement oscillé. Dans les années 1990, bien que le principe anthropique ait été discuté, en général, personne n'était particulièrement intéressé. L'opinion dominante était alors que les fondements de la structure de l'univers étaient déjà connus en la personne de la théorie des cordes. Nous espérions que c'était elle qui donnerait la seule solution correcte décrivant notre Univers.

À la fin de la dernière décennie, cette croyance a changé. Des scientifiques très sérieux, par exemple, Alex Vilenkin et Andrey Linde, ont commencé à défendre activement et de manière convaincante le principe anthropique. À un moment donné, il y a eu un tournant dans la conscience de la communauté, quelque chose comme une transition de phase. De nombreux théoriciens ont vu dans le principe anthropique le seul moyen de sortir des difficultés liées au problème de la naturalité. Bien sûr, ils avaient aussi des opposants, et notre communauté était divisée sur cette question. Certes, Linde a néanmoins admis que tous les paramètres du modèle standard ne trouvent pas d'interprétation naturelle dans le contexte du principe anthropique. Sergei a déjà noté cette circonstance à propos du paramètre θ.

Andrey Linde (à gauche) et Alexander Vilenkin. Photo du site vielewelten.de
Andrey Linde (à gauche) et Alexander Vilenkin. Photo du site vielewelten.de

Andrey Linde (à gauche) et Alexander Vilenkin. Photo du site vielewelten.de

Ces dernières années, l'opinion collective a de nouveau changé. Maintenant, nous voyons qu'un ensemble presque infini d'univers avec des lois physiques différentes ne peut pas du tout exister. La raison est simple: de tels univers ne peuvent pas être stables. Tous les mondes exotiques de Sitter devraient se transformer en continua espace-temps vide avec une géométrie plate de Minkowski. Le vide est le seul stable avec cette géométrie. On peut montrer que la densité d'énergie du vide doit être négligeable par rapport à l'échelle de Planck. C'est exactement ce qui se passe dans notre univers. Notre monde n'a pas encore atteint le monde de Minkowski, donc l'énergie du vide est différente de zéro. Cela change, et en principe, ces changements peuvent être détectés expérimentalement et avec des observations astrophysiques. Il n'y a donc rien d'anormal dans la petitesse de l'énergie du vide,et sa valeur observée est conforme aux attentes théoriques.

D'autres prédictions très spécifiques sont faites sur la base de la nouvelle approche. Donc, il en découle qu'il doit certainement y avoir un axion. Cette conclusion est également liée au problème du naturel. Permettez-moi de vous rappeler que les théoriciens ont une fois inventé cette particule pour expliquer la valeur anormalement petite du paramètre θ. Nous disons maintenant que la réalité de l'axion est dictée par l'exigence d'autoconsistance de nos équations. En d'autres termes, si l'axion n'existe pas, la théorie n'est pas auto-cohérente. C'est une logique complètement différente de la prédiction théorique. Donc, en conclusion, je peux répéter ce que j'ai déjà dit: le principe du naturel a été remplacé par un principe beaucoup plus fort de l'auto-cohérence, et le domaine de son applicabilité est en constante expansion, et ses limites ne sont pas encore connues. Il est possible que sur sa base, il soit possible d'expliquer la hiérarchie des masses de particules élémentaires,représentant un problème si difficile pour le principe du naturel. Si tel est le cas, nous ne le savons pas. En général, vous devez travailler.

Voici donc les opinions de deux brillants physiciens théoriciens qui, de leur propre aveu, ont beaucoup réfléchi au problème du caractère naturel des modèles théoriques de la physique fondamentale. À certains égards, ils sont similaires, à certains égards différents. Cependant, Sergei Troitsky et Gia Dvali n'excluent pas que maintenant le principe du naturel, sinon complètement survécu à son utilité, alors, en tout cas, a perdu son ancienne crédibilité. Si tel est le cas, alors la physique fondamentale entre effectivement dans l'ère du postnaturalisme. Voyons où cela mène.

Pour conclure dignement la discussion, j'ai demandé à l'un des fondateurs de la théorie des cordes, Edward Witten, professeur au Princeton Institute for Fundamental Research, de parler le plus brièvement possible du problème du naturel en physique fondamentale. Voici ce qu'il a écrit:

Edward Witten, professeur à l'Institut de recherche fondamentale de Princeton, co-fondateur de la théorie des cordes. Photo du site wikipedia.org
Edward Witten, professeur à l'Institut de recherche fondamentale de Princeton, co-fondateur de la théorie des cordes. Photo du site wikipedia.org

Edward Witten, professeur à l'Institut de recherche fondamentale de Princeton, co-fondateur de la théorie des cordes. Photo du site wikipedia.org

«Si un physicien ou un cosmologiste arrive à la conclusion qu'une certaine valeur observable a une valeur extrême, il recherche une interprétation raisonnable. Par exemple, la masse d'un électron est 1800 fois inférieure à celle d'un proton. Une telle différence sérieuse attire certainement l'attention et nécessite une explication.

Dans ce cas, une explication raisonnable - ou, en d'autres termes, naturelle - est que lorsque la masse électronique est mise à zéro, les équations du modèle standard deviennent plus symétriques. En général, on considère alors que la symétrie exacte ou approximative est naturelle, quand il y a lieu d'espérer que si aujourd'hui on ne sait pas pourquoi elle existe dans la nature, alors on s'attend à trouver une explication à un niveau plus profond de compréhension de la réalité physique. Selon cette logique, la petite masse de l'électron ne crée pas de problèmes désagréables pour le principe de naturalité.

Passons maintenant à la cosmologie. Nous savons que la taille de l'univers est environ 1030 fois la longueur d'onde d'un photon typique du rayonnement de fond micro-ondes. Cette relation ne change pas à mesure que l'univers évolue, et ne peut donc pas être simplement attribuée à son âge. Il a besoin d'une explication différente, qui peut être obtenue sur la base de modèles cosmologiques inflationnistes.

Prenons un exemple d'un autre genre. On sait que la valeur de l'énergie noire est au moins 1060 fois inférieure à la valeur théoriquement calculée sur la base de la connaissance d'autres constantes fondamentales. Bien entendu, ce fait appelle également une explication. Cependant, il n'y a toujours pas d'interprétation raisonnable pour cela - autre que, peut-être, celle qui découle de l'hypothèse du multivers et du principe anthropique. Je fais partie de ceux qui préféreraient un autre type d'explication, mais il n'a pas encore été trouvé. Voici comment les choses se passent maintenant."

En conclusion, je ne peux me priver du plaisir de citer un article récent du professeur Witten (2018. Symmetry and Emergence), qui, je pense, sera une excellente conclusion à la discussion sur le naturel des théories de la physique fondamentale:

«En termes généraux, la symétrie de jauge n'est rien de plus qu'une propriété de description d'un système physique. La signification des symétries de jauge en physique moderne est que les processus physiques sont régis par des lois extrêmement subtiles qui sont intrinsèquement «géométriques». Il est très difficile de donner une définition stricte de ce concept, mais en pratique cela signifie que les lois de la nature résistent à toute tentative incontestée de leur trouver une expression explicite. La difficulté d'exprimer ces lois sous une forme naturelle et non redondante est la raison de l'introduction de la symétrie de jauge."

Arkady et Boris Strugatsky
Arkady et Boris Strugatsky

Arkady et Boris Strugatsky.

Donc trois personnes - trois opinions. En conclusion - une citation de l'histoire des frères Strugatsky "Ugly Swans" (1967):

"Le naturel est toujours primitif", a poursuivi Bol-Kunats entre autres, "et l'homme est un être complexe, le naturel ne lui convient pas."

Convient-il aux théories de la physique fondamentale? Telle est la question.

Alexey Levin, doctorat en philosophie