 |
La
physique
des particules (ou physique des hautes énergies) est la branche
de la physique, à la pointe de notre compréhension
de l'univers, qui étudie les constituants fondamentaux de la matière
et de l'énergie, ainsi que les interactions
qui régissent leur comportement. Son objectif principal est de comprendre
l'univers aux échelles les plus petites possibles, en identifiant les
briques élémentaires et les forces ou interactions fondamentales qui
construisent tout ce que nous connaissons. Pour cela, elle s'emploie à
construire les modèles mathématiques
qui décrivent les particules et leurs interactions,
et à faire des prédictions testables par l'expérience.
Au coeur de la physique
des particules se trouve l'idée que la matière n'est pas infiniment divisible.
En remontant le fil de la composition (atomes,
puis noyaux et électrons, puis protons et neutrons), on arrive à des
particules qui, selon nos connaissances actuelles, ne sont pas composées
d'entités plus petites. Ces particules sont dites élémentaires
ou fondamentales.
Le cadre théorique
dominant qui décrit ces particules élémentaires et leurs interactions
est appelé le Modèle standard de la physique des particules. Il
distingue des particules de matière (quarks et leptons) et des particules
responsables des interactions (bosons vecteurs des forces). Les interactions
entre particules de matière s'expliquent par l'échange entre elles de
particules d'interaction vitrtuelles.
Les interactions fondamentales sont au nombre de quatre : interaction électromagnétique,
interactions faible, interaction forte et interaction gravitationnelle.
Le Modèle standard décrit avec succès les trois premières, mais
il ne décrit pas l'interaction gravitationnelle. La gravitation est
décrite par la relativité générale d'Einstein.
L'intégration de la gravitation dans un cadre quantique cohérent avec
les autres forces reste un défi majeur (l'hypothétique boson médiateur
de la gravitation, le graviton, n'est pas inclus dans le Modèle standard
et n'a pas été observé).
Le Modèle standard
est une théorie de champ quantique qui a été développée tout au long
de la seconde moitié du XXe siècle et
qui a connu un succès expérimental remarquable. Il n'est cependant pas
la fin de l'histoire, car il laisse encore beaucoup de questions sans réponse.
L'objectif ultime de la physique des particules est donc de découvrir
une théorie plus fondamentale qui unifie toutes les forces et particules
et répond aux questions non résolues du Modèle standard, nous rapprochant
ainsi de la compréhension de la nature fondamentale de l'univers.
Jalons historiques
L'histoire de la physique
des particules est une quête continue pour comprendre les composants fondamentaux
de la matière, qui a commencé il y a des millénaires avec les philosophes
grecs atomistes comme Démocrite, postulant
l'existence d'unités indivisibles, insécables, appelées atomes. Pendant
des siècles, l'idée est restée spéculative jusqu'à la révolution
scientifique. Au début du XIXe siècle,
John
Dalton a proposé sa théorie atomique pour expliquer les lois de la
chimie,
considérant l'atome comme la plus petite unité de la matière.
L'atome sécable.
La fin du XIXe
siècle a marqué le début de l'ère de la physique des particules moderne
avec la découverte de l'électron par J.J.
Thomson en 1897, montrant que l'atome n'était pas indivisible mais
contenait des particules plus petites chargées négativement. Peu après,
la découverte de la radioactivité par Henri Becquerel
et les travaux pionniers de Marie et Pierre Curie
ont révélé que les noyaux atomiques pouvaient se désintégrer, émettant
différentes formes de radiation (alpha, bêta, gamma), suggérant une
structure interne complexe. Ernest Rutherford,
à travers son expérience célèbre de diffusion de feuilles d'or en 1911,
a démontré que la majeure partie de la masse et de la charge positive
de l'atome était concentrée dans un noyau central
minuscule. Il a ensuite identifié le proton comme
une particule fondamentale du noyau en 1919.
Le zoo de particules.
Les années 1930
ont été une décennie de découvertes importantes. En 1932, James Chadwick
a découvert le neutron, complétant ainsi l'image
des principaux constituants du noyau atomique (protons et neutrons) et
des électrons en orbite. La même année, Carl Anderson a découvert le
positon, l'antiparticule de l'électron prédite quelques années plus
tôt par Paul Dirac, ouvrant la voie au concept
d'antimatière. Les travaux théoriques d'Enrico
Fermi sur la désintégration bêta ont posé les bases de la théorie
de l'interaction faible. Hideki Yukawa a proposé l'existence d'une nouvelle
particule, le méson, pour expliquer la force qui lie les protons et les
neutrons dans le noyau.
Après la Seconde
Guerre Mondiale, l'accès à de nouvelles technologies comme les plaques
photographiques exposées aux rayons
cosmiques et le développement des premiers accélérateurs
de particules a mené à une prolifération rapide de la découverte de
nouvelles particules. Dans les années 1940 et 1950, on a découvert les
muons
(d'abord confondus avec les mésons de Yukawa),
les pions (qui correspondaient mieux à la prédiction
de Yukawa), les kaons et une multitude d'autres
particules appelées hyperons et résonances. C'était la période du zoo
de particules, où la liste des particules élémentaires semblait
s'allonger sans fin.
La voie octuple..
Face à ce fouillis,
un effort d'organisation s'est imposé. Murray Gell-Mann et Yuval Ne'eman
ont proposé indépendamment la eightfold way (la voie octuple)
dans les années 1960, un schéma de classification des hadrons
basé sur des propriétés symétriques. Ce schéma a mené à la prédiction
de nouvelles particules et, surtout, à l'hypothèse des quarks,
proposée par Gell-Mann et George Zweig en 1964. Selon cette idée, les
protons, neutrons et la plupart des autres hadrons n'étaient pas élémentaires
mais composés de particules encore plus fondamentales, les quarks, qui
portaient une charge électrique fractionnaire et une nouvelle charge quantique
appelée couleur. Initialement, seulement trois saveurs de quarks (up,
down, strange) étaient nécessaires.
Établissement
du Modèle Standard..
Les années 1970
ont vu l'édification du Modèle standard. Sheldon Glashow, Steven Weinberg
et Abdus Salam ont développé une théorie unifiant l'interaction électromagnétique
et l'interaction faible en une seule interaction électrofaible, une réalisation
majeure qui leur a valu le prix Nobel. La théorie de la force forte, appelée
chromodynamique quantique (QCD), a été formulée par David Gross, Frank
Wilczek et David Politzer, expliquant comment les quarks interagissent
via des gluons et pourquoi les quarks sont confinés
à l'intérieur des hadrons (phénomène de liberté asymptotique). L'existence
d'une quatrième saveur de quark, le quark charm, a été prédite par
Glashow, John Iliopoulos et Luciano Maiani en 1970 pour résoudre un problème
théorique, et il fut découvert expérimentalement en 1974 (la Révolution
de Novembre avec la découverte simultanée de la particule J/psi par
deux équipes différentes). Peu après, en 1975, le lepton tau fut découvert,
suggérant l'existence d'une troisième génération de fermions,
qui fut complétée par la découverte du quark bottom en 1977.
Dans les années
1980, les prédictions clés du Modèle standard ont été confirmées
expérimentalement. Les bosons W
et Z, médiateurs de l'interaction faible, ont été découverts en 1983
au CERN grâce aux expériences UA1 et UA2, dirigées respectivement par
Carlo Rubbia et Simon van der Meer (ce qui leur a valu le prix Nobel dès
1984). Le Modèle standard, avec ses six saveurs de quarks et six types
de leptons, et les bosons médiateurs des forces
électromagnétique, faible et forte, est devenu la description acceptée
des particules élémentaires et de leurs interactions. La seule pièce
manquante était le boson de Higgs.
Les années 1990
et le début des années 2000 ont été marquées par des expériences
de précision testant le Modèle standard et la recherche de la dernière
pièce manquante. En 1995, le quark top, le sixième et le plus lourd des
quarks, fut découvert au Fermilab aux États-Unis par les expériences
CDF et DZero. Un autre développement important fut la découverte des
oscillations de neutrinos à la fin des années
1990 et au début des années 2000 (notamment par l'expérience Super-Kamiokande),
prouvant que les neutrinos possédaient une petite masse, ce qui n'est
pas naturellement inclus dans la formulation originale du Modèle standard
et pointe vers une physique au-delà de celui-ci.
Le point culminant
de la recherche a été la construction du Large Hadron Collider (LHC)
au CERN. Conçu en grande partie pour trouver le boson de Higgs et rechercher
de nouvelles physiques, le LHC a commencé à prendre des données en 2010.
Le 4 juillet 2012, les collaborations ATLAS et CMS ont annoncé la découverte
d'une nouvelle particule compatible avec le boson de Higgs attendu, une
découverte majeure qui a validé le mécanisme de Brout-Englert-Higgs
pour la génération de masse et a valu le prix Nobel à François Englert
et Peter Higgs en 2013.
Et maintenant...
Depuis la découverte
du Higgs, la physique des particules est entrée dans une nouvelle phase,
qui consiste à mesurer avec précision les propriétés du boson de Higgs
et des autres particules du Modèle standard, tout en cherchant activement
des signes de physique au-delà du Modèle standard, que ce soit à travers
des recherches directes de nouvelles particules massives au LHC, des recherches
indirectes de très rares processus ou des observations cosmologiques sur
la matière sombre et l'énergie
sombre. L'histoire de la physique des particules continue de s'écrire.
Le modèle standard
des particules
Le Modèle standard
catégorise les particules élémentaires en plusieurs groupes :
Constituants de
la matière.
Les
fermions : les constituants de la matière.
Les
fermions sont des particules qui obéissent au principe
d'exclusion de Pauli (deux fermions identiques ne peuvent pas occuper
le même état quantique). Ce sont les briques de construction de la matière.
Ils sont divisés en deux familles principales :
• Les
quarks ressentent l'interaction forte et sont toujours confinés à
l'intérieur de particules composites appelées hadrons (comme les protons
et les neutrons). Il existe six saveurs de quarks : up (u), down (d), charm
(c), strange (s), top (t), et bottom (b). Chaque saveur existe en trois
couleurs (rouge, vert, bleu), une charge quantique liée à l'interaction
forte. Les protons sont faits de deux quarks up et un quark down (uud),
tandis que les neutrons sont faits de un quark up et deux quarks down (udd).
• Les Leptons
ne ressentent pas l'interaction forte. Il existe six types de leptons :
l'électron (e⁻), le muon (μ⁻), le tau (τ⁻),
et leurs trois neutrinos associés (νe, νμ, ντ). L'électron, le muon
et le tauon ont une charge électrique négative, tandis que les neutrinos
sont électriquement neutres. Les neutrinos interagissent très faiblement
avec la matière.
Chaque fermion a également
une antiparticule correspondante (anti-quark, positron (e⁺), anti-muon,
etc.) qui a la même masse mais des charges opposées.
Les
bosons : Les médiateurs des forces.
Les bosons
sont des particules qui obéissent aux statistiques
de Bose-Einstein et ne sont pas soumis au principe d'exclusion de Pauli.
Dans le Modèle standard, les forces fondamentales (sauf la gravitation)
sont véhiculées par l'échange de bosons.
•Le
photon
(γ) est le médiateur de l'interaction
électromagnétique, responsable des phénomènes électriques et magnétiques,
et de la lumière. Il a une masse nulle.
• Les gluons
(g) sont les médiateurs de l'interaction forte, responsable de l'attraction
entre les quarks à l'intérieur des protons et neutrons, et de la liaison
entre protons et neutrons dans le noyau atomique. Il y a 8 types de gluons.
Ils ont une masse nulle et portent eux-mêmes une charge de couleur, ce
qui explique le confinement des quarks.
• Les bosons
W⁺, W⁻, et Z⁰ (= bosons intermédiaires) sont les médiateurs
de l'interaction faible, responsable de certains types de désintégration
radioactive (comme la désintégration bêta) et des processus nucléaires
dans le Soleil. Ces bosons ont des masses importantes.
Le
Boson de Higgs (H) : responsable de la masse
Le Boson de Higgs
est une particule scalaire (spin 0) associée
au champ de Higgs. Dans le Modèle standard, le champ de Higgs remplit
tout l'univers. L'interaction des particules avec ce champ est ce qui leur
confère leur masse. Le mécanisme par lequel cela se produit est appelé
le mécanisme de Brout-Englert-Higgs. Certaines particules (comme le photon
et les gluons) n'interagissent pas avec le champ de Higgs et restent donc
sans masse.
Outils et méthodes
de la physique des particules
La physique des particules
est un domaine de recherche de pointe qui s'appuie sur un ensemble d'outils
technologiques sophistiqués et de méthodes analytiques complexes, tant
expérimentales que théoriques.
Outils et méthodes
expérimentaux.
L'objectif principal
de l'expérimentation en physique des particules est de produire, de détecter
et de mesurer les propriétés des particules élémentaires et de leurs
interactions.
Accélérateurs
de Particules.
Les accélérateurs
de particules propulsent des particules (protons, électrons, ions...)
à des vitesses proches de celle de la lumière et les font entrer en collision.
L'énergie de la collision peut alors se convertir en masse (selon
E=mc²) pour créer des particules massives qui n'existent pas dans des
conditions ordinaires. Il existe plusieurs types d'accélérateurs de particules
: accélérateurs linéaires, cyclotrons, synchrotrons, et surtout les
collisionneurs, où deux faisceaux de particules sont accélérés en sens
inverse et se rencontrent. Chaque type d'accélérateur est optimisé pour
des objectifs spécifiques, allant de la recherche fondamentale en physique
des hautes énergies à des applications pratiques
en médecine et en sciences des matériaux.
• Accélérateurs
linéaires (Linac). - Ces accélérateurs utilisent une cavité
électromagnétique pour accélérer les particules dans un tunnel rectiligne.
Ils peuvent atteindre des énergies élevées mais sont limités par leur
longueur. Le SLAC (Stanford Linear Accelerator Center) est un accélérateur
linéaire de 3,2 km de long. Il a été construit dans les années 1960
et est utilisé pour accélérer des électrons et des positrons jusqu'à
des énergies de plusieurs GeV (gigaélectronvolts). SLAC a joué un rôle
clé dans la découverte du j/ψ, une particule subatomique importante.
Le XFEL (X-ray Free-Electron Laser) est un accélérateur linéaire situé
en Allemagne, qui produit des rayons X ultra-intenses et ultra-courts.
Il est utilisé pour des recherches en biologie, chimie et physique des
matériaux.
• Cyclotrons.
- Ce type d'accélérateur utilise un champ magnétique constant
pour maintenir les particules sur une trajectoire circulaire croissante.
Il est couramment utilisé pour produire des isotopes radioactifs, notamment,
en médecine, par exemple, pour la thérapie par protonthérapie. Un tel
accélérateur génère dans ce cas des protons pour bombarder des cibles
nucléaires, créant des isotopes comme
le technétium-99m, largement utilisé en imagerie médicale. Au Canada,
on trouve le TRIUMF, un grand cyclotron qui produit des faisceaux de protons
et d'autres particules pour des expériences en physique nucléaire et
pour la production d'isotopes médicaux.
• Synchrotrons.
- Les synchrotrons accélèrent les particules en utilisant un champ magnétique
variable pour compenser l'augmentation de l'énergie des particules. Ils
sont capables d'atteindre des énergies très élevées. Le synchrotron
Soleil est un synchrotron situé près de Paris. Il accélère des électrons
jusqu'à des énergies de 2 GeV et émet des photons de lumière synchrone
pour des applications en sciences des matériaux, en biologie structurale
et en physique des surfaces. L'Advanced Photon Source (APS) est un synchrotron
basé aux États-Unis qui produit des photons X de très haute intensité
pour des expériences en biologie, en chimie,
en physique des matériaux et en médecine.
• Collisionneurs.
- Les collisionneurs sont des types spécifiques d'accélérateurs où
deux faisceaux de particules sont accélérés en sens inverse et dirigés
vers un point de collision. Le LHC est le plus grand et le plus puissant
collisionneur actuel. Il accélère des faisceaux de protons ou d'ions
lourds (comme ceux de plomb) jusqu'à des énergies de plusieurs téraélectronvolts
(TeV) et provoque des collisions à haute énergie pour étudier les particules
issues de ces interactions. Il est célèbre en particulier pour avoir
permis la découverte du boson de Higgs en 2012, confirmant ainsi une prédiction
majeure de la théorie des particules standard. Le RHIC (Relativistic Heavy
Ion Collider), au Brookhaven National Laboratory (USA), est un collisionneur
de particules qui accélère des ions lourds, tels que des noyaux de deutérium
et d'or. Il est utilisé pour étudier la matière de haute densité, notamment
le plasma quark-gluon, une phase de la matière présumée exister immédiatement
après le big bang (entendons les phénomènes
qui se sont produits dans les tout premiers instants de l'expansion de
l'univers).
Méthodes associées
: maîtrise des champs électromagnétiques pour guider et accélérer
les faisceaux, maintien du vide poussé, cryogénie pour les aimants supraconducteurs.
Détecteurs
de particules.
Les détecteurs
de particules sont d'immenses instruments complexes, multi-couches, construits
autour des points de collision des accélérateurs. Ils enregistrent
les trajectoires, l'énergie, la quantité de mouvement, la charge et d'autres
propriétés des particules créées lors des collisions. Des détecteurs
comme ATLAS et CMS au LHC sont des exemples emblématiques, utilisant diverses
technologies pour identifier les différentes particules (électrons, muons,
photons, jets de hadrons, neutrinos). Types d'instruments :
•
Les détecteurs de trajectoires (tracking chambers) mesurent
la trajectoire des particules chargées (ex : détecteurs à semi-conducteurs
au silicium, chambres à gaz). Ces instruments permettent de reconstruire
les points d'interaction et de mesurer l'impulsion (quantité de
mouvement).
• Les
calorimètres mesurent l'énergie des particules en les arrêtant.
Il existe des calorimètres électromagnétiques (pour électrons et photons)
et hadroniques (pour protons, neutrons, pions, etc.).
• Les détecteurs
de muons identifient les muons, qui sont des particules pénétrantes
traversant la plupart des autres couches de détecteurs.
• Les systèmes
de déclenchement (trigger) filtrent les milliards de collisions
se produisant chaque seconde pour ne sélectionner et enregistrer que les
événements potentiellement intéressants pour l'analyse physique.
Méthodes associées
: acquisition de données ultra-rapide (DAQ), calibration précise des
détecteurs, modélisation de l'interaction particule-matière.
Autres
approches d'expérimentales.
• Expériences
avec les rayons cosmiques. - Les particules de très haute énergie
venant de l'espace (cosmiques) peuvent être détectées et étudiées,
fournissant des informations sur les particules rares ou les interactions
à des énergies inaccessibles aux accélérateurs actuels (ex : Super-Kamiokande
pour les neutrinos, Observatoire Pierre Auger pour les rayons
cosmiques d'ultra haute énergie).
• Expériences
de physique de précision à basse énergie. - Certaines expériences
étudient les propriétés des particules à basse énergie avec une extrême
précision (mesure de moments dipolaires, recherche de désintégrations
rares, etc.) pour chercher des indices de nouvelle physique. Des détecteurs
de matière sombre dans des laboratoires souterrains en font partie.
Sites
expérimentaux.
De vastes structures
internationales sont dédiées à l'hébergement des accélérateurs et
détecteurs. Par exemple, le CERN (Europe), le Fermilab (Etats-Unis),
le KEK (Japon), etc. Y sont requises des collaborations scientifiques massives
(des milliers de physiciens et ingénieurs), impliquées dans la gestion
de projets complexes et une ingénierie de précision à grande échelle.
Les bases mathématiques
des théories.
La
théorie quantique des champs (TQC).
La théorie
quantique des champs est le cadre mathématique général dans lequel
sont construites toutes les théories des particules élémentaires. Elle
unifie la mécanique quantique et la relativité
restreinte, et est fondée sur la relation qu'elle établit les champs
et les particules. Elle opère, de fait, un changement de perspective fondamental
: l'entité primordiale n'est pas la particule mais le champ qui remplit
l'univers. Les particules que nous observons ne sont que des manifestations
localisées et quantifiées de l'énergie et de l'impulsion associées
à ces champs sous-jacents. Le champ est fondamental, et les particules
sont ses états excités. Le champs quantiques imprègnent tout l'espace-temps.
Pour chaque type de particule élémentaire connu (électron, photon, quark,
etc.), il existe un champ quantique correspondant.
Ces champs quantiques
ne sont pas de simples fonctions numériques comme les champs classiques
(par exemple, le champ électromagnétique classique ou le champ gravitationnel),
mais ce sont des opérateurs quantiques. Ils sont définis en tout point
de l'espace et à tout instant, et leurs dynamiques sont régies par des
équations issues d'un lagrangien spécifique,
similaire à la manière dont la mécanique quantique traditionnelle est
dérivée d'un hamiltonien.
Dans ce cadre, les
particules apparaissent comme des excitations quantifiées de ces champs.
On peut visualiser cela comme des ondes ou des vibrations spécifiques
se propageant à travers le champ. L'analogie courante est celle de la
surface de l'eau : la nappe d'eau elle-même est le "champ", et les vagues
qui se forment et se déplacent à sa surface sont les "particules". Chaque
type de particule correspond à un type de champ distinct. Par exemple,
les électrons sont les quanta d'excitation du "champ d'électrons", les
photons sont les quanta d'excitation du "champ électromagnétique", et
ainsi de suite.
Un aspect décisif
de cette description est que le nombre de particules n'est pas fixe dans
la TQC. Les champs possèdent des opérateurs de création et d'annihilation
qui permettent de créer ou de faire disparaître des quanta
d'excitation, c'est-à-dire de créer ou d'annihiler des particules. C'est
essentiel pour décrire les processus où des particules sont créées
(par exemple, à partir de l'énergie pure dans les accélérateurs de
particules) ou annihilées (par exemple, l'annihilation matière-antimatière).
Les interactions
entre les particules sont également décrites en termes d'interactions
entre les champs. Lorsqu'une particule interagit avec une autre, cela se
produit via l'échange de quanta d'un champ médiateur d'interaction. Par
exemple, l'interaction électromagnétique entre deux électrons est le
résultat de l'échange de photons (les quanta du champ électromagnétique)
entre les deux "champs d'électrons". Les propriétés des particules (masse,
charge, spin) sont des attributs de ces excitations du champ, déterminés
par les propriétés et les termes du lagrangien du champ correspondant.
Méthodes associées
: le formalisme lagrangien, la quantification (canonique ou par intégrales
de chemin), la renormalisation (pour gérer les infinis).
Calculs
théoriques.
Les calculs théoriques
visent à prédire les probabilités des différents résultats expérimentaux
(sections efficaces, taux de désintégration) basés sur les théories
(principalement le Modèle standard). Méthodes associées :
• Intégrales
des chemins. - Permettent de formuler la mécanique quantique en termes
de trajectoires possibles des particules.
• Diagrammes
de Feynman. - Représentations graphiques des interactions entre
particules, facilitant les calculs des probabilités associées et
les calculs perturbatifs en théorie quantique des champs.
• Calculs perturbatifs.
- Développement en série basé sur une petite constante
de couplage.
• Chromodynamique
quantique sur réseau (lattice QCD). - Méthode non-perturbative
utilisant la simulation numérique sur une grille spatio-temporelle pour
calculer des propriétés des hadrons (protons, neutrons) où les méthodes
perturbatives ne sont pas valides.
La
théorie des groupes.
Beaucoup de lois
de la physique sont basées sur l'existence de propriétés et grandeurs
invariantes sous certaines transformations (lois de conservation). Mathématiquement,
une loi de conservation correspond à une symétrie (théorème de Noether).
Par exemple : la conservation de la quantité de mouvement est liée à
la symétrie de translation spatiale, la conservation de l'énergie est
liée à la symétrie de translation temporelle, la conservation du moment
angulaire est liée à la symétrie de rotation. La théorie des groupes
permet de formaliser ces symétries et de prédire des lois de conservation
associées.
Un catégorie particulière
des groupes, les groupes de Lie, sert à classer
les particules élémentaires. Chaque particule peut être associée à
une représentation spécifique d'un groupe de symétrie. Les quarks et
les leptons peuvent ainsi être classifiés en termes de leurs transformations
sous le groupe SU(3) × SU(2) × U(1), qui forme la base de la théorie
standard des particules.
SU(3), SU(2), U(1) sont des désignations propres à la nomenclature des
groupes. U désigne certains groupes, dits unitaires , d'automorphismes
associés à des matrices de déterminant
1 sur un type d'espace particulier (espace
hermitien). SU, renvoie à des sous-groupes d'un groupe unitaire (S,
pour spécial, SU pour groupe unitaire spécial). Les nombre 1,
2, 3 correspondent aux dimensions des matrices associées aux automorphismes
considérés.
Dans de nombreux modèles de physique des
particules, les symétries globales sont spontanément brisées, ce qui
conduit à des masses non nulles pour certains champs. Cela est aussi décrit
par la théorie des groupes. Par exemple, la symétrie du groupe SU(2)
× U(1) est spontanément brisée par le mécanisme de Higgs, ce qui explique
la masse des bosons W+, W-, et Z.
La théorie des groupes
est omniprésente dans la théorie standard des particules et dans de nombreuses
extensions de cette théorie, comme les théories de supercordes et les
théories de grande unification
Théories
des champs de jauge.
La classification des particules n'est
que le résultat de l'action en profondeur de la théorie des groupes dans
les théories des particules. On l'a dit, les groupes sont une manière
de formaliser des symétries (et partant les lois de conservations). Dans
la physique des particules, les théories à l'oeuvre sont appelées
théories de champs de jauge. Une théorie de champs de jauge utilise pour
décrire les interactions entre particules des champs de jauge, qui sont
des champs vectoriels qui transportent l'information des interactions et
transforment selon les règles d'un groupe de symétrie. Chaque interaction
fondamentale (électromagnétisme, interactions faible et forte) a sa théorie,
et toutes ont des caractéristiques communes :
• Invariance
locale. - Une théorie de champs de jauge est dite invariante locale
si les symétries du système sont préservées même lorsque les champs
de jauge varient en espace et en temps. Cette invariance locale conduit
à l'introduction de nouveaux termes dans l'action de la théorie, appelés
termes de champ de jauge.
• Bosons de
jauge. - Les bosons de jauge sont les porteurs de force ( = médiateurs
des interactions) dans une théorie de champs de jauge. Ils transmettent
l'interaction entre les particules. Exemples : photon (γ), bosons W±
et Z0, gluons.
• Potentiel
de jauge. - Le potentiel de jauge est une généralisation du
potentiel électromagnétique, qui décrit l'interaction entre les particules
via le champ de jauge. Il est donné par le tenseur
de champ de jauge Fμν, qui est défini comme
la dérivée covariante du potentiel de jauge Aμ.
Dans certaines théories
de champs de jauge, comme celle de l'unification électrofaible, le mécanisme
de Higgs est nécessaire pour donner des masses aux bosons de jauge. Ce
mécanisme brise la symétrie du groupe de jauge global, ce qui permet
de donner des masses aux bosons W± et Z0,
tout en maintenant une masse nulle pour le photon.
Les théories
des interactions quantiques.
Les interactions
fondamentales entre les particules élémentaires sont décrites par des
théories de champs de jauge, qui reposent sur la théorie des groupes
et la symétrie. A ce jour, ces théories modélisent trois des quatre
interactions fondamentales de la nature : l'interaction électromagnétique,
l'interaction faible et l'interaction forte (l'interaction gravitationnelle
échape à ce cadre).
L'électrodynamique
quantique.
L'électrodynamique
quantique (QED, quantum electrodynamics) décrit l'interaction entre
les particules électriquement chargées via le champ électromagnétique.
Elle combine les principes de la mécanique quantique et de la relativité
restreinte et est basée sur le groupe de symétrie U(1), qui représente
la conservation de la charge électrique. Les particules chargées sont
des leptons (électrons, muons) et les quarks (via leur interaction avec
le photon). La particule d'interaction (boson de jauge) est le photon
(γ), qui est responsable de l'échange de charge électrique entre les
particules. Elle explique des phénomènes variés, allant de la structure
atomique à la lumière et aux rayonnements électromagnétiques. Parmi
ses prédictions les plus remarquables figurent la dispersion des rayons
gamma lorsqu'ils traversent un champ magnétique (effet Klein-Nishina),
la polarisation des photons, ainsi que des phénomènes plus subtils comme
la déviation de la trajectoire des électrons sous l'influence d'un champ
magnétique. L'électrodynamique quantique est l'une des théories les
plus précisément vérifiées expérimentalement. Des calculs basés sur
cette théorie permettent de prédire des valeurs avec une incertitude
inférieure à une partie par milliard dans certains cas, comme la déviation
de la constante de structure fine de l'électromagnétisme. Cette précision
en fait une référence pour les autres théories physiques.
La
théorie électrofaible.
La théorie électrofaible
unifie l'interaction électromagnétique et l'interaction nucléaire faible.
Elle est basée sur le groupe de symétrie SU(2) × U(1). Selon cette théorie,
à très hautes énergies (comme celles présentes dans l'univers primordial),
ces deux forces sont en fait des manifestations différentes d'une seule
et même interaction fondamentale. À des énergies plus basses (celles
que nous observons dans notre environnement quotidien ou dans les accélérateurs
de particules habituels), cette symétrie est brisée (par le mécanisme
de Higgs), et les forces apparaissent distinctes : l'interaction électromagnétique
à longue portée (modélisée par l'électrodynamique quantique)
et l'interacttion faible à très courte portée et impliquée notamment
dans les processus de désintégration alpha et bêta. Les médiateurs
(particules porteuses) de ces interactions unifiées son, p our la force
électromagnétique, le photon, qui est sans masse, et, our la force
faible, les bosons W⁺, W⁻ et Z⁰, qui sont très massifs. La
théorie électrofaible, en conjonction avec le mécanisme de Higgs, explique
pourquoi les bosons W et Z ont une masse significative, tandis que le photon
est sans masse. C'est l'interaction des bosons W et Z avec le champ de
Higgs qui leur confère leur masse, ce qui est crucial pour la courte portée
de la force faible. Le photon n'interagit pas avec le champ de Higgs de
la même manière. Cette théorie décrit comment toutes les particules
fondamentales de matière (les fermions : quarks et leptons) interagissent
via l'échange de ces bosons électrofaibles. C'est un pilier central du
Modèle standard de la physique des particules et elle a été confirmée
par de nombreuses expériences, notamment par la découverte des bosons
W et Z, puis du boson de Higgs, dont l'existence était prédite par ce
cadre théorique.
La
chromodynamique quantique.
La chromodynamique
quantique (QCD, quantum chromodynamics) est la théorie de l'interaction
nucléaire forte. Elle décrit l'interaction entre entre les quarks via
le champ de couleur (la couleur n'étant pas ici une couleur, mais une
charge analogue à la charge électrique de la QED) et est basée sur le
groupe de symétrie SU(3), qui représente la conservation de la couleur.
Les particules associées au champ de couleur sont les gluons (8
différentes sortes). Contrairement à ce qui se passe avec l'électromagnétisme,
où les photons transmettent l'interaction électrique sans être eux-mêmes
influencés par celle-ci, les gluons eux-mêmes possèdent une charge en
couleur. Cela conduit à un phénomène appelé confinement : l'interaction
forte s'intensifie avec la distance. Les quarks ne peuvent jamais exister
seuls, mais seulement en combinaisons stables comme les protons et les
neutrons. À haute énergie, les quarks semblent moins couplés (liberté
asymptotique), ce qui rend la théorie renormalisable. La chromodynamique
quantique explique aussi pourquoi certaines particules ont des masses différentes.
Bien que la QCD soit bien comprise au niveau théorique, elle pose des
défis calculatoires importants, surtout en raison de l'autointeraction
forte des gluons.
Analyse des données
et méthodes computationnelles.
Les expériences
de physique des particules génèrent des quantités massives de données
qui nécessitent des méthodes et des infrastructures computationnelles
sophistiquées pour être analysées.
Reconstruction
des événements.
La reconstructiondes
évévements consiste à transformer les signaux bruts des détecteurs
en informations physiques significatives (trajectoires de particules, énergie
déposée, identification des particules, vertices de collision ou de désintégration).
Méthodes associées : algorithmes complexes, modélisation précise du
détecteur.
Analyse
statistique.
L'analyse statistique
vise à identifier des signaux de nouvelles particules ou de nouveaux phénomènes
qui sont souvent très rares et noyés dans un bruit de fond important
(événements Modèle standard qui miment le signal). Méthodes associées
: ajustement de données, tests d'hypothèses (p-value, calcul de significativité
- la "découverte" est souvent déclarée à 5 sigma), méthodes de classification
(apprentissage automatique, boosting, réseaux de neurones) pour distinguer
signal et bruit de fond, calcul de limites supérieures sur les paramètres
de nouvelles théories.
Simulations
Monte Carlo.
Les simulations
de Monte Carlo consistent à simuler les interactions de particules prédites
par la théorie et leur passage à travers le détecteur. Indispensable
pour comparer les données expérimentales aux prédictions théoriques
et pour comprendre le bruit de fond. Méthodes associées : générateurs
d'événements (ex: Pythia, Herwig), simulations du détecteur (ex: Geant4).
Logiciels
et infrastructures de calcul.
Des outils comme
ldes logiciels et des infrastructures de calcul permettent de gérer,
stocker et analyser d'énormes volumes de données (pétaoctets). Outils
: logiciels frameworks spécifiques (ex: ROOT pour l'analyse et la
visualisation), grilles de calcul distribuées mondialement (ex: WLCG -
Worldwide LHC Computing Grid).
Au-delà du Modèle
standard
Bien que la théorie
actuelle des particules soit très réussie, elle ne couvre pas toutes
les questions en physique des particules. Le Modèle standard est incomplet
et présente des limites. Mentionnons, parmi les questions qui restent
sans réponse :
Pourquoi
y a-t-il une asymétrie matière-antimatière ?
Selon les lois connues
de la physique, le big bang aurait dû produire autant de matière que
d'antimatière. Pourtant, l'univers
observable est composé presque exclusivement de matière. L'enjeu ici
est de comprendre le mécanisme qui a brisé cette symétrie. Le Modèle
standard permet une faible violation de la symétrie CP (charge-parité),
notamment dans les désintégrations des quarks, mais cette violation est
insuffisante pour expliquer l'ampleur de l'asymétrie. Des mécanismes
au-delà du Modèle standard sont donc envisagés, comme la baryogénèse
électrofaible, la leptogénèse via les neutrinos de Majorana (ci-dessous),
ou des extensions supersymétriques. Résoudre cette question, c'est rien
moins que comprendre pourquoi l'univers a une structure matérielle et
pourquoi nous existons.
Les
neutrinos sont-ils leurs propres antiparticules?
Les neutrinos sont
des particules très particulières : ils sont neutres électriquement,
ultralégers et capables d'osciller entre saveurs. On ignore encore s'ils
sont de type Dirac (comme l'électron, distincts de leurs antiparticules)
ou Majorana (leurs propres antiparticules, comme le photon). L'enjeu principal
est expérimental : détecter la double désintégration bêta sans neutrino,
un processus possible uniquement si les neutrinos sont de type Majorana.
Découvrir que le neutrino est de type Majorana bouleverserait la compréhension
des symétries fondamentales. Cela aurait des implications majeures sur
la violation du nombre leptonique, sur les modèles d'origine de la masse
du neutrino, et sur les les scénarios de leptogénèse, qui pourraient
expliquer l'asymétrie matière-antimatière de l'univers.
Pourquoi
y a-t-il une matière et une énergie sombres?
Les observations
astronomiques (mouvements galactiques, lentilles gravitationnelles, expansion
cosmique) indiquent que la matière ordinaire (baryonique) ne représente
qu'environ 5 % de l'univers. Le reste est constitué de matière sombre
(27 %), invisible mais gravitationnellement active, et d'énergie sombre
(68 %), responsable de l'accélération de l'expansion de l'univers. Le
Modèle standard n'inclut aucune particule stable, massive et non baryonique
qui pourrait jouer le rôle de matière sombre.
L'enjeu est donc d'identifier cette matière : WIMPs, axions, neutrinos
stériles, ou particules issues de théories au-delà du Modèle standard.
Quant à l'énergie sombre, son origine
est encore plus énigmatique : constante cosmologique? champ scalaire dynamique
(quintessence) ? ou effet émergent de la gravitation à grande échelle?
Répondre à ces questions revient à reconsidérer le contenu énergétique
de l'univers et à expliquer les grandes structures
cosmiques.
Pourquoi
la masse du boson de Higgs est-elle si faible par rapport à l'échelle
de Planck ?
La masse du boson
de Higgs (environ 125 GeV) est très inférieure à l'échelle naturelle
de la gravitation quantique, dite échelle de Planck (environ 1019
GeV). Cette différence gigantesque pose un problème de stabilité radiative
: les corrections quantiques à la masse du Higgs devraient être énormes,
sauf s'il existe un mécanisme de régulation ou de symétrie qui protège
cette faible masse. C'est le problème de hiérarchie. Des théories
comme la supersymétrie, les dimensions supplémentaires, ou les modèles
technicolor ont été proposés pour résoudre ce paradoxe. Jusqu'ici,
aucune n'a été confirmée expérimentalement, notamment au LHC. Comprendre
ce point revient à savoir si la structure du vide est naturelle ou ajustée
finement, et donc à poser des limites à l'applicabilité du Modèle standard.
Pourquoi
les masses des particules sont-elles ce qu'elles sont?
Le Modèle standard
attribue les masses des particules via le mécanisme de Higgs, mais il
ne prédit pas les valeurs numériques de ces masses : elles sont insérées
à la main dans la théorie à partir des données expérimentales. Or,
les masses des quarks, leptons et bosons varient sur plusieurs ordres de
grandeur (par exemple, le quark top est environ 340 000 fois plus massif
que l'électron). L'enjeu dès lors est de découvrir une structure plus
fondamentale qui expliquerait ces valeurs et leur hiérarchie. Cela pourrait
impliquer : une nouvelle symétrie (comme des symétries de saveur ou de
texture), un mécanisme de génération dynamique de masse, ou bien encore
des relations géométriques dans des théories de type cordes ou théories
de jauge étendues. Répondre à cette question, c'est comprendre l'origine
de la masse, mais aussi pourquoi certaines particules sont quasi-massives
(comme le neutrino) et d'autres ultra-massives.
Le
proton est-il vraiment stable?
Le Modèle Standard
prévoit un proton stable, mais les théories de Grande unification (GUT)
prévoient sa désintégration à très longue durée de vie (~1034
ans). Observer une telle désintégration serait une preuve directe d'unification,
révélant un lien profond entre quarks et leptons. Les grands détecteurs
comme Super-Kamiokande sont à l'affût de ces événements nécessairement
extrêmement rares, même en observent d'immenses quantités de protons.
Existe-t-il
une grande unification des forces?
Le Modèle standard
repose sur trois interactions fondamentales, qu'il les traite comme distinctes,
avec des constantes de couplage différentes. Les théories de Grande unification
(GUT) cherchent à unifier ces trois forces dans un même cadre mathématique,
généralement basé sur un groupe de symétrie plus grand (comme SU(5),
SO(10), ou E6). Cela permettrait de comprendre l'origine commune des interactions
et leur séparation à basse énergie, de prédire l'évolution des constantes
de couplage avec l'énergie (via la renormalisation), de prédire la désintégration
du proton, signature attendue d'unification mais non encore observée,
et aussi de fournir un cadre pour intégrer la gravitation dans des théories
plus larges. Une telle unification ouvrirait la voie vers une vision plus
cohérente de la nature, avec potentiellement un seul type d'interaction
aux énergies très élevées.
Pourquoi
y a-t-il exactement trois générations de fermions?
Le Modèle standard
contient trois générations de fermions (quarks et leptons) . Rien, cependant,
dans le modèle n'impose ce nombre. C'est une entrée empirique.
Mais certaines extensions, comme les modèles technicolor ou les théories
à dimensions supplémentaires, envisagent des familles supplémentaires
ou des fermions vectoriels. Leur découverte indiquerait une structure
encore plus complexe de la matière. Comrendre pourquoi il y a trois familles,
permettrait de savoir s'il existe une structure mathématique ou géométrique
qui impose ce nombre (ex : symétries de saveur, groupes de famille); cela
permettrait aussi d'expliquer, par exemple, les modèles d'oscillation
des neutrinos, qui sont directement liés au nombre de familles, ou de
comprendre les asymétries CP, qui nécessitent au moins trois générations
pour être non triviales.
La
symétrie CP est-elle violée dans le secteur des leptons?
La violation de
la symétrie CP est observée chez les quarks (dans le système kaon et
B), mais son ampleur est trop faible pour expliquer l'asymétrie matière-antimatière.
Si cette violation existe aussi chez les leptons, notamment via les oscillations
de neutrinos, elle pourrait être cruciale pour une leptogénèse expliquant
l'origine de la matière. Des expériences comme DUNE et Hyper-Kamiokande
cherchent à mesurer cette violation CP dans le secteur des neutrinos.
Le
Modèle standard est-il stable à haute énergie?
Les calculs de renormalisation
indiquent que la combinaison des masses du boson de Higgs et du quark top
pourrait placer l'univers dans un état métastable : le vide quantique
actuel ne serait pas le plus stable, et pourrait évoluer vers un autre
état via un effet tunnel. Cela soulève des questions sur la finitude
du cosmos et sur la nécessité d'une nouvelle physique stabilisatrice
à haute énergie.
La
supersymétrie existe-t-elle dans la nature?
La supersymétrie
(SUSY) postule un doublement des particules (chaque boson ayant un partenaire
fermionique et inversement) et pourrait résoudre plusieurs problèmes
: hiérarchie du Higgs, unification des constantes de couplage, existence
de matière sombre (neutralino), stabilisation du vide. Son absence au
LHC contraint fortement les modèles, mais certaines versions (SUSY brisée,
naturelle, minimale) restent viables. La réponse à cette question déterminerait
le paysage théorique de la physique des hautes énergies.
Existe-t-il
des interactions ou des forces supplémentaires?
Des modèles envisagent
une cinquième force, ou des interactions liées à des symétries cachées
(groupe U(1) supplémentaire, boson Z', etc.). Des anomalies expérimentales,
comme celles observées dans certaines désintégrations de mésons B (par
exemple dans les expériences LHCb ou Belle II), pourraient indiquer de
telles extensions du Modèle standard.
Est-il
possible d'unifier la gravitation avec les autres interactions fondamentales?
La gravitation,
décrite par la relativité générale, reste fondamentalement incompatible
avec les lois quantiques qui gouvernent les trois autres interactions.
La question est de savoir s'il est possible de bâtir une théorie
quantique de la gravitation qui unifierait toutes les forces fondamentales.
Les principales approches sont : la théorie des cordes, qui postule que
les particules sont des excitations vibratoires d'objets unidimensionnels
(et non ponctuels comme dans le Modèle standard); la gravitation quantique
à boucles, qui tente de quantifier l'espace-temps sans recourir à une
structure de fond; les modèles holographiques ou d'émergence de la gravitation
(AdS/CFT, gravitation entropique); ou encore des approches plus radicales
liant information, entropie et géométrie. L'unification de la gravitation
et des autres forces ouvrirait la voie à une théorie du tout,
capable de décrire aussi bien les trous noirs
que les interactions subatomiques, et donnerait accès à une compréhension
plus profonde de l'espace, du temps, et de l'origine de l'univers.
Quelle
est la nature du temps et de l'irréversibilité à l'échelle fondamentale?
Les lois fondamentales
sont réversibles dans le temps, mais la physique macroscopique (thermodynamique,
cosmologie)
manifeste une flèche du temps. Comprendre l'origine de cette dissymétrie,
et son lien éventuel avec la gravitation ou l'entropie
initiale de l'univers, constitue une question clé à l'interface entre
physique des particules, cosmologie et fondements de la mécanique quantique.
Quelle
est la structure ultime de l'espace-temps ?
À très haute énergie
(échelle de Planck), l'espace-temps
pourrait devenir discret, granulaire, ou émergent. Les approches comme
la gravitation quantique à boucles, la théorie des cordes, ou les géométries
non commutatives remettent en cause l'idée classique d'un continuum. Cela
pose la question du support même des interactions et des champs, et pourrait
changer notre conception de la causalité et
de la localité.
Quelles
sont les implications de la non-localité quantique?
La violation des
inégalités
de Bell confirme l'existence de corrélations non locales en mécanique
quantique. Le défi est de comprendre leur compatibilité avec la causalité
relativiste, et de déterminer s'il existe des modèles sous-jacents (comme
les théories à variables cachées non locales ou les reformulations en
gravitation quantique) qui en rendent compte de manière cohérente. |
|