.
-

-
 
La physique des particules
Physique des hautes énergies
La physique des particules (ou physique des hautes énergies) est la branche de la physique, à la pointe de notre compréhension de l'univers, qui étudie les constituants fondamentaux de la matière et de l'énergie, ainsi que les interactions qui régissent leur comportement. Son objectif principal est de comprendre l'univers aux échelles les plus petites possibles, en identifiant les briques élémentaires et les forces ou interactions fondamentales qui construisent tout ce que nous connaissons. Pour cela, elle s'emploie à construire les modèles mathématiques qui décrivent les particules et leurs interactions, et à faire des prédictions testables par l'expérience. 

Au coeur de la physique des particules se trouve l'idée que la matière n'est pas infiniment divisible. En remontant le fil de la composition (atomes, puis noyaux et électrons, puis protons et neutrons), on arrive à des particules qui, selon nos connaissances actuelles, ne sont pas composées d'entités plus petites. Ces particules sont dites élémentaires ou fondamentales.

Le cadre théorique dominant qui décrit ces particules élémentaires et leurs interactions est appelé le Modèle standard de la physique des particules. Il distingue des particules de matière (quarks et leptons) et des particules responsables des interactions (bosons vecteurs des forces). Les interactions entre particules de matière s'expliquent par l'échange entre elles de particules d'interaction vitrtuelles. 

Les interactions fondamentales sont au nombre de quatre : interaction électromagnétique, interactions faible, interaction forte et interaction gravitationnelle. Le Modèle standard décrit avec succès les trois premières, mais il ne décrit pas l'interaction gravitationnelle. La gravitation est décrite par la relativité générale d'Einstein. L'intégration de la gravitation dans un cadre quantique cohérent avec les autres forces reste un défi majeur (l'hypothétique boson médiateur de la gravitation, le graviton, n'est pas inclus dans le Modèle standard et n'a pas été observé).
Le Modèle standard est une théorie de champ quantique qui a été développée tout au long de la seconde moitié du XXe siècle et qui a connu un succès expérimental remarquable. Il n'est cependant pas la fin de l'histoire, car il laisse encore beaucoup de questions sans réponse. L'objectif ultime de la physique des particules est donc de découvrir une théorie plus fondamentale qui unifie toutes les forces et particules et répond aux questions non résolues du Modèle standard, nous rapprochant ainsi de la compréhension de la nature fondamentale de l'univers. 

Jalons historiques

L'histoire de la physique des particules est une quête continue pour comprendre les composants fondamentaux de la matière, qui a commencé il y a des millénaires avec les philosophes grecs atomistes comme Démocrite, postulant l'existence d'unités indivisibles, insécables, appelées atomes. Pendant des siècles, l'idée est restée spéculative jusqu'à la révolution scientifique. Au début du XIXe siècle, John Dalton a proposé sa théorie atomique pour expliquer les lois de la chimie, considérant l'atome comme la plus petite unité de la matière.

L'atome sécable.
La fin du XIXe siècle a marqué le début de l'ère de la physique des particules moderne avec la découverte de l'électron par J.J. Thomson en 1897, montrant que l'atome n'était pas indivisible mais contenait des particules plus petites chargées négativement. Peu après, la découverte de la radioactivité par Henri Becquerel et les travaux pionniers de Marie et Pierre Curie ont révélé que les noyaux atomiques pouvaient se désintégrer, émettant différentes formes de radiation (alpha, bêta, gamma), suggérant une structure interne complexe. Ernest Rutherford, à travers son expérience célèbre de diffusion de feuilles d'or en 1911, a démontré que la majeure partie de la masse et de la charge positive de l'atome était concentrée dans un noyau central minuscule. Il a ensuite identifié le proton comme une particule fondamentale du noyau en 1919.

Le zoo de particules.
Les années 1930 ont été une décennie de découvertes importantes. En 1932, James Chadwick a découvert le neutron, complétant ainsi l'image des principaux constituants du noyau atomique (protons et neutrons) et des électrons en orbite. La même année, Carl Anderson a découvert le positon, l'antiparticule de l'électron prédite quelques années plus tôt par Paul Dirac, ouvrant la voie au concept d'antimatière. Les travaux théoriques d'Enrico Fermi sur la désintégration bêta ont posé les bases de la théorie de l'interaction faible. Hideki Yukawa a proposé l'existence d'une nouvelle particule, le méson, pour expliquer la force qui lie les protons et les neutrons dans le noyau.

Après la Seconde Guerre Mondiale, l'accès à de nouvelles technologies comme les plaques photographiques exposées aux rayons cosmiques et le développement des premiers accélérateurs de particules a mené à une prolifération rapide de la découverte de nouvelles particules. Dans les années 1940 et 1950, on a découvert les muons (d'abord confondus avec les mésons de Yukawa), les pions (qui correspondaient mieux à la prédiction de Yukawa), les kaons et une multitude d'autres particules appelées hyperons et résonances. C'était la période du zoo de particules, où la liste des particules élémentaires semblait s'allonger sans fin.

La voie octuple..
Face à ce fouillis, un effort d'organisation s'est imposé. Murray Gell-Mann et Yuval Ne'eman ont proposé indépendamment la eightfold way (la voie octuple) dans les années 1960, un schéma de classification des hadrons basé sur des propriétés symétriques. Ce schéma a mené à la prédiction de nouvelles particules et, surtout, à l'hypothèse des quarks, proposée par Gell-Mann et George Zweig en 1964. Selon cette idée, les protons, neutrons et la plupart des autres hadrons n'étaient pas élémentaires mais composés de particules encore plus fondamentales, les quarks, qui portaient une charge électrique fractionnaire et une nouvelle charge quantique appelée couleur. Initialement, seulement trois saveurs de quarks (up, down, strange) étaient nécessaires.

Établissement du Modèle Standard..
Les années 1970 ont vu l'édification du Modèle standard. Sheldon Glashow, Steven Weinberg et Abdus Salam ont développé une théorie unifiant l'interaction électromagnétique et l'interaction faible en une seule interaction électrofaible, une réalisation majeure qui leur a valu le prix Nobel. La théorie de la force forte, appelée chromodynamique quantique (QCD), a été formulée par David Gross, Frank Wilczek et David Politzer, expliquant comment les quarks interagissent via des gluons et pourquoi les quarks sont confinés à l'intérieur des hadrons (phénomène de liberté asymptotique). L'existence d'une quatrième saveur de quark, le quark charm, a été prédite par Glashow, John Iliopoulos et Luciano Maiani en 1970 pour résoudre un problème théorique, et il fut découvert expérimentalement en 1974 (la Révolution de Novembre avec la découverte simultanée de la particule J/psi par deux équipes différentes). Peu après, en 1975, le lepton tau fut découvert, suggérant l'existence d'une troisième génération de fermions, qui fut complétée par la découverte du quark bottom en 1977.

Dans les années 1980, les prédictions clés du Modèle standard ont été confirmées expérimentalement. Les bosons W et Z, médiateurs de l'interaction faible, ont été découverts en 1983 au CERN grâce aux expériences UA1 et UA2, dirigées respectivement par Carlo Rubbia et Simon van der Meer (ce qui leur a valu le prix Nobel dès 1984). Le Modèle standard, avec ses six saveurs de quarks et six types de leptons, et les bosons médiateurs des forces électromagnétique, faible et forte, est devenu la description acceptée des particules élémentaires et de leurs interactions. La seule pièce manquante était le boson de Higgs.

Les années 1990 et le début des années 2000 ont été marquées par des expériences de précision testant le Modèle standard et la recherche de la dernière pièce manquante. En 1995, le quark top, le sixième et le plus lourd des quarks, fut découvert au Fermilab aux États-Unis par les expériences CDF et DZero. Un autre développement important fut la découverte des oscillations de neutrinos à la fin des années 1990 et au début des années 2000 (notamment par l'expérience Super-Kamiokande), prouvant que les neutrinos possédaient une petite masse, ce qui n'est pas naturellement inclus dans la formulation originale du Modèle standard et pointe vers une physique au-delà de celui-ci.

Le point culminant de la recherche a été la construction du Large Hadron Collider (LHC) au CERN. Conçu en grande partie pour trouver le boson de Higgs et rechercher de nouvelles physiques, le LHC a commencé à prendre des données en 2010. Le 4 juillet 2012, les collaborations ATLAS et CMS ont annoncé la découverte d'une nouvelle particule compatible avec le boson de Higgs attendu, une découverte majeure qui a validé le mécanisme de Brout-Englert-Higgs pour la génération de masse et a valu le prix Nobel à François Englert et Peter Higgs en 2013.

Et maintenant...
Depuis la découverte du Higgs, la physique des particules est entrée dans une nouvelle phase, qui consiste à mesurer avec précision les propriétés du boson de Higgs et des autres particules du Modèle standard, tout en cherchant activement des signes de physique au-delà du Modèle standard, que ce soit à travers des recherches directes de nouvelles particules massives au LHC, des recherches indirectes de très rares processus ou des observations cosmologiques sur la matière sombre et l'énergie sombre. L'histoire de la physique des particules continue de s'écrire.

Le modèle standard des particules

Le Modèle standard catégorise les particules élémentaires en plusieurs groupes :

Constituants de la matière.
Les fermions : les constituants de la matière.
Les fermions sont des particules qui obéissent au principe d'exclusion de Pauli (deux fermions identiques ne peuvent pas occuper le même état quantique). Ce sont les briques de construction de la matière. Ils sont divisés en deux familles principales :

Les quarks ressentent l'interaction forte et sont toujours confinés à l'intérieur de particules composites appelées hadrons (comme les protons et les neutrons). Il existe six saveurs de quarks : up (u), down (d), charm (c), strange (s), top (t), et bottom (b). Chaque saveur existe en trois couleurs (rouge, vert, bleu), une charge quantique liée à l'interaction forte. Les protons sont faits de deux quarks up et un quark down (uud), tandis que les neutrons sont faits de un quark up et deux quarks down (udd).

Les Leptons ne ressentent pas l'interaction forte. Il existe six types de leptons : l'électron (e⁻), le muon (μ⁻), le tau (τ⁻), et leurs trois neutrinos associés (νe, νμ, ντ). L'électron, le muon et le tauon ont une charge électrique négative, tandis que les neutrinos sont électriquement neutres. Les neutrinos interagissent très faiblement avec la matière.

Chaque fermion a également une antiparticule correspondante (anti-quark, positron (e⁺), anti-muon, etc.) qui a la même masse mais des charges opposées.

Les bosons : Les médiateurs des forces.
Les bosons sont des particules qui obéissent aux statistiques de Bose-Einstein et ne sont pas soumis au principe d'exclusion de Pauli. Dans le Modèle standard, les forces fondamentales (sauf la gravitation) sont véhiculées par l'échange de bosons.

Le photon (γ) est le médiateur de l'interaction électromagnétique, responsable des phénomènes électriques et magnétiques, et de la lumière. Il a une masse nulle.

Les gluons (g) sont les médiateurs de l'interaction forte, responsable de l'attraction entre les quarks à l'intérieur des protons et neutrons, et de la liaison entre protons et neutrons dans le noyau atomique. Il y a 8 types de gluons. Ils ont une masse nulle et portent eux-mêmes une charge de couleur, ce qui explique le confinement des quarks.

Les bosons W⁺, W⁻, et Z⁰ (= bosons intermédiaires) sont les médiateurs de l'interaction faible, responsable de certains types de désintégration radioactive (comme la désintégration bêta) et des processus nucléaires dans le Soleil. Ces bosons ont des masses importantes.

Le Boson de Higgs (H) : responsable de la masse
Le Boson de Higgs est une particule scalaire (spin 0) associée au champ de Higgs. Dans le Modèle standard, le champ de Higgs remplit tout l'univers. L'interaction des particules avec ce champ est ce qui leur confère leur masse. Le mécanisme par lequel cela se produit est appelé le mécanisme de Brout-Englert-Higgs. Certaines particules (comme le photon et les gluons) n'interagissent pas avec le champ de Higgs et restent donc sans masse.

Outils et méthodes de la physique des particules

La physique des particules est un domaine de recherche de pointe qui s'appuie sur un ensemble d'outils technologiques sophistiqués et de méthodes analytiques complexes, tant expérimentales que théoriques.

Outils et méthodes expérimentaux.
L'objectif principal de l'expérimentation en physique des particules est de produire, de détecter et de mesurer les propriétés des particules élémentaires et de leurs interactions.

Accélérateurs de Particules.
Les accélérateurs de particules  propulsent des particules (protons, électrons, ions...) à des vitesses proches de celle de la lumière et les font entrer en collision. L'énergie de la collision peut alors se convertir en masse (selon  E=mc²) pour créer des particules massives qui n'existent pas dans des conditions ordinaires. Il existe plusieurs types d'accélérateurs de particules : accélérateurs linéaires, cyclotrons, synchrotrons, et surtout les collisionneurs, où deux faisceaux de particules sont accélérés en sens inverse et se rencontrent. Chaque type d'accélérateur est optimisé pour des objectifs spécifiques, allant de la recherche fondamentale en physique des hautes énergies à des applications pratiques en médecine et en sciences des matériaux.

Accélérateurs linéaires (Linac). -  Ces accélérateurs utilisent une cavité électromagnétique pour accélérer les particules dans un tunnel rectiligne. Ils peuvent atteindre des énergies élevées mais sont limités par leur longueur. Le SLAC (Stanford Linear Accelerator Center) est un accélérateur linéaire de 3,2 km de long. Il a été construit dans les années 1960 et est utilisé pour accélérer des électrons et des positrons jusqu'à des énergies de plusieurs GeV (gigaélectronvolts). SLAC a joué un rôle clé dans la découverte du j/ψ, une particule subatomique importante.  Le XFEL (X-ray Free-Electron Laser) est un accélérateur linéaire situé en Allemagne, qui produit des rayons X ultra-intenses et ultra-courts. Il est utilisé pour des recherches en biologie, chimie et physique des matériaux.

Cyclotrons. -  Ce type d'accélérateur utilise un champ magnétique constant pour maintenir les particules sur une trajectoire circulaire croissante. Il est couramment utilisé pour produire des isotopes radioactifs, notamment, en médecine, par exemple, pour la thérapie par protonthérapie. Un tel accélérateur génère dans ce cas des protons pour bombarder des cibles nucléaires, créant des isotopes comme le technétium-99m, largement utilisé en imagerie médicale. Au Canada, on trouve le TRIUMF, un grand cyclotron qui produit des faisceaux de protons et d'autres particules pour des expériences en physique nucléaire et pour la production d'isotopes médicaux.

Synchrotrons. - Les synchrotrons accélèrent les particules en utilisant un champ magnétique variable pour compenser l'augmentation de l'énergie des particules. Ils sont capables d'atteindre des énergies très élevées. Le synchrotron Soleil est un synchrotron situé près de Paris. Il accélère des électrons jusqu'à des énergies de 2 GeV et émet des photons de lumière synchrone pour des applications en sciences des matériaux, en biologie structurale et en physique des surfaces. L'Advanced Photon Source (APS) est un synchrotron basé aux États-Unis qui produit des photons X de très haute intensité pour des expériences en biologie, en chimie, en physique des matériaux et en médecine.

Collisionneurs. - Les collisionneurs sont des types spécifiques d'accélérateurs où deux faisceaux de particules sont accélérés en sens inverse et dirigés vers un point de collision. Le LHC est le plus grand et le plus puissant collisionneur actuel.  Il accélère des faisceaux de protons ou d'ions lourds (comme ceux de plomb) jusqu'à des énergies de plusieurs téraélectronvolts (TeV) et provoque des collisions à haute énergie pour étudier les particules issues de ces interactions. Il est célèbre en particulier pour avoir permis la découverte du boson de Higgs en 2012, confirmant ainsi une prédiction majeure de la théorie des particules standard. Le RHIC (Relativistic Heavy Ion Collider), au Brookhaven National Laboratory (USA), est un collisionneur de particules qui accélère des ions lourds, tels que des noyaux de deutérium et d'or. Il est utilisé pour étudier la matière de haute densité, notamment le plasma quark-gluon, une phase de la matière présumée exister immédiatement après le big bang (entendons les phénomènes qui se sont produits dans les tout premiers instants de l'expansion de l'univers).

Méthodes associées : maîtrise des champs électromagnétiques pour guider et accélérer les faisceaux, maintien du vide poussé, cryogénie pour les aimants supraconducteurs.

Détecteurs de particules.
Les détecteurs de particules sont d'immenses instruments complexes, multi-couches, construits autour des points de collision des accélérateurs.  Ils enregistrent les trajectoires, l'énergie, la quantité de mouvement, la charge et d'autres propriétés des particules créées lors des collisions. Des détecteurs comme ATLAS et CMS au LHC sont des exemples emblématiques, utilisant diverses technologies pour identifier les différentes particules (électrons, muons, photons, jets de hadrons, neutrinos). Types d'instruments :

 • Les détecteurs de trajectoires (tracking chambers) mesurent la trajectoire des particules chargées (ex : détecteurs à semi-conducteurs au silicium, chambres à gaz). Ces instruments permettent de reconstruire les points d'interaction  et de mesurer l'impulsion (quantité de mouvement). 
Les calorimètres mesurent l'énergie des particules en les arrêtant. Il existe des calorimètres électromagnétiques (pour électrons et photons) et hadroniques (pour protons, neutrons, pions, etc.).

Les détecteurs de muons identifient les muons, qui sont des particules pénétrantes traversant la plupart des autres couches de détecteurs.

Les systèmes de déclenchement (trigger) filtrent les milliards de collisions se produisant chaque seconde pour ne sélectionner et enregistrer que les événements potentiellement intéressants pour l'analyse physique.

Méthodes associées : acquisition de données ultra-rapide (DAQ), calibration précise des détecteurs, modélisation de l'interaction particule-matière.

Autres approches d'expérimentales.

Expériences avec les rayons cosmiques. - Les particules de très haute énergie venant de l'espace (cosmiques) peuvent être détectées et étudiées, fournissant des informations sur les particules rares ou les interactions à des énergies inaccessibles aux accélérateurs actuels (ex : Super-Kamiokande pour les neutrinos, Observatoire Pierre Auger pour les rayons cosmiques d'ultra haute énergie).

Expériences de physique de précision à basse énergie. - Certaines expériences étudient les propriétés des particules à basse énergie avec une extrême précision (mesure de moments dipolaires, recherche de désintégrations rares, etc.) pour chercher des indices de nouvelle physique. Des détecteurs de matière sombre dans des laboratoires souterrains en font partie.

Sites expérimentaux.
De vastes structures internationales sont dédiées à l'hébergement des accélérateurs et détecteurs. Par exemple, le CERN (Europe), le Fermilab (Etats-Unis),  le KEK (Japon), etc. Y sont requises des collaborations scientifiques massives (des milliers de physiciens et ingénieurs), impliquées dans la gestion de projets complexes et une ingénierie de précision à grande échelle.

Les bases mathématiques des théories.
La théorie quantique des champs (TQC).
La théorie quantique des champs est le cadre mathématique général dans lequel sont construites toutes les théories des particules élémentaires. Elle unifie la mécanique quantique et la relativité restreinte, et est fondée sur la relation qu'elle établit les champs et les particules. Elle opère, de fait, un changement de perspective fondamental : l'entité primordiale n'est pas la particule mais le champ qui remplit l'univers. Les particules que nous observons ne sont que des manifestations localisées et quantifiées de l'énergie et de l'impulsion associées à ces champs sous-jacents. Le champ est fondamental, et les particules sont ses états excités. Le champs quantiques imprègnent tout l'espace-temps. Pour chaque type de particule élémentaire connu (électron, photon, quark, etc.), il existe un champ quantique correspondant.

Ces champs quantiques ne sont pas de simples fonctions numériques comme les champs classiques (par exemple, le champ électromagnétique classique ou le champ gravitationnel), mais ce sont des opérateurs quantiques. Ils sont définis en tout point de l'espace et à tout instant, et leurs dynamiques sont régies par des équations issues d'un lagrangien spécifique, similaire à la manière dont la mécanique quantique traditionnelle est dérivée d'un hamiltonien.

Dans ce cadre, les particules apparaissent comme des excitations quantifiées de ces champs. On peut visualiser cela comme des ondes ou des vibrations spécifiques se propageant à travers le champ. L'analogie courante est celle de la surface de l'eau : la nappe d'eau elle-même est le "champ", et les vagues qui se forment et se déplacent à sa surface sont les "particules". Chaque type de particule correspond à un type de champ distinct. Par exemple, les électrons sont les quanta d'excitation du "champ d'électrons", les photons sont les quanta d'excitation du "champ électromagnétique", et ainsi de suite.

Un aspect décisif de cette description est que le nombre de particules n'est pas fixe dans la TQC. Les champs possèdent des opérateurs de création et d'annihilation qui permettent de créer ou de faire disparaître des quanta d'excitation, c'est-à-dire de créer ou d'annihiler des particules. C'est essentiel pour décrire les processus où des particules sont créées (par exemple, à partir de l'énergie pure dans les accélérateurs de particules) ou annihilées (par exemple, l'annihilation matière-antimatière).

Les interactions entre les particules sont également décrites en termes d'interactions entre les champs. Lorsqu'une particule interagit avec une autre, cela se produit via l'échange de quanta d'un champ médiateur d'interaction. Par exemple, l'interaction électromagnétique entre deux électrons est le résultat de l'échange de photons (les quanta du champ électromagnétique) entre les deux "champs d'électrons". Les propriétés des particules (masse, charge, spin) sont des attributs de ces excitations du champ, déterminés par les propriétés et les termes du lagrangien du champ correspondant.

Méthodes associées : le formalisme lagrangien, la quantification (canonique ou par intégrales de chemin), la renormalisation (pour gérer les infinis).

Calculs théoriques.
Les calculs théoriques visent à prédire les probabilités des différents résultats expérimentaux (sections efficaces, taux de désintégration) basés sur les théories (principalement le Modèle standard). Méthodes associées :

Intégrales des chemins. - Permettent de formuler la mécanique quantique en termes de trajectoires possibles des particules.
Diagrammes de Feynman. - Représentations graphiques des interactions entre particules, facilitant les calculs  des probabilités associées et les calculs perturbatifs en théorie quantique des champs.

Calculs perturbatifs. - Développement en série basé sur une petite constante de couplage.

Chromodynamique quantique sur réseau (lattice QCD). - Méthode non-perturbative utilisant la simulation numérique sur une grille spatio-temporelle pour calculer des propriétés des hadrons (protons, neutrons) où les méthodes perturbatives ne sont pas valides.

La théorie des groupes.
Beaucoup de lois de la physique sont basées sur l'existence de propriétés et grandeurs invariantes sous certaines transformations (lois de conservation). Mathématiquement, une loi de conservation correspond à une symétrie (théorème de Noether). Par exemple : la conservation de la quantité de mouvement est liée à la symétrie de translation spatiale, la conservation de l'énergie est liée à la symétrie de translation temporelle, la conservation du moment angulaire est liée à la symétrie de rotation. La théorie des groupes permet de formaliser ces symétries et de prédire des lois de conservation associées. 

Un catégorie particulière des groupes, les groupes de Lie, sert à classer les particules élémentaires. Chaque particule peut être associée à une représentation spécifique d'un groupe de symétrie. Les quarks et les leptons peuvent ainsi être classifiés en termes de leurs transformations sous le groupe SU(3) × SU(2) × U(1), qui forme la base de la théorie standard des particules.

SU(3), SU(2), U(1) sont des désignations propres à la nomenclature des groupes. U désigne certains groupes, dits unitaires , d'automorphismes associés à des matrices de déterminant 1 sur un type d'espace particulier (espace hermitien). SU, renvoie à des sous-groupes d'un groupe unitaire (S, pour spécial, SU pour groupe unitaire spécial). Les nombre 1, 2, 3 correspondent aux dimensions des matrices associées aux automorphismes considérés.
Dans de nombreux modèles de physique des particules, les symétries globales sont spontanément brisées, ce qui conduit à des masses non nulles pour certains champs. Cela est aussi décrit par la théorie des groupes. Par exemple, la symétrie du groupe SU(2) × U(1) est spontanément brisée par le mécanisme de Higgs, ce qui explique la masse des bosons W+, W-, et Z.

La théorie des groupes est omniprésente dans la théorie standard des particules et dans de nombreuses extensions de cette théorie, comme les théories de supercordes et les théories de grande unification

Théories des champs de jauge.
La classification des particules n'est que le résultat de l'action en profondeur de la théorie des groupes dans les théories des particules. On l'a dit, les groupes sont une manière de formaliser des symétries (et partant les lois de conservations). Dans la physique des particules, les théories à l'oeuvre sont appelées  théories de champs de jauge. Une théorie de champs de jauge utilise pour décrire les interactions entre particules des champs de jauge, qui sont des champs vectoriels qui transportent l'information des interactions et transforment selon les règles d'un groupe de symétrie. Chaque interaction fondamentale (électromagnétisme, interactions faible et forte) a sa théorie, et toutes ont des caractéristiques communes :

Invariance locale. - Une théorie de champs de jauge est dite invariante locale si les symétries du système sont préservées même lorsque les champs de jauge varient en espace et en temps. Cette invariance locale conduit à l'introduction de nouveaux termes dans l'action de la théorie, appelés termes de champ de jauge.

Bosons de jauge. - Les bosons de jauge sont les porteurs de force ( = médiateurs des interactions) dans une théorie de champs de jauge. Ils transmettent l'interaction entre les particules. Exemples : photon (γ), bosons W± et Z0, gluons.

 • Potentiel de jauge. -  Le potentiel de jauge est une généralisation du potentiel électromagnétique, qui décrit l'interaction entre les particules via le champ de jauge. Il est donné par le tenseur de champ de jauge Fμν​, qui est défini comme la dérivée covariante du potentiel de jauge Aμ​.

Dans certaines théories de champs de jauge, comme celle de l'unification électrofaible, le mécanisme de Higgs est nécessaire pour donner des masses aux bosons de jauge. Ce mécanisme brise la symétrie du groupe de jauge global, ce qui permet de donner des masses aux bosons W± et Z0, tout en maintenant une masse nulle pour le photon.

Les théories des interactions quantiques.
Les interactions fondamentales entre les particules élémentaires sont décrites par des théories de champs de jauge, qui reposent sur la théorie des groupes et la symétrie. A ce jour, ces théories modélisent trois des quatre interactions fondamentales de la nature : l'interaction électromagnétique, l'interaction faible et l'interaction forte (l'interaction gravitationnelle échape à ce cadre). 

L'électrodynamique quantique.
L'électrodynamique quantique (QED, quantum electrodynamics) décrit l'interaction entre les particules électriquement chargées via le champ électromagnétique. Elle combine les principes de la mécanique quantique et de la relativité restreinte et est basée sur le groupe de symétrie U(1), qui représente la conservation de la charge électrique. Les particules chargées sont des leptons (électrons, muons) et les quarks (via leur interaction avec le photon). La particule d'interaction (boson de jauge) est le  photon (γ), qui est responsable de l'échange de charge électrique entre les particules. Elle explique des phénomènes variés, allant de la structure atomique à la lumière et aux rayonnements électromagnétiques. Parmi ses prédictions les plus remarquables figurent la dispersion des rayons gamma lorsqu'ils traversent un champ magnétique (effet Klein-Nishina), la polarisation des photons, ainsi que des phénomènes plus subtils comme  la déviation de la trajectoire des électrons sous l'influence d'un champ magnétique. L'électrodynamique quantique est l'une des théories les plus précisément vérifiées expérimentalement. Des calculs basés sur cette théorie permettent de prédire des valeurs avec une incertitude inférieure à une partie par milliard dans certains cas, comme la déviation de la constante de structure fine de l'électromagnétisme. Cette précision en fait une référence pour les autres théories physiques.

La théorie électrofaible.
La théorie électrofaible unifie l'interaction électromagnétique et l'interaction nucléaire faible. Elle est basée sur le groupe de symétrie SU(2) × U(1). Selon cette théorie, à très hautes énergies (comme celles présentes dans l'univers primordial), ces deux forces sont en fait des manifestations différentes d'une seule et même interaction fondamentale. À des énergies plus basses (celles que nous observons dans notre environnement quotidien ou dans les accélérateurs de particules habituels), cette symétrie est brisée (par le mécanisme de Higgs), et les forces apparaissent distinctes : l'interaction électromagnétique à longue portée  (modélisée par l'électrodynamique quantique) et l'interacttion faible à très courte portée et impliquée notamment dans les processus de désintégration alpha et bêta. Les médiateurs (particules porteuses) de ces interactions unifiées son, p our la force électromagnétique,  le photon, qui est sans masse, et, our la force faible,  les bosons W⁺, W⁻ et Z⁰, qui sont très massifs. La théorie électrofaible, en conjonction avec le mécanisme de Higgs, explique pourquoi les bosons W et Z ont une masse significative, tandis que le photon est sans masse. C'est l'interaction des bosons W et Z avec le champ de Higgs qui leur confère leur masse, ce qui est crucial pour la courte portée de la force faible. Le photon n'interagit pas avec le champ de Higgs de la même manière. Cette théorie décrit comment toutes les particules fondamentales de matière (les fermions : quarks et leptons) interagissent via l'échange de ces bosons électrofaibles. C'est un pilier central du Modèle standard de la physique des particules et elle a été confirmée par de nombreuses expériences, notamment par la découverte des bosons W et Z, puis du boson de Higgs, dont l'existence était prédite par ce cadre théorique. 

La chromodynamique quantique.
La chromodynamique quantique (QCD, quantum chromodynamics) est la théorie de l'interaction nucléaire forte. Elle décrit l'interaction entre entre les quarks via le champ de couleur (la couleur n'étant pas ici une couleur, mais une charge analogue à la charge électrique de la QED) et est basée sur le groupe de symétrie SU(3), qui représente la conservation de la couleur. Les particules associées au champ de couleur sont  les gluons (8 différentes sortes). Contrairement à ce qui se passe avec l'électromagnétisme, où les photons transmettent l'interaction électrique sans être eux-mêmes influencés par celle-ci, les gluons eux-mêmes possèdent une charge en couleur. Cela conduit à un phénomène appelé confinement : l'interaction forte s'intensifie avec la distance. Les quarks ne peuvent jamais exister seuls, mais seulement en combinaisons stables comme les protons et les neutrons. À haute énergie, les quarks semblent moins couplés (liberté asymptotique), ce qui rend la théorie renormalisable. La chromodynamique quantique explique aussi pourquoi certaines particules ont des masses différentes. Bien que la QCD soit bien comprise au niveau théorique, elle pose des défis calculatoires importants, surtout en raison de l'autointeraction forte des gluons.

Analyse des données et méthodes computationnelles.
Les expériences de physique des particules génèrent des quantités massives de données qui nécessitent des méthodes et des infrastructures computationnelles sophistiquées pour être analysées.

Reconstruction des événements.
La reconstructiondes évévements consiste à transformer les signaux bruts des détecteurs en informations physiques significatives (trajectoires de particules, énergie déposée, identification des particules, vertices de collision ou de désintégration). Méthodes associées : algorithmes complexes, modélisation précise du détecteur.

Analyse statistique.
L'analyse statistique vise à identifier des signaux de nouvelles particules ou de nouveaux phénomènes qui sont souvent très rares et noyés dans un bruit de fond important (événements Modèle standard qui miment le signal). Méthodes associées : ajustement de données, tests d'hypothèses (p-value, calcul de significativité - la "découverte" est souvent déclarée à 5 sigma), méthodes de classification (apprentissage automatique, boosting, réseaux de neurones) pour distinguer signal et bruit de fond, calcul de limites supérieures sur les paramètres de nouvelles théories.

Simulations Monte Carlo.
Les simulations de Monte Carlo consistent à simuler les interactions de particules prédites par la théorie et leur passage à travers le détecteur. Indispensable pour comparer les données expérimentales aux prédictions théoriques et pour comprendre le bruit de fond. Méthodes associées : générateurs d'événements (ex: Pythia, Herwig), simulations du détecteur (ex: Geant4).

Logiciels et infrastructures de calcul.
Des outils comme ldes logiciels et des infrastructures de calcul  permettent de gérer, stocker et analyser d'énormes volumes de données (pétaoctets). Outils : logiciels frameworks  spécifiques (ex: ROOT pour l'analyse et la visualisation), grilles de calcul distribuées mondialement (ex: WLCG - Worldwide LHC Computing Grid).

Au-delà du Modèle standard

Bien que la théorie actuelle des particules soit très réussie, elle ne couvre pas toutes les questions en physique des particules. Le Modèle standard est incomplet et présente des limites. Mentionnons, parmi les questions qui restent sans réponse :

Pourquoi y a-t-il une asymétrie matière-antimatière ?
Selon les lois connues de la physique, le big bang aurait dû produire autant de matière que d'antimatière. Pourtant, l'univers observable est composé presque exclusivement de matière. L'enjeu ici est de comprendre le mécanisme qui a brisé cette symétrie. Le Modèle standard permet une faible violation de la symétrie CP (charge-parité), notamment dans les désintégrations des quarks, mais cette violation est insuffisante pour expliquer l'ampleur de l'asymétrie. Des mécanismes au-delà du Modèle standard sont donc envisagés, comme la baryogénèse électrofaible, la leptogénèse via les neutrinos de Majorana (ci-dessous), ou des extensions supersymétriques. Résoudre cette question, c'est rien moins que comprendre pourquoi l'univers a une structure matérielle et pourquoi nous existons.

Les neutrinos sont-ils leurs propres antiparticules?
Les neutrinos sont des particules très particulières : ils sont neutres électriquement, ultralégers et capables d'osciller entre saveurs. On ignore encore s'ils sont de type Dirac (comme l'électron, distincts de leurs antiparticules) ou Majorana (leurs propres antiparticules, comme le photon). L'enjeu principal est expérimental : détecter la double désintégration bêta sans neutrino, un processus possible uniquement si les neutrinos sont de type Majorana. Découvrir que le neutrino est de type Majorana bouleverserait la compréhension des symétries fondamentales. Cela aurait des implications majeures sur la violation du nombre leptonique, sur les modèles d'origine de la masse du neutrino, et sur les les scénarios de leptogénèse, qui pourraient expliquer l'asymétrie matière-antimatière de l'univers.

Pourquoi y a-t-il une matière et une énergie sombres?
Les observations astronomiques (mouvements galactiques, lentilles gravitationnelles, expansion cosmique) indiquent que la matière ordinaire (baryonique) ne représente qu'environ 5 % de l'univers. Le reste est constitué de matière sombre (27 %), invisible mais gravitationnellement active, et d'énergie sombre (68 %), responsable de l'accélération de l'expansion de l'univers. Le Modèle standard n'inclut aucune particule stable, massive et non baryonique qui pourrait jouer le rôle de matière sombre. L'enjeu est donc d'identifier cette matière : WIMPs, axions, neutrinos stériles, ou particules issues de théories au-delà du Modèle standard. Quant à l'énergie sombre, son origine est encore plus énigmatique : constante cosmologique? champ scalaire dynamique (quintessence) ? ou effet émergent de la gravitation à grande échelle? Répondre à ces questions revient à reconsidérer le contenu énergétique de l'univers et à expliquer les grandes structures cosmiques.

Pourquoi la masse du boson de Higgs est-elle si faible par rapport à l'échelle de Planck ?
La masse du boson de Higgs (environ 125 GeV) est très inférieure à l'échelle naturelle de la gravitation quantique, dite échelle de Planck (environ 1019 GeV). Cette différence gigantesque pose un problème de stabilité radiative : les corrections quantiques à la masse du Higgs devraient être énormes, sauf s'il existe un mécanisme de régulation ou de symétrie qui protège cette faible masse. C'est le problème de hiérarchie. Des théories comme la supersymétrie, les dimensions supplémentaires, ou les modèles technicolor ont été proposés pour résoudre ce paradoxe. Jusqu'ici, aucune n'a été confirmée expérimentalement, notamment au LHC. Comprendre ce point revient à savoir si la structure du vide est naturelle ou ajustée finement, et donc à poser des limites à l'applicabilité du Modèle standard.

Pourquoi les masses des particules sont-elles ce qu'elles sont?
Le Modèle standard attribue les masses des particules via le mécanisme de Higgs, mais il ne prédit pas les valeurs numériques de ces masses : elles sont insérées à la main dans la théorie à partir des données expérimentales. Or, les masses des quarks, leptons et bosons varient sur plusieurs ordres de grandeur (par exemple, le quark top est environ 340 000 fois plus massif que l'électron). L'enjeu dès lors est de découvrir une structure plus fondamentale qui expliquerait ces valeurs et leur hiérarchie. Cela pourrait impliquer : une nouvelle symétrie (comme des symétries de saveur ou de texture), un mécanisme de génération dynamique de masse, ou bien encore des relations géométriques dans des théories de type cordes ou théories de jauge étendues. Répondre à cette question, c'est comprendre l'origine de la masse, mais aussi pourquoi certaines particules sont quasi-massives (comme le neutrino) et d'autres ultra-massives.

Le proton est-il vraiment stable?
Le Modèle Standard prévoit un proton stable, mais les théories de Grande unification (GUT) prévoient sa désintégration à très longue durée de vie (~1034 ans). Observer une telle désintégration serait une preuve directe d'unification, révélant un lien profond entre quarks et leptons. Les grands détecteurs comme Super-Kamiokande sont à l'affût de ces événements nécessairement extrêmement rares, même en observent d'immenses quantités de protons.

Existe-t-il une grande unification des forces?
Le Modèle standard repose sur trois interactions fondamentales, qu'il les traite comme distinctes, avec des constantes de couplage différentes. Les théories de Grande unification (GUT) cherchent à unifier ces trois forces dans un même cadre mathématique, généralement basé sur un groupe de symétrie plus grand (comme SU(5), SO(10), ou E6). Cela permettrait de comprendre l'origine commune des interactions et leur séparation à basse énergie, de prédire l'évolution des constantes de couplage avec l'énergie (via la renormalisation), de prédire la désintégration du proton, signature attendue d'unification mais non encore observée, et aussi de fournir un cadre pour intégrer la gravitation dans des théories plus larges. Une telle unification ouvrirait la voie vers une vision plus cohérente de la nature, avec potentiellement un seul type d'interaction aux énergies très élevées.

Pourquoi y a-t-il exactement trois générations de fermions?
Le Modèle standard contient trois générations de fermions (quarks et leptons) . Rien, cependant, dans le modèle n'impose ce nombre. C'est une entrée empirique.  Mais certaines extensions, comme les modèles technicolor ou les théories à dimensions supplémentaires, envisagent des familles supplémentaires ou des fermions vectoriels. Leur découverte indiquerait une structure encore plus complexe de la matière. Comrendre pourquoi il y a trois familles, permettrait de savoir s'il existe une structure mathématique ou géométrique qui impose ce nombre (ex : symétries de saveur, groupes de famille); cela permettrait aussi d'expliquer, par exemple, les modèles d'oscillation des neutrinos, qui sont directement liés au nombre de familles, ou de comprendre les asymétries CP,  qui nécessitent au moins trois générations pour être non triviales.

La symétrie CP est-elle violée dans le secteur des leptons?
La violation de la symétrie CP est observée chez les quarks (dans le système kaon et B), mais son ampleur est trop faible pour expliquer l'asymétrie matière-antimatière. Si cette violation existe aussi chez les leptons, notamment via les oscillations de neutrinos, elle pourrait être cruciale pour une leptogénèse expliquant l'origine de la matière. Des expériences comme DUNE et Hyper-Kamiokande cherchent à mesurer cette violation CP dans le secteur des neutrinos.

Le Modèle standard est-il stable à haute énergie?
Les calculs de renormalisation indiquent que la combinaison des masses du boson de Higgs et du quark top pourrait placer l'univers dans un état métastable : le vide quantique actuel ne serait pas le plus stable, et pourrait évoluer vers un autre état via un effet tunnel. Cela soulève des questions sur la finitude du cosmos et sur la nécessité d'une nouvelle physique stabilisatrice à haute énergie.

La supersymétrie existe-t-elle dans la nature?
La supersymétrie (SUSY) postule un doublement des particules (chaque boson ayant un partenaire fermionique et inversement) et pourrait résoudre plusieurs problèmes : hiérarchie du Higgs, unification des constantes de couplage, existence de matière sombre (neutralino), stabilisation du vide. Son absence au LHC contraint fortement les modèles, mais certaines versions (SUSY brisée, naturelle, minimale) restent viables. La réponse à cette question déterminerait le paysage théorique de la physique des hautes énergies.

Existe-t-il des interactions ou des forces supplémentaires?
Des modèles envisagent une cinquième force, ou des interactions liées à des symétries cachées (groupe U(1) supplémentaire, boson Z', etc.). Des anomalies expérimentales, comme celles observées dans certaines désintégrations de mésons B (par exemple dans les expériences LHCb ou Belle II), pourraient indiquer de telles extensions du Modèle standard.

Est-il possible d'unifier la gravitation avec les autres interactions fondamentales?
La gravitation, décrite par la relativité générale, reste fondamentalement incompatible avec les lois quantiques qui gouvernent les trois autres interactions. La question est de savoir s'il est possible de bâtir une théorie quantique de la gravitation qui unifierait toutes les forces fondamentales. Les principales approches sont : la théorie des cordes, qui postule que les particules sont des excitations vibratoires d'objets unidimensionnels (et non ponctuels comme dans le Modèle standard); la gravitation quantique à boucles, qui tente de quantifier l'espace-temps sans recourir à une structure de fond; les modèles holographiques ou d'émergence de la gravitation (AdS/CFT, gravitation entropique); ou encore des approches plus radicales liant information, entropie et géométrie. L'unification de la gravitation et des autres forces ouvrirait la voie à une théorie du tout, capable de décrire aussi bien les trous noirs que les interactions subatomiques, et donnerait accès à une compréhension plus profonde de l'espace, du temps, et de l'origine de l'univers.

Quelle est la nature du temps et de l'irréversibilité à l'échelle fondamentale?
Les lois fondamentales sont réversibles dans le temps, mais la physique macroscopique (thermodynamique, cosmologie) manifeste une flèche du temps. Comprendre l'origine de cette dissymétrie, et son lien éventuel avec la gravitation ou l'entropie initiale de l'univers, constitue une question clé à l'interface entre physique des particules, cosmologie et fondements de la mécanique quantique.

Quelle est la structure ultime de l'espace-temps ?
À très haute énergie (échelle de Planck), l'espace-temps pourrait devenir discret, granulaire, ou émergent. Les approches comme la gravitation quantique à boucles, la théorie des cordes, ou les géométries non commutatives remettent en cause l'idée classique d'un continuum. Cela pose la question du support même des interactions et des champs, et pourrait changer notre conception de la causalité et de la localité.

Quelles sont les implications de la non-localité quantique?
La violation des inégalités de Bell confirme l'existence de corrélations non locales en mécanique quantique. Le défi est de comprendre leur compatibilité avec la causalité relativiste, et de déterminer s'il existe des modèles sous-jacents (comme les théories à variables cachées non locales ou les reformulations en gravitation quantique) qui en rendent compte de manière cohérente.

.


Dictionnaire Idées et méthodes
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2025. - Reproduction interdite.