.
-

-
 
La théorie quantique des champs
La théorie quantique des champs (TQC) est aujourd'hui la formulation la plus aboutie de la physique des particules et des interactions fondamentales. Elle constitue à la fois une théorie du contenu matériel de l'univers, un cadre conceptuel unificateur, et un formalisme mathématique puissant.  Plus qu'un simple outil de calcul, elle constitue un langage fondamental dans lequel se formulent les lois de la nature à l'échelle subatomique.

À la base de la théorie quantique des champs se trouve une idée radicale : les particules ne sont pas les constituants ultimes de la matière, mais les excitations quantisées de champs fondamentaux. À chaque type de particule correspond un champ qui s'étend dans l'espace-temps : le champ électromagnétique pour le photon, le champ électronique pour l'électron, le champ de Higgs pour les masses, etc. Ces champs sont soumis à des équations dynamiques issues d'un lagrangien global, invariant sous certaines symétries.

L'évolution des champs est décrite par les équations d'Euler-Lagrange issues du principe de moindre action, comme en mécanique classique. Mais à la différence de la mécanique classique ou même de la mécanique quantique non relativiste, ici, les valeurs du champ à chaque point de l'espace sont promues au rang d'opérateurs. Ce passage permet d'introduire la structure quantique du vide, de faire apparaître les quanta de champ, et d'expliquer les phénomènes de création et de disparition de particules.

Jalons historiques

L'histoire de la théorie quantique des champs (TQC) commence au croisement de deux révolutions scientifiques majeures du début du XXe siècle : la mécanique quantique et la relativité restreinte. Dès les années 1920, les physiciens prennent conscience que la mécanique quantique traditionnelle ne suffit pas à décrire des phénomènes où les particules peuvent être créées ou annihilées, comme dans les interactions nucléaires. La quantification d'un nombre fixe de particules n'est plus adéquate : un nouveau formalisme est nécessaire pour traiter les champs eux-mêmes comme entités dynamiques et quantiques.

La première formulation embryonnaire d'une théorie quantique des champs apparaît avec Paul Dirac en 1927, lorsqu'il quantifie le champ électromagnétique en introduisant la notion de photons comme quanta d'oscillation du champ. En 1928, Dirac propose également son équation relativiste pour l'électron, qui prédit l'existence de l'antimatière (positron), confirmée expérimentalement peu après. Cette période inaugure l'idée que les particules sont les excitations de champs quantifiés.

Dans les années 1930, Heisenberg, Pauli et Pascual Jordan poursuivent la construction d'un formalisme général où les champs deviennent des opérateurs agissant sur un espace de Fock. Toutefois, les premières tentatives échouent à fournir des prédictions stables à cause de divergences infinies dans les calculs d'interactions, notamment dans l'électrodynamique quantique (QED).

La percée décisive survient après la Seconde Guerre mondiale, avec les travaux de Richard Feynman, Julian Schwinger, Sin-Itiro Tomonaga et Freeman Dyson, qui développent la QED renormalisée. En introduisant la procédure de renormalisation, ils montrent que les infinis peuvent être absorbés dans un petit nombre de paramètres physiques mesurables (masse, charge). Ce cadre permet d'obtenir des prédictions expérimentales d'une précision sans précédent, comme le moment magnétique de l'électron.

Dans les années 1950 et 60, le champ de la TQC s'élargit avec les tentatives de généraliser la QED à des interactions plus complexes. Yang et Mills introduisent les théories de jauge non abéliennes en 1954, qui deviendront les fondements de la chromodynamique quantique (QCD) et de l'unification électrofaible. Ces théories reposent sur des groupes de symétrie comme SU(2) ou SU(3), et posent la base mathématique des interactions fondamentales.

L'unification de l'électromagnétisme et de l'interaction faible en une théorie électrofaible par Glashow, Weinberg et Salam dans les années 1960, puis la découverte du mécanisme de Higgs pour expliquer la masse des bosons, confirment la puissance du formalisme. La validation expérimentale de cette théorie avec la découverte des bosons W±, Z0, puis du boson de Higgs au LHC en 2012, marque l'apogée du Modèle standard, une TQC construite sur la symétrie de jauge SU(3) × SU(2) × U(1).

Parallèlement, les années 1970 et 80 voient la formalisation mathématique plus rigoureuse de la TQC, avec l'introduction de la renormalisation de groupe (Wilson) et des concepts comme les anomalies, instantons, théories conformes des champs et symétries topologiques. Ces outils montrent que la TQC n'est pas seulement une méthode de calcul mais un langage fondamental pour comprendre les structures profondes de la nature.

Depuis les années 1990, la TQC s'étend au-delà du Modèle standard. Elle structure les recherches en supersymétrie, en théories de grande unification (GUT), et en gravitation quantique. Elle est également au cœur de la théorie des cordes, qui peut être vue comme une généralisation de la TQC à des objets étendus. La correspondance AdS/CFT établie par Maldacena en 1997 relie une TQC conforme sur un bord à une théorie gravitationnelle en volume, ouvrant la voie à la dualité holographique.

Aujourd'hui, la théorie quantique des champs est utilisée dans de nombreux domaines au-delà de la physique des particules : en physique statistique, matière condensée, théorie de l'information quantique et même en mathématiques pures. Elle représente la synthèse moderne de la physique du XXe siècle, tout en préparant les fondations théoriques pour les grandes découvertes du XXIe.

Concepts, outils et méthodes

Les opérateurs.
En théorie quantique des champs, tout comme en mécanique quantique standard, les opérateurs jouent un rôle central, mais leur nature et leur application sont étendues et transformées pour s'adapter au concept de champ quantifié. La différence fondamentale par rapport à la mécanique quantique des particules est qu'en TQC, on ne quantifie pas la position ou l'impulsion de particules individuelles (bien que ces concepts émergent), mais on quantifie les champs eux-mêmes. Ainsi, ce qui était un champ classique (une fonction de l'espace-temps, comme le champ électromagnétique ou le champ scalaire de Klein-Gordon) devient un champ d'opérateurs. Ces champs, notés par exemple Φ(x) pour un champ scalaire, ψ(x) pour un champ fermionique, ou Aμ(x) pour le champ électromagnétique, sont des opérateurs qui agissent sur l'espace des états du système (espace de Fock), capable de décrire des systèmes avec un nombre variable de particules.

Le rôle le plus fondamental de ces champs d'opérateurs est de permettre la formalisation de la création et l'annihilation de particules en un point de l'espace-temps. L'opérateur de champ Φ(x) (ou plus précisément sa partie d'annihilation, ou l'opérateur adjoint Φ(x) pour la création) agit sur un état du vide (V. ci-dessous) ou un état multi-particules pour retirer ou ajouter une excitation (une particule) au champ en ce point. Cette capacité à changer dynamiquement le nombre de particules est l'une des caractéristiques essentielles et les plus puissantes de la TQC. Elle permet de décrire des phénomènes comme la désintégration de particules ou la création de paires.

Les observables physiques (grandeurs mesurables) sont également représentées par des opérateurs, tout comme en mécanique quantique, mais ces opérateurs sont généralement construits à partir des champs d'opérateurs fondamentaux. Par exemple, l'opérateur hamiltonien H, qui représente l'énergie totale et gouverne l'évolution temporelle, est une intégrale sur l'espace d'une densité d'hamiltonien qui est une fonction des champs d'opérateurs et de leurs dérivées. De même, l'opérateur d'impulsion totale ou les opérateurs de charge conservée sont formés en combinant les champs d'opérateurs d'une manière spécifique dictée par la théorie classique sous-jacente et les principes de symétrie.

La dynamique du système est décrite par l'évolution temporelle de ces opérateurs de champs (dans l'approche de Heisenberg, couramment utilisée en TQC relativiste) ou par l'évolution des états (dans l'approche de Schrödinger). Une évolution déterminée par l'opérateur hamiltonien via les équations de mouvement des opérateurs, qui sont l'équivalent quantique des équations aux dérivées partielles classiques pour les champs (comme l'équation de Klein-Gordon ou l'équation de Dirac pour les champs d'opérateurs correspondants).

Les opérateurs de champ ne commutent pas en général. Les relations de commutation (pour les champs bosoniques) ou d'anticommutation (pour les champs fermioniques) entre les opérateurs de champ (ou leurs modes de Fourier, c'est-à-dire les opérateurs de création et d'annihilation) à un instant donné sont des postulats fondamentaux de la théorie. Elles formalisent la nature quantique du champ et sont essentielles pour garantir la cohérence de la théorie, pour dériver les propriétés statistiques des particules (statistiques de Bose-Einstein ou de Fermi-Dirac) et pour effectuer les calculs.

Enfin, les opérateurs sont les outils indispensables pour calculer les quantités expérimentalement mesurables. Les probabilités de transition entre différents états multi-particules (comme dans les processus de diffusion) sont calculées à partir des éléments de matrice de l'opérateur de diffusion (matrice S), qui est lui-même une fonction complexe des opérateurs d'interaction construits à partir des champs d'opérateurs. Les fonctions de corrélation, qui décrivent la probabilité de détecter des particules en différents points de l'espace-temps, sont calculées comme des valeurs moyennes (ou des éléments de matrice) de produits d'opérateurs de champ ordonnés dans le temps.

Le vide quantique.
En  théorie quantique des champs, le vide est un concept très différent de l'idée classique d'un espace complètement vide, dépourvu de matière et d'énergie. Au lieu de cela, le vide est défini comme l'état de plus basse énergie possible pour les champs quantiques qui remplissent l'univers. C'est l'état fondamental à partir duquel toute l'activité quantique se déroule. Dans ce vide, les champs quantiques (comme le champ électromagnétique, les champs associés aux électrons, aux quarks, etc.) sont toujours présents, même s'ils sont dans leur état d'énergie le plus bas. Selon les principes de la mécanique quantique, ces champs ne peuvent pas être complètement statiques; ils sont sujets à des fluctuations quantiques (ce fait découle du principe d'indétermination de Heisenberg qui exprime l'impossibilité d'annuler simultanément le champ et sa dérivée temporelle). 

Ainsi, même dans le vide, il y a constamment des créations et des annihilations de paires de particules virtuelles (une particule et son antiparticule) qui apparaissent et disparaissent presque instantanément. Ces particules sont dites virtuelles, parce qu'on ne peut pas les observer directement (elles n'obéissent pas aux relations d'énergie classiques), mais elles affectent les propriétés de l'espace et les interactions entre les particules réelles. Les fluctuations du champ électromagnétique expliquent des effets comme le décalage de Lamb (décalage spectral de l'hydrogène); l'effet Casimir entre deux plaques conductrices est également dus à des fluctuations du vide. Le vide quantique est donc actif, instable, structuré, et joue un rôle central dans la dynamique des particules. Il est, dans la théorie quantique des champs, l'état "de base" de l'univers, à partir duquel les particules réelles que nous observons (comme les photons, les électrons, etc.) peuvent émerger lorsque de l'énergie est ajoutée au système, excitant ces champs quantiques au-dessus de leur état fondamental. 

Les diagrammes de Feynman.
Les diagrammes de Feynman sont des représentations graphiques utilisées pour visualiser et calculer les probabilités d'interactions entre particules élémentaires. Ils ont été introduits dans les années 1940 par Richard Feynman pour simplifier les calculs complexes de l'électrodynamique quantique (QED). Chaque diagramme correspond à un terme mathématique d'une expansion perturbative de l'amplitude de transition d'un processus physique donné.

Ce ne sont pas de simples illustrations, mais des outils de calcul rigoureux : ils traduisent une intégrale de chemin ou une série de termes du développement perturbatif de la théorie. Leur interprétation repose sur une correspondance stricte entre les lignes, les noeuds, et les facteurs mathématiques associés à chaque élément.

Chaque diagramme est composé des éléments suivants :

Lignes externes. - Elles représentent les particules initiales (entrant dans l'interaction) et les particules finales (sortantes).

Lignes internes. - Elles symbolisent les particules dites virtuelles, qui ne sont pas observables directement mais qui sont échangées pendant l'interaction. Elles correspondent à des propagateurs dans l'intégrale.

Vertex (sommets). - Points où les lignes se rejoignent, représentant des interactions élémentaires entre champs. Chaque vertex correspond à un terme du lagrangien d'interaction (par exemple, le couplage entre un électron, un positron et un photon dans la QED).

Chaque type de ligne a une signification précise : une ligne droite avec une flèche représente un fermion (comme un électron), une ligne ondulée correspond à un boson de jauge (comme le photon), une ligne en tire-bouchon représente un gluon, une ligne en pointillé peut symboliser un boson (comme le pion ou le boson de Higgs).
-
Diagrammes de Feynman.
Exemples de diagrammes de Feynman. 

Le sens des flèches ne reflète pas nécessairement la direction physique du mouvement mais celle du flux de charge ou de nombre quantique.

Les règles pour construire et interpréter un diagramme de Feynman sont formalisées dans les règles de Feynman, spécifiques à chaque théorie quantique des champs (QED, QCD, électrofaible, etc.). Ces règles associent : une expression mathématique à chaque ligne (le propagateur de la particule), un facteur de couplage à chaque vertex, et des intégrations sur les énergies ou impulsions des particules virtuelles.

La somme sur tous les diagrammes possibles à un ordre donné donne l'amplitude de probabilité pour qu'un processus ait lieu, par exemple la diffusion d'un électron par un photon (diffusion Compton), l'annihilation e⁺e⁻ → μ⁺μ⁻, ou encore le processus e⁻e⁺ → e⁻e⁺ via échange de bosons virtuels.

Les diagrammes de Feynman ont plusieurs fonctions :

Organisation du calcul. - Ils décomposent des expressions compliquées en blocs élémentaires manipulables.

Visualisation des processus. - Ils permettent de « voir » quels chemins d'interaction contribuent à un processus donné.

Intuition physique. - Ils aident à comprendre quels types d'échanges de particules sont dominants à une énergie donnée.

Classement en ordre de perturbation. - Chaque diagramme a un ordre en fonction de la constante de couplage (ex. : α en QED), ce qui permet d'approcher les amplitudes avec une précision croissante.

Malgré leur apparence simple, les diagrammes de Feynman ne représentent pas des trajectoires de particules réelles dans le temps. Ils sont des outils abstraits dans un formalisme relativiste, où les particules peuvent se propager dans toutes les directions du diagramme (pas nécessairement « passé → futur »).

Dans les théories plus complexes comme la chromodynamique quantique (QCD), les diagrammes de Feynman deviennent plus riches et plus nombreux à cause des interactions entre bosons de jauge eux-mêmes, ce qui rend les calculs plus difficiles et fait parfois appel à des méthodes non perturbatives (comme les simulations sur réseau ou les techniques topologiques).

Les procédures de renormalisation.
Les calculs dans la TQC, notamment via les diagrammes de Feynman, mènent souvent à des quantités infinies quand on intègre sur toutes les énergies possibles. Par exemple, l'autocorrection d'un électron (boucles de photons virtuels) donne une masse infinie si on ne met pas de limite. La renormalisation est une méthode mathématique qui consiste à introduire un paramètre de coupure (énergie maximale), à absorber les infinis dans les paramètres nus (masse, charge, constantes de couplage),et à reformuler la théorie en termes de paramètres mesurables. 

La renormalisation est l'un des piliers conceptuels et techniques de la théorie quantique des champs. Loin d'être un simple ajustement mathématique, elle révèle que les lois de la nature sont structurellement dépendantes de l'échelle, et qu'une théorie physique cohérente doit être auto-consistante à toutes les échelles d'énergie où elle s'applique. Grâce à elle, des prédictions d'une précision extrême ont pu être obtenues, montrant que même face à des infinis apparents, la théorie reste falsifiable, calculable et prédictive.

Les procédures de renormalisation sont des méthodes systématiques permettant de rendre les prédictions physiques finies et mesurables, malgré la présence d'expressions mathématiquement divergentes (infinies) dans les calculs perturbatifs. Ces divergences apparaissent notamment dans les intégrales de boucle, c'est-à-dire dans les diagrammes de Feynman qui impliquent l'échange de particules virtuelles à toutes les échelles d'énergie (même infinies).

La renormalisation répond donc à un paradoxe : comment une théorie mathématique menant à des infinis peut-elle produire des résultats en accord avec des expériences extrêmement précises? La solution est que ces infinis sont absorbés dans la redéfinition des paramètres fondamentaux de la théorie — comme la masse, la charge ou les constantes de couplage.

Lorsque l'on calcule la probabilité d'un processus dans la TQC (comme la diffusion d'électrons ou la correction à la masse d'une particule), certaines contributions, issues de boucles dans les diagrammes de Feynman, nécessitent des intégrales sur toutes les valeurs possibles de l'impulsion des particules virtuelles. Ces intégrales peuvent devenir infinies à haute énergie (ou à petite distance). Par exemple, dans l'électrodynamique quantique (QED), la correction à la masse de l'électron donne une intégrale logarithmiquement divergente. Une telle quantité ne peut pas correspondre directement à une mesure physique.

La renormalisation consiste à introduire une procédure en plusieurs étapes :

Régularisation. - On modifie temporairement la théorie pour rendre les intégrales bien définies, en introduisant un paramètre de coupure :
+ coupure en énergie (cutoff) : on limite l'intégrale à une énergie maximale Λ,

+ régularisation dimensionnelle : on continue les dimensions de l'espace-temps en d = 4−ε,

+ régularisation de Pauli-Villars : on introduit des champs fictifs massifs pour annuler les infinis.

Renormalisation proprement dite. - On reformule les quantités physiques mesurables (masse physique, charge physique) comme étant la somme d'une valeur nue (non observable) et d'un contre-terme infini :

mphysique = mnu + δm(Λ)

On ajuste les contre-termes pour que les prédictions restent finies et calibrées sur des données expérimentales.

Absorption des infinis. - On reabsorbe les divergences dans une redéfinition des paramètres. Ces paramètres deviennent alors dépendants de l'échelle d'énergie, ce qui mène à la notion de renormalisation de groupe.

Renormalisation de groupe (RG). - Elle décrit comment les constantes de couplage évoluent avec l'énergie, ce qui permet de relier les comportements microscopiques et macroscopiques. Par exemple, en QED, la charge effective augmente avec l'énergie, alors qu'en QCD, le couplage diminue (asymptotie libre).

Types de théories selon la renormalisabilité :
Théories renormalisables. - Théories où un nombre fini de paramètres suffit à absorber tous les infinis. Ce sont les seules à être considérées comme fondamentalement cohérentes à haute énergie. Le Modèle Standard est un exemple de telle théorie. 

Théories non-renormalisables. - Un nombre infini de contre-termes serait requis. Ce n'est pas forcément problématique si la théorie est utilisée comme théorie effective, valable jusqu'à une certaine énergie. La théorie de la gravitation d'Einstein (relativité générale) n'est pas renormalisable. Son incapacité à être formulée en termes quantiques apparaît à l'échelle de Planck.

Théories superficielles. - Dans certains cas spéciaux, les divergences peuvent s'annuler naturellement (ex. : certaines théories supersymétriques).

La renormalisation montre que les paramètres fondamentaux ne sont pas absolus : ils dépendent de l'échelle à laquelle on les mesure. C'est une idée contre-intuitive mais fondée empiriquement : la « charge » d'un électron, par exemple, est plus forte à courte distance en raison des effets de polarisation du vide.

Cette dépendance des paramètres physiques à l'échelle est au coeur de la physique des hautes énergies, des transitions de phase, et même de la cosmologie quantique. Le groupe de renormalisation permet de classifier les comportements à différentes échelles, et d'identifier les points fixes, où les théories deviennent invariantes d'échelle (souvent associés à des théories conformes).

Les symétries.
Dans la TQC, les symétries jouent un rôle central :

Les symétries globales mènent aux lois de conservation.
Une symétrie globale est une transformation qui affecte l'ensemble du système de manière identique partout dans l'espace-temps. Par exemple, si les lois de la physique sont invariantes sous une translation dans le temps, cela implique la conservation de l'énergie, sous une translation dans l'espace, cela implique la conservation de la quantité de mouvement, sous une rotation dans l'espace, cela implique la conservation du moment angulaire, sous  une rotation dans l'espace des phases internes (comme la rotation entre les composants du champ électronique), cela peut impliquer la conservation d'une charge, comme la charge électrique. Le théorème de Noether formalise ce lien fondamental : à chaque symétrie continue d'un système physique correspond une grandeur conservée. C'est une clef de voûte des lois de conservation en physique.

Les symétries locales définissent les interactions fondamentales.
Une symétrie locale, ou symétrie de jauge, , est une transformation qui ne change pas les lois physiques d'un système, mais qui n'est pas observable directement dans les phénomènes observables. Elle diffère des symétries globales classiques, comme la rotation ou la translation, car elle dépend du point de l'espace-temps considéré. Par exemple, si vous imposez que les lois de la physique soient inchangées lorsque vous changez la phase d'un champ complexe de manière différente en chaque point de l'espace-temps, cela implique que vous devez introduire un champ de connexion pour compenser ces variations : c'est un champ de jauge. 

En théorie quantique des champs, une symétrie de jauge est introduite par un groupe de transformations paramétrées par des fonctions arbitraires, plutôt que par des constantes comme c'est le cas pour les symétries globales.  Ainsi ces symétries locales sont-elles à l'origine des interactions fondamentales :

• La symétrie locale U(1) donne naissance à l'interaction électromagnétique (champ de jauge : le photon),

• La symétrie SU(2) × U(1) donne l'interaction électrofaible (bosons W±, Z⁰, photon),

 • La symétrie SU(3) donne l'interaction forte (huit gluons).

Ces groupes de symétrie déterminent non seulement quelles interactions existent, mais aussi quelles particules y participent, comment elles interagissent et quelles charges sont conservées.

Les brisures spontanées de symétrie expliquent des phénomènes comme la masse des bosons.
Parfois, une théorie peut avoir une symétrie, mais l'état fondamental (le vide) ne respecte pas cette symétrie. C'est ce qu'on appelle une brisure spontanée de symétrie. Le mécanisme de Higgs en est un exemple emblématique : la théorie électrofaible est initialement symétrique, mais le champ de Higgs prend une valeur non nulle dans le vide, brisant cette symétrie. Ce phénomène donne naissance à la masse des bosons W et Z (qui portent l'interaction faible), tout en laissant le photon sans masse. Il permet donc d'expliquer comment certaines particules massives émergent d'une théorie initialement sans masse, sans rompre la structure mathématique des symétries locales. C'est une des plus grandes réussites conceptuelles et expérimentales du Modèle standard.

Les théories de jauge.
Une théorie de jauge est une théorie physique qui décrit les interactions fondamentales de la nature en utilisant la notion de symétrie de jauge. Elle repose sur l'idée que les lois physiques sont invariantes sous certaines transformations locales, appelées transformations de jauge. Ces transformations sont paramétrées par des fonctions arbitraires qui dépendent du point de l'espace-temps.

Dans une théorie de jauge, pour préserver cette invariance locale, il est nécessaire d'introduire des champs de jauge, qui sont des champs supplémentaires responsables de l'interaction entre les particules. Ces champs de jauge correspondent aux bosons de jauge, comme le photon pour l'électromagnétisme, le gluon pour la chromodynamique quantique, ou encore les bosons W et Z pour la force faible.

Les théories de jauge forment le cadre de la physique des particules moderne, notamment dans le modèle standard, où elles décrivent les trois des quatre interactions fondamentales (électromagnétisme, forte et faible). Elles permettent également de prédire des phénomènes tels que la masse des bosons de jauge et la formation de condensats de jauge, responsables de phénomènes comme le confinement des quarks et le mécanisme de Higgs.

Les théories des interactions

Les théories des interactions fondamentales — électromagnétique, faible et forte —  sont les théories de jauge quantifiées qui décrivent ces interactions. Chaque interaction y correspond à une symétrie de jauge locale, chaque particule d'interaction est une excitation quantique d'un champ de jauge.

Interaction électromagnétique.
Une des premières formulations réussies est la quantification du champ électromagnétique, menant à l'électrodynamique quantique (QED), où l'interaction entre les électrons et les photons est décrite avec une précision inégalée. L'électrodynamique quantiquee repose sur une symétrie locale U(1). Le champ de matière est le champ électronique ψ,. La transformation de jauge ψ(x)→eiα(x)ψ(x) pose l'introduction d'un champ de jauge Aμ, qui est le photon, boson sans masse. La QED est une théorie abélienne (commutative) et renormalisable, dans laquelle les interactions sont calculées avec les diagrammes de Feynman. Elle décrit les interactions entre les particules chargées (électrons, muons, quarks, etc.) via l'échange de photons. 

Interaction faible.
L'interaction faible est intégrée avec l'électromagnétisme dans la théorie électrofaible, due à Glashow, Weinberg et Salam (1967). Elle repose sur une symétrie locale non abélienne SU(2)L​ × U(1)Y​ : le groupe SU(2) est associé aux courants faibles gauches (les leptons et quarks interagissent via les bosons W+,W−,Z0), le groupe U(1) est relié à l'hypercharge. Lechamp de Higgs est introduit pour briser spontanément la symétrie, ce qui donne une masse aux bosons W± et Z0, tout en laissant le photon sans masse. Cette théorie, qui unifie donc l'électromagnétisme et l'interaction faible en une seule structure mathématique, cohérente et renormalisable, explique pourquoi l'intercation faible a une courte portée (~10⁻¹⁸ m). Ses bosons médiateurs sont massifs (environ 80–90 GeV) et ,responsables des processus comme la radioactivité bêta, les oscillations de neutrinos, et la violation de la symétrie CP.

Interactionforte.
La chromodynamique quantique (QCD) est la théorie quantique des champs qui décrit l'interaction entre les quarks via l'échange de gluons, et repose sur une symétrie locale SU(3)C​. Chaque quark porte une charge de couleur (rouge, vert, bleu). Les gluons, au nombre de huit, sont eux-mêmes porteurs de couleur et peuvent donc interagir entre eux (ce qui n'est pas le cas du photon). La théorie est non abélienne, ce qui induit des comportements très différents de la QED. Une conséquence majeure est le confinement : les quarks et gluons ne sont jamais observables isolément, mais uniquement en états liés (hadrons : protons, neutrons, mésons). À haute énergie (ou à courte distance), la force devient faible : c'est le phénomène d'asymptotie libre, qui permet des calculs perturbatifs.

.


Dictionnaire Idées et méthodes
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2025. - Reproduction interdite.