Invariances et Théorie des Groupes en Physique
Invariances et Théorie des Groupes en Physique
Invariances en physique
et théorie des groupes
Jean-Bernard Zuber
Niels
Henrik
Abel
Elie
Cartan
Hendrik
Casimir
Claude
Chevalley
Rudolf
F.
A.
Clebsch
Harold
S.
M.
Coxeter
1802
–
1829
1869
–
1951
1909-‐2000
1909
–
1984
1833
–
1872
1907
–
2003
Eugene
B.
Dynkin
Hans
Freudenthal
Ferdinand
Frobenius
Paul
Albert
Gordan
Alfréd
Haar
Sir
William
R.
Hamilton
1924
-‐
1905
-‐
1990
1849
–
1917
1837
–
1912
1885
-‐
1933
1805
-‐
1865
Wilhelm
K.
J.
Killing
Sophus
Lie
Dudley
E.
Littlewood
Hendrik
A.
Lorentz
Hermann
Minkowski
Emmy
A.
Noether
1847
–
1923
1842
–
1899
1903
-‐
1979
1853
-‐
1928
1864
–
1909
1882
-‐
1935
Henri
Poincaré
Archibald
R.
Richardson
Olinde
Rodrigues
Issai
Schur
Jean-‐Pierre
Serre
Miguel
Virasoro
1854
–
1912
1881
–
1954
1795–1851
1875
–
1941
1926
-‐
1940-‐
Bartel
van
der
Waerden
André
Weil
Hermann
Weyl
Eugene
P.
Wigner
Ernst
Witt
Alfred
Young
1903
–
1996
1906
–
1998
1885
–
1955
1902
–
1995
1911
–
1991
1873
–
1940
Quelques
contributeurs
à
la
théorie
des
groupes
mentionnés
dans
la
première
partie
de
ce
cours
Avertissement
Le chapitre 0 couvre essentiellement le cours de “prérentrée”.
Les chapitres 1 à 5 suivent fidèlement le contenu de mon cours proprement dit. Ils contiennent
aussi dans des paragraphes en petits caractères et dans des appendices quelques compléments
non traités en cours.
Bibliographie générale
– [BC] N.N. Bogolioubov et D.V. Chirkov, Introduction à la théorie quantique des champs,
Dunod.
– [BDm] J.D. Bjorken and S. Drell : Relativistic Quantum Mechanics, McGraw Hill.
– [BDf] J.D. Bjorken and S. Drell : Relativistic Quantum Fields, McGraw Hill.
– [Bo] N. Bourbaki, Groupes et Algèbres de Lie, Chap. 1-9, Hermann 1960-1983.
– [Bu] D. Bump, Lie groups, Series “Graduate Texts in Mathematics”, vol. 225, Springer
2004.
– [DFMS] P. Di Francesco, P. Mathieu et D. Sénéchal, Conformal Field Theory, Springer,
– [DNF] B. Doubrovine, S. Novikov et A. Fomenko, Géométrie contemporaine, 3 volumes,
Éditions de Moscou 1982, réédité en anglais par Springer.
– [FH] W. Fulton and J. Harris, Representation Theory, Springer.
– [Gi] R. Gilmore, Lie groups, Lie algebras and some of their applications, Wiley.
– [Ha] M. Hamermesh, Group theory and its applications to physical problems, Addison-
Wesley
– [IZ] C. Itzykson et J.-B. Zuber, Quantum Field Theory, McGraw Hill 1980 ; Dover 2006.
– [Ki] A.A. Kirillov, Elements of the theory of representations, Springer.
– [LL] L. Landau et E. Lifschitz, Théorie du Champ, Editions Mir, Moscou ou The Classical
Theory of Fields, Pergamon Pr.
– [M] A. Messiah, Mécanique Quantique, 2 tomes, Dunod.
– [OR] L. O’ Raifeartaigh, Group structure of gauge theories, Cambridge Univ. Pr. 1986.
– [PS] M. Peskin and D.V. Schroeder, An Introduction to Quantum Field Theory, Addison
Wesley.
– [Po] L.S. Pontryagin, Topological Groups, Gordon and Breach, 1966.
– [St] S. Sternberg, Group theory and physics, Cambridge University Press.
– [W] H. Weyl, Classical groups, Princeton University Press.
– [Wf] S. Weinberg, The Quantum Theory of Fields, vol. 1, 2 and 3, Cambridge University
Press.
– [Wg] S. Weinberg, Gravitation and Cosmology, John Wiley & Sons.
– [Wi] E. Wigner, Group Theory and its Applications to Quantum Mechanics. Academ. Pr.
1959.
– [Z-J] J. Zinn-Justin, Quantum Field Theory and Critical Phenomena, Oxford Univ. Pr.
ii
Table des matières
2.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.4.2 Théorème de Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.4.3 Invariances d’un système quantique . . . . . . . . . . . . . . . . . . . . . 88
2.4.4 Transformations des observables. Théorème de Wigner–Eckart . . . . . . 89
2.4.5 Forme infinitésimale d’une représentation projective. Extension centrale . 91
Comme un vecteur unitaire n dans R3 dépend de deux paramètres, par exemple l’angle θ qu’il
fait avec l’axe Oz et l’angle φ que fait sa projection dans le plan Ox, Oy avec l’axe Ox (voir
Fig. 1) un élément de SO(3) est paramétrisé par 3 variables continues. On prendra ainsi
Mais il demeure une petite redondance d’apparence anodine, Rn (π) = R−n (π), à suivre . . .
1. Dans tout ce chapitre, nous utilisons alternativement les notations (x, y, z) ou (x1 , x2 , x3 ) pour désigner
les coordonnées dans un repère orthonormé.
SO(3) est donc une variété de dimension 3. Pour la rotation d’axe n colinéaire à l’axe Oz,
on a la matrice
cos ψ − sin ψ 0
Rz (ψ) = sin ψ cos ψ 0 (0.3)
0 0 1
tandis qu’autour des axes Ox et Oy
1 0 0 cos ψ 0 sin ψ
Rx (ψ) = 0 cos ψ − sin ψ Ry (ψ) = 0 1 0 . (0.4)
où n0 est le transformé de n par la rotation R, n0 = Rn (la vérifier !). Inversement toute rotation
d’angle ψ autour d’un vecteur n0 peut se mettre sous la forme (0.5) : on dira plus tard que les
“classes de conjugaison” du groupe SO(3) sont caractérisées par l’angle ψ.
z
z
n Y=
=RZ( )u
Z=
=Ru( )z
y y
x x
v=R z( ) y
Fig. 1 Fig. 2
Angles d’Euler
Une autre description fait appel aux angles d’Euler : étant donné un repère orthonormé (Ox, Oy, Oz),
toute rotation autour de O qui envoie ce repère sur (OX, OY, OZ) peut être considérée comme
résultant de la composition d’une rotation d’angle α autour de Oz qui amène le repère sur
(Ou, Ov, Oz), suivie d’une rotation d’angle β autour de Ov l’amenant sur (Ou0 , Ov, OZ), et
enfin d’une rotation d’angle γ autour de OZ qui amène le repère sur (OX, OY, OZ), (voir Fig.
2). On prend donc 0 ≤ α < 2π, 0 ≤ β ≤ π, 0 ≤ γ < 2π et on écrit
où on a utilisé le fait que Rz (α)Rz (γ)Rz−1 (α) = Rz (γ) car les rotations autour d’un même axe
commutent (elles forment un sous-groupe abélien, isomorphe à SO(2)).
Exercice : En utilisant (0.5), écrire l’expression d’une matrice R qui amène le vecteur unitaire z porté par
Oz sur le vecteur unitaire n, en termes par exemple de Rz (φ) et de Ry (θ), puis l’expression de Rn (ψ) en termes
de Ry et Rz . Écrire l’expression explicite de cette matrice et de (0.7) et en déduire les relations entre θ, φ, ψ et
les angles d’Euler. (Voir aussi plus bas, équ. (0.66).)
Avec la matrice identité I, elles constituent une base de l’espace des matrices 2 × 2 hermitiques.
Elles satisfont l’identité
σi σj = δij I + iijk σk , (0.9)
avec ijk le tenseur complètement antisymétrique, 123 = +1, ijk = signature de la permutation
(ijk).
Pour u un vecteur unitaire réel à quatre dimensions (c’est-à-dire un point de S 3 ), formons
la matrice
U = u0 I − iu.σ
σ (0.10)
qui est unitaire et de déterminant 1 (le vérifier et montrer aussi la réciproque : toute matrice
unitaire unimodulaire (= de déterminant 1) 2 × 2 est de la forme (0.10), avec u2 = 1). Ces
matrices forment le groupe SU(2) qui est donc isomorphe à S 3 . En développant l’exponentielle
en puissances et en utilisant que (n.σ σ )2 = I, conséquence de (0.9), on peut vérifier (Exercice !)
que
ψ ψ ψ
e−i 2 n.σσ = cos − i sin n.σ σ. (0.11)
2 2
Il est suggéré que la multiplication des matrices
ψ ψ ψ
Un (ψ) = e−i 2 n.σσ = cos − i sin n.σ
σ, 0 ≤ ψ ≤ 2π, n ∈ S2 (0.12)
2 2
fournit la loi de groupe cherchée dans S 3 . Montrons qu’en effet à une matrice de SU(2) on
peut associer une rotation de SO(3) et qu’au produit de deux matrices de SU(2) correspond le
produit des rotations de SO(3). Au point x de R3 de coordonnées x1 , x2 , x3 , associons la matrice
hermitique
!
x3 x1 − ix2
X = x.σσ= , (0.13)
x1 + ix2 −x3
X 7→ X 0 = U XU † , (0.14)
ψ ψ ψ ψ
X 0 = (cos − in.σ
σ sin )X(cos + in.σ σ sin )
2 2 2 2
= cos ψ x + (1 − cos ψ)(x.n) n + sin ψ (n ∧ x) .σ
σ (0.16)
où Jn , le “générateur” de ces rotations d’axe n, est une matrice hermitique 3 × 3. Montrons
d’abord que l’on peut reconstruire les rotations finies à partir de ces générateurs infinitésimaux.
Par la propriété de groupe,
ou encore
∂Rn (ψ)
= −iJn Rn (ψ) (0.19)
∂ψ
qui, compte tenu de Rn (0) = I, s’intègre en
Pour être plus explicites, introduisons les trois matrices de base J1 , J2 et J3 décrivant les
rotations infinitésimales autour des axes correspondants 2 . De la version infinitésimale de (0.3)
on tire
0 0 0 0 0 i 0 −i 0
J1 = 0 0 −i J2 = 0 0 0 J3 = i 0 0 (0.21)
0 i 0 −i 0 0 0 0 0
ce que l’on peut exprimer par une formule unique
2. Ne pas confondre Jn indexé par le vecteur n, avec Jk , k ième composante de J. La relation entre les deux
va être donnée plus bas.
Un commentaire sur (0.24) : on n’a évidemment pas le droit d’écrire en général Rn (ψ) =
−iψ
P ? Q3 −iψnk Jk
e k nk Jk =
k=1 e . Par ailleurs on voit que par la formule (0.7), on peut écrire toute
rotation de SO(3) sous la forme
Exercice : bien comprendre la structure de cette identité et vérifier qu’elle implique (0.26).
Au vu de l’importance des relations (0.23–0.26), il est utile de les retrouver par une autre route. Notons
d’abord que l’équation (0.5) implique que pour tout R
−1
Re−iψJn R−1 = e−iψRJn R = e−iψJn0 (0.28)
puisque la matrice R est de déterminant 1. Cette matrice étant aussi orthogonale, on peut faire passer un R au
membre de droite
lmn Rjm Rkn = ijk Ril (0.31)
ce qui au vu de (0.22) exprime que
Rjm (Jl )mn R−1
nk = (Ji )jk Ril (0.32)
c’est-à-dire, pour tout R et sa matrice R,
RJl R−1 = Ji Ril . (0.33)
[ce qui exprime que l’opérateur Jl se transforme comme un vecteur. . .] Soit R une rotation qui amène le vecteur
unitaire z porté par Oz sur le vecteur n, on a donc nk = Rk3 et
(0.29) (0.33)
Jn = RJ3 R−1 = Jk Rk3 = Jk nk , (0.34)
qui n’est autre que (0.23). Noter que les équations (0.33) et (0.34) sont bien compatibles avec (0.29)
(0.29) (0.34) (0.33)
Jn0 = RJn R−1 = RJk nk R−1 = Jl Rlk nk = Jl n0l .
[La forme (0.20) nous permet aussi de prouver l’assertion faite plus haut que le groupe SO(3) est engendré
N
ψ
par un voisinage de l’identité. En effet on peut écrire tout R comme R = exp −i N Jn , c’est-à-dire comme
produit d’éléments arbitrairement proches de l’identité pour N assez grand. ]
Comme on le verra de façon plus systématique par la suite, la relation (0.26) de commutation des générateurs
infinitésimaux J code une version infinitésimale de la loi de groupe. Considérons par exemple une rotation d’angle
infinitésimal dψ autour de Oy agissant sur J1
(0.33)
R2 (dψ)J1 R2−1 (dψ) = Jk [R2 (dψ)]k1 (0.35)
mais au premier ordre, R2 (dψ) = I − idψJ2 , donc le membre de gauche de (0.35) est égal à J1 − idψ[J2 , J1 ] et
au membre de droite, [R2 (dψ)]k1 = δk1 − idψ(J2 )k1 = δk1 − dψδk3 d’après (0.22), d’où i[J1 , J2 ] = −J3 , qui est
l’une des relations (0.26).
avec H hermitique, H = V diag (λk ) V † . La somme converge (pour la norme ||M ||2 = tr M M † ).
La condition d’unimodularité 1 = det U = exp itr H est garantie si tr H = 0. L’ensemble de ces
matrices hermitiques de trace nulle forme un espace vectoriel V de dimension 3 sur R. Or les
matrices hermitiques 2 × 2 de trace nulle sont des combinaisons linéaires à coefficients réels des
3 matrices de Pauli
3
X σk
H= ηk , (0.37)
k=1
2
ce que l’on peut reporter dans (0.36). On a en fait déjà observé plus haut que toute matrice
unitaire 2 × 2 peut s’écrire sous la forme (0.11). En comparant cette forme avec celle obtenue en
(0.24), ou encore en comparant sa version infinitésimale Un (dψ) = (I−i dψn. σ2 ) avec (0.17-0.34),
on voit que les matrices 12 σj jouent ici dans SU(2) le rôle joué par les générateurs infinitésimaux
Jj dans SO(3). Or ces matrices 12 σ. vérifient les relations de commutation
hσ σ i σk
i j
, = iijk . (0.38)
2 2 2
avec les mêmes constantes de structure ijk que dans (0.26). Autrement dit, nous venons de
découvrir que les générateurs infinitésimaux Ji (éq. (0.21) de SO(3) et 21 σi de SU(2) satisfont
aux mêmes relations de commutation (on dira plus tard qu’ils forment deux représentations
de la même algèbre de Lie su(2) = so(3)). Cela implique que des calculs menés avec les 21 ~σ et
faisant appel uniquement aux règles de commutation des générateurs demeurent valables avec
~ et vice versa. Ainsi, des relations (0.33), par exemple R2 (β)Jk R2−1 (β) = Jl Ry (β)lk , il
les J,
découle sans aucun calcul supplémentaire que pour les matrices de Pauli, on a
β β
e−i 2 σ2 σk ei 2 σ2 = D2 (β)σk D2−1 (β) = σl Ry (β)lk (0.39)
σk
avec Dk (ψ) := e−iψ 2 , où on lit les éléments de matrice Ry en (0.4). On a en effet l’identité
générale eA Be−A = B + ∞ 1
P
n=1 n! [A[A, [· · · , [A, B] · · · ]]], cf Chap. 1, (1.27), et ce calcul ne fait
| {z }
n commutateurs
donc appel qu’à des commutateurs. En revanche, la relation
σi σj = δij + iijk σk
(qui ne fait pas appel qu’aux commutateurs) est spécifique à la représentation de dimension 2
de l’algèbre su(2).
[J3 , J+ ] = J+
[J3 , J− ] = −J− (0.41)
[J+ , J− ] = 2J3 .
[Montrons en outre que dans les représentations de SO(3), les représentations unitaire de SO(3) sont unimo-
dulaires ( = de déterminant 1), et donc que ces générateurs sont a priori de trace nulle. Cela découle de la
simplicité du groupe SO(3). Soit D une représentation unitaires, det D est donc une représentation de dimen-
sion 1 du groupe, homomorphisme du groupe dans le groupe U(1) puisque | det D| = 1. Son noyau est un
sous-groupe invariant, donc trivial ; ce ne peut être la seule identité, car tout “commutateur” R1 R2 R1−1 R2−1
y appartient. C’est donc le groupe tout entier, ce qui établit l’unimodularité. Pour le groupe SU(2), qui n’est
pas simple, le même argument ne peut être appliqué, mais la conclusion demeure, comme on le verra : toutes
les représentations unitaires de SU(2) sont unimodulaires. [Peut-on trouver un argument simple, a priori, à cet
effet ?] ]
Pour terminer, mentionnons l’interprétation des Ji comme opérateurs différentiels agissant sur les fonctions
différentiables des coordonnées de l’espace R3 . Dans l’espace R3 , l’effet d’une rotation infinitésimale sur le
vecteur x est de le changer en
x0 = x + δψn ∧ x
donc une fonction scalaire de x, f (x), est changée en f 0 (x0 ) = f (x) soit
On identifie donc
∂
J = −ix ∧ ∇, Ji = −iijk xj (0.46)
∂xk
ce qui permet de le calculer dans des coordonnées quelconques, par exemple sphériques (Appendice 0 de
ce chapitre). (Comparer aussi (0.46) avec l’expression du moment angulaire en Mécanique Quantique Li =
~ ∂
i ijk xj ∂xk ). Exercice : vérifier que ces opérateurs différentiels ont bien les relations de commutation (0.26).
Parmi les combinaisons de J que l’on peut construire, l’une doit jouer un rôle particulier, le laplacien sur
la sphère S 2 , opérateur différentiel du second ordre invariant par changement de coordonnées (cf Appendice 0).
Il doit en particulier être invariant par rotation, être de degré 2 dans les J. , ce ne peut être que l’opérateur de
Casimir J2 (à un facteur près). De fait le laplacien dans R3 s’écrit en coordonnées sphériques
1 ∂2 J2
∆3 = r −
r ∂r2 r2
1 ∂2 ∆sphère S 2
= r+ . (0.47)
r ∂r2 r2
Nous nous sommes restreints ici pour plus de simplicité au cas de fonctions scalaires, mais on pourrait aussi
s’intéresser plus généralement à la transformation d’une collection de fonctions des coordonnées de R3 “formant
une représentation” de SO(3), c’est-à-dire se transformant linéairement entre elles sous l’action de ce groupe
A0 (x0 ) = D(R)A(x)
soit encore
A0 (x) = D(R)A R−1 x ,
A0 (x) = RA(R−1 x) .
Le produit scalaire de deux tels champs vectoriels est une fonction scalaire. Que devient la discussion qui précède
sur les générateurs infinitésimaux pour de tels objets ? Montrer qu’ils sont sommes de deux contributions, l’une
donnée par (0.46) et l’autre venant de la forme infinitésimale de R ; en termes physiques, ces deux contributions
correspondent aux moments angulaires orbital et intrinsèque (ou de spin).
Vi 7→ Rii0 Vi0 (V ⊗ W )ij = Vi Wj 7→ Rii0 Rjj 0 (V ⊗ W )i0 j 0 = Rii0 Rjj 0 Vi0 Wj 0 etc.
D’une façon générale, on appelle représentation d’un groupe G dans un espace vectoriel E un
homomorphisme de G dans le groupe des transformations linéaires GL(E) (cf. Chap. 2). Ainsi,
comme on vient de le voir, le groupe SO(3) admet une représentation dans l’espace R3 (les
vecteurs V de l’exemple ci-dessus), une représentation dans l’espace des tenseurs de rang deux,
etc. Nous allons maintenant nous intéresser à la construction des représentations générales de
SO(3) et SU(2). Pour les besoins de la physique, en particulier de la mécanique quantique,
on a surtout besoin de représentations unitaires, dans lesquelles les matrices de représentation
sont unitaires. En fait, comme on le verra, il suffit d’étudier les représentations de SU(2) pour
avoir aussi celles de SO(3), et mieux encore, il suffira d’étudier la façon dont sont représentés
les éléments du groupe au voisinage de l’identité, c’est-à-dire d’étudier les représentations des
générateurs infinitésimaux de SU(2) (et SO(3)) (qui respectent les relations de commutation
(0.26)).
[Rappelons le résultat de la discussion du chapitre 4. Toute représentation (différentiable et unitaire ) D du
groupe SU(2) dans un espace E fournit une représentation de son algèbre de Lie su(2), et vice versa puisque
SU(2) est simplement connexe. ]
Il suffit donc pour trouver les représentations unitaires du groupe SU(2) de trouver les
représentations par des matrices hermitiques de son algèbre de Lie su(2).
J2 |j m i = j(j + 1)|j m i
Jz |j m i = m|j m i . (0.48)
avec m un réel a priori arbitraire. Par abus de langage, on dira que |jm i est un “vecteur propre
de valeurs propres (j, m)”.
(i) Agissons avec J+ et J− = J+† sur |j m i. Utilisant la relation J± J∓ = J2 −Jz2 ±Jz (conséquence
de (0.41)), on calcule la norme carrée de J± |j m i :
(j − m)(j + m + 1) ≥ 0 : −j − 1 ≤ m ≤ j
(j + m)(j − m + 1) ≥ 0 : −j ≤ m ≤ j + 1 (0.50)
qui impliquent
−j ≤m≤j . (0.51)
De plus J+ |j m i = 0 si et seulement si m = j et J− |j m i = 0 si et seulement si m = −j
J+ |j j i = 0 J− |j − j i = 0 . (0.52)
(ii) Si m 6= j, J+ |j m i est non nul, vecteur propre de valeurs propres (j, m + 1). En effet
J2 J+ |j m i = J+ J2 |j m i = j(j + 1)J+ |j m i
Jz J+ |j m i = J+ (Jz + 1)|j m i = (m + 1)J+ |j m i . (0.53)
De même si m 6= −j, J− |j m i est un vecteur propre (non nul) de valeurs propres (j, m − 1).
(iii) Considérons la suite des vecteurs
|j m i, J− |j m i, J−2 |j m i, · · · , J−p |j m i · · ·
S’ils sont non nuls ils constituent des vecteurs propres de Jz de valeurs propres m, m − 1, m − 2,
· · · , m − p · · · Les valeurs propres autorisées de Jz étant bornées par (0.51), cette suite doit
s’arrêter au bout d’un nombre fini d’étapes. Soit p l’entier tel que J−p |j m i =
6 0, J−p+1 |j m i = 0.
En vertu de (0.52), J−p |j m i est un vecteur propre de valeurs propres (j, −j) donc m − p = −j
c’est-à-dire
(j + m) est un entier non négatif . (0.54)
Opérant de même avec J+ , J+2 , · · · sur |j m i, on est mené à la conclusion que
m = −j, −j + 1, · · · , j − 1, j . (0.56)
3. En fait, on vient de trouver une condition nécessaire sur les j, m. Le fait que tous ces j donnent effective-
ment des représentations va être vérifié au paragraphe suivant.
indépendants s’ils sont non nuls. Si par hypothèse la représentation est de dimension finie, cette suite est finie,
et il existe un vecteur noté |j i tel que J+ |j i = 0, Jz |j i = j|j i. Par la relation J2 = J− J+ + Jz (Jz + 1), c’est
aussi un vecteur propre de valeur propre j(j + 1) de J2 . Il s’identifie donc avec le vecteur de plus haut poids
noté précédemment |j j i, notation que nous adoptons donc dans la suite de cette discussion. A partir de ce
p
vecteur, les J− |j j i forment une suite qui doit elle aussi être finie
q−1 q
∃q J− |j j i =
6 0 J− |j j i = 0 . (0.58)
donc q = 2j + 1. Le nombre j est donc entier ou demi-entier, les vecteurs de la représentation ainsi construite
sont vecteurs propres de J2 de valeur propre j(j + 1) et de Jz de valeur propre m satisfaisant (0.56). On a
bien retrouvé tous les résultats précédents. Sous cette forme, la construction de ces “représentations de plus
haut poids” se généralise à d’autres algèbres de Lie, (même de dimension infinie, telle l’algèbre de Virasoso, voir
Chap. 1, § 1.3.6).
Les matrices Dj de la représentation de spin j sont telles que sous l’action de la rotation
U ∈ SU (2)
j
|j m i 7→ Dj (U )|j m i = |j m0 iDm 0 m (U ) . (0.60)
j j
Selon la paramétrisation ((n, ψ), angles d’Euler, . . .), on écrira aussi Dm 0 m (n, ψ), Dm0 m (α, β, γ),
Cela montre qu’une rotation de 2π dans SO(3) est représentée par −I dans une représentation
de spin demi-entier de SU(2). Les représentations de spin demi-entier de SU(2) sont des repré-
sentations “projectives”, (c’est-à-dire ici à un signe près), de SO(3) ; on reviendra au chapitre
2 sur la notion de représentation projective.
On vérifie aussi l’unimodularité des matrices Dj (ou de façon équivalente, le fait que les
représentants des générateurs infinitésimaux sont de trace nulle). Si n = Rz, D(n, ψ) =
D(R)D(z, ψ)D−1 (R), donc
j
Y
−iψJz
det D(n, ψ) = det D(z, ψ) = det e = e−imψ = 1 . (0.65)
m=−j
1
Il peut être utile d’écrire explicitement ces matrices dans les cas j = 2
et j = 1. Le cas de
j = 21 est très simple, puisque
!
1
−i 12 ψn.σ
σ cos ψ2 − i cos θ sin ψ2 −i sin ψ2 sin θ e−iφ
D (U ) = U = e
2 =
−i sin ψ2 sin θ eiφ cos ψ2 + i cos θ sin ψ2
!
β − 2i (α+γ) β − 2i (α−γ)
α β γ cos e − sin e
= e−i 2 σ3 e−i 2 σ2 e−i 2 σ3 = 2
i
2
i (0.66)
sin β2 e 2 (α−γ) cos β2 e 2 (α+γ)
résultat attendu puisque les matrices U du groupe en forment bien évidemment une représenta-
tion. (Au passage, on a obtenu des relations entre les deux paramétrisations, (n, ψ) = (θ, φ, ψ)
et les angles d’Euler (α, β, γ).) Pour j = 1, dans la base |1, 1 i, |1, 0 i et |1, −1 i où Jz est
diagonale (qui n’est pas la base (0.21) !)
1 0 0 0 1 0 0 0 0
√ √
Jz = 0 0 0 J+ = 2 0 0 1 J− = 2 1 0 0 (0.67)
0 0 −1 0 0 0 0 1 0
d’où 1+cos β
− sin
√β 1−cos β
2 2 2
d1 (β) = e−iβJy =
sin β
√ cos β − sin
√β (0.68)
2 2
1−cos β sin
√β 1+cos β
2 2 2
On peut aussi se demander pourquoi l’étude des représentations de dimension finie que vous
venons de construire suffit aux besoins du physicien, par exemple en mécanique quantique, où
la scène se passe en général dans un espace de Hilbert de dimension infinie. On démontrera
plus bas (Chap. 2) que
Toute représentation de SU(2) ou SO(3) dans un espace de Hilbert est équivalente à une re-
présentation unitaire, et est complètement réductible en une somme (finie ou infinie) de repré-
sentations irréductibles de dimension finie. [Pour prendre un exemple physique, l’analyse d’un système
quantique sous l’effet des rotations peut s’effectuer en termes de ses composantes de spin donné ; un spin j peut
apparaı̂tre avec une certaine multiplicité. ]
On obtient
j 0 0
12 X an1 bn2 cn3 dn4
Dm 0 m (U ) = (j + m)!(j − m)!(j + m )!(j − m )! . (0.71)
n1 ,n2 ,n3 ,n4 ≥0
n1 !n2 !n3 !n4 !
n1 +n2 =j+m0 ; n3 +n4 =j−m0
n1 +n3 =j+m; n2 +n4 =j−m
Pour U = −I, on vérifie à nouveau que Dj (−I) = (−1)2j I. Dans le cas particulier de U =
σ2
e−iψ 2 = cos ψ2 I − i sin ψ2 σ2 , on a donc
2k+m+m 2j−2k−m−m 0 0
12 X (−1)k+j−m cos ψ2 sin ψ2
djm0 m (ψ) 0
= (j + m)!(j − m)!(j + m )!(j − m )! 0
k≥0
(m + m0 + k)!(j − m − k)!(j − m0 − k)!k!
(0.72)
où la somme court sur les k ∈ [inf(0, −m−m0 ), sup(j −m, j −m0 )]. L’expression des générateurs
infinitésimaux sur les polynômes Pjm s’obtient en considérant des U proches de l’identité. On
trouve
∂ ∂ 1 ∂ ∂
J+ = ξ J− = η Jz = ξ −η (0.73)
∂η ∂ξ 2 ∂ξ ∂η
dont il est facile de vérifier les relations de commutation ainsi que l’action sur les Pjm en accord
avec (0.57). Cela achève l’identification de (0.69) avec la représentation de spin j.
Remarques et exercices
1. Répéter la preuve de l’irréductibilité de la représentation de spin j dans cette nouvelle forme.
2. Noter que ce que les polynômes homogènes de degré 2j dans les variables ξ et η ont construit n’est autre
que la puissance tensorielle 2j symétrisée de la représentation de dimension 2. (Voir ci-dessous la définition de
ce concept.) √
a2 2ab b2
√ √
3. Écrire la forme explicite de la matrice D1 de spin 1 en utilisant (0.71). (Rép. 2ac bc + ad 2bd )
√
c2 2cd d2
L’indice supérieur indique sur quel espace agissent les opérateurs. Par abus de notation, on
écrit souvent au lieu de (0.75)
J = J(1) + J(2) (0.750 )
et (en Mécanique Quantique), on parle de l’“addition des moments angulaires” J (1) et J (2) .
Il s’agit donc de décomposer les vecteurs (0.74) sur une base de vecteurs propres de J et Jz .
Comme J(1)2 et J(2)2 commutent entre eux et avec J2 et Jz , on peut chercher des vecteurs
propres communs que l’on notera
étant entendu que l’on s’est fixé la valeur de j1 et j2 . La question est donc double : quelles valeurs
J et M peuvent-ils prendre et quelle est la matrice du changement de base |m1 m2 i → |J M i ?
En d’autres termes quelle est la décomposition (de Clebsch-Gordan) et quels sont les coefficients
de Clebsch-Gordan ?
(1) (2)
Les valeurs possibles de M , valeur propre de Jz = Jz + Jz sont aisées à trouver
h m1 m2 |Jz |J M i = (m1 + m2 )h m1 m2 |J M i
= M h m1 m2 |J M i (0.77)
M = m1 + m2 . (0.78)
(voir Fig. 3 pour laquelle j1 = 5/2 et j2 = 1). Soit NJ le nombre de fois où la représentation
de spin J apparaı̂t dans la décomposition du produit des représentations de spin j1 et j2 . Les
n(M ) vecteurs de valeur propre M pour Jz peuvent aussi s’interpréter comme provenant des
NJ vecteurs |J M i pour les différentes valeurs de J compatibles avec cette valeur de M
X
n(M ) = NJ (0.80)
J≥|M |
m
1 M
j j j1+ j +1
1 2 2
M=j + j
1 2
M=j j Fig. 3
1 2
En conclusion, nous venons de démontrer que les (2j1 + 1)(2j2 + 1) vecteurs (0.74) (à j1 et
j2 fixés) peuvent se réexprimer en fonction des vecteurs |J M i où
J = |j1 − j2 |, |j1 − j2 | + 1, · · · , j1 + j2
M = −J, −J + 1, · · · , J . (0.82)
Noter qu’en définitive les multiplicités NJ valent 0 ou 1 ; c’est une particularité de SU(2) que
des multiplicités supérieures à 1 n’apparaissent pas dans la décomposition du produit de deux
représentations “irréductibles”, c’est-à-dire ici de spin fixé.
Leur valeur dépend en fait d’un choix de phase relative entre les vecteurs (0.74) et (0.76) ; la
convention habituelle est que pour chaque valeur de J, on choisit
h J M = J | j1 m1 = j1 ; j2 m2 = J − j1 i real . (0.85)
Les autres vecteurs sont alors définis sans ambiguı̈té par (0.57) et on va montrer que tous les C.G.
sont réels. Les C.G. satisfont des relations de récurrence conséquences de (0.57). Appliquant en
effet J± aux deux membres de (0.83), on obtient
p
J(J + 1) − M (M ± 1) h (j1 j2 ) J M |j1 m1 ; j2 m2 i (0.86)
p
= j (j + 1) − m1 (m1 ± 1)h (j1 j2 ) J M ± 1|j1 m1 ± 1; j2 m2 i
p 1 1
+ j2 (j2 + 1) − m2 (m2 ± 1)h (j1 j2 ) J M ± 1|j1 m1 ; j2 m2 ± 1 i
tion (0.85) de déterminer tous les C.G. Comme annoncé, ils sont clairement tous réels.
Les C.G. du groupe SU(2), qui décrivent un changement de base orthonormée, satisfont des
propriétés d’orthogonalité et de complétude
j1
X
h j1 m1 ; j2 m2 |(j1 j2 ) J M ih j1 m1 ; j2 m2 |(j1 j2 ) J 0 M 0 i = δJJ 0 δM M 0 si |j1 − j2 | ≤ J ≤ j1 + j2
m1 =−j1
(0.87)
j1 +j2
X
h j1 m1 ; j2 m2 |(j1 j2 ) J M ih j1 m01 ; j2 m02 |(j1 j2 ) J M i = δm1 m01 δm2 m02 si |m1 | ≤ j1 , |m2 | ≤ j2 .
J=|j1 −j2 |
Noter que dans la première ligne, m2 est fixé par la donnée de m1 , à M donné ; et que dans la
deuxième, M est fixé en termes de m1 et de m2 . Chaque relation n’implique donc qu’une seule
somme.
[Exercice. Montrer que l’intégrale
Z
dΩYlm
1
1
(θ, φ)Ylm
2
2
(θ, φ)Ylm
3
3
(θ, φ)
est proportionnelle au coefficient de Clebsch-Gordan (−1)m3 h l1 , m1 ; l2 , m2 |l3 , −m3 i, avec un coefficient indépendant
des m que l’on déterminera. ]
Plutôt que les coefficients de Clebsch-Gordan, on peut considèrer un ensemble de coefficients équivalents,
dits symboles 3-j. Ils sont définis par
!
j1 j2 J (−1)j1 −j2 +M
= √ h j1 m1 ; j2 m2 |(j1 j2 ) J M i (0.88)
m1 m2 −M 2J + 1
est invariant par permutation circulaire des trois colonnes et change par le signe (−1)j1 +j2 +j3 quand deux
colonnes sont permutées ou quand on change les signes de m1 , m2 et m3 . Le lecteur trouvera dans la littérature
de nombreuses tables et formules explicites.
Contentons-nous de donner les valeurs pour les spins les plus bas
|( 21 , 12 )1, 1 i = | 21 , 12 ; 12 , 12 i
|( 21 , 12 )1, 0 i √1 | 21 , 21 ; 12 , − 12 i + | 21 , − 12 ; 12 , 12 i
1 1 = 2
⊗ : (0.89)
|( 21 , 12 )0, 0 i √1 | 21 , 21 ; 12 , − 21 i − | 12 , − 21 ; 21 , 12 i
2 2 = 2
|( 12 , 12 )1, −1 i = | 21 , − 12 ; 12 , − 12 i
et
|( 21 , 1) 32 , 32 i = | 21 , 12 ; 1, 1 i
√
|( 12 , 1) 32 , 12 i √1 2| 12 , 21 ; 1, 0 i + | 12 , − 12 ; 1, 1 i
= 3 √
|( 21 , 1) 23 , − 12 i = √1 | 21 , 12 ; 1, −1 i + 2| 12 , − 12 ; 1, 0 i
1 3
⊗1 : (0.90)
2 |( 12 , 1) 23 , − 32 i = | 21 , − 12 ; 1, −1 i
√
|( 12 , 1) 12 , 12 i = √1 −| 21 , 12 ; 1, 0 i + 2| 12 , − 12 ; 1, 1 i
3 √
|( 12 , 1) 21 , − 12 i = √1 − 2| 12 , 21 ; 1, −1 i + | 12 , − 21 ; 1, 0 i
3
On note sur le cas 12 ⊗ 12 la propriété que les vecteurs de spin total j = 1 sont symétriques
dans l’échange des deux spins, celui de spin 0 antisymétrique. La propriété est générale : dans
la composition de deux représentations de spin j1 = j2 , les vecteurs résultants de spin j =
2j1 , 2j1 − 2, · · · sont symétriques, ceux de spin 2j1 − 1, 2j1 − 3, · · · sont antisymétriques.
Cela est apparent sur l’expression (0.88) ci-dessus, compte tenu des propriétés annoncées des symboles 3-j.
Dans le même ordre d’idées, soit le produit complètement antisymétrique de 2j + 1 copies
d’une représentation de spin j. On peut montrer que cette représentation est de spin 0 (exer-
cice suivant). (Cela a une conséquence en physique atomique, dans le remplissage des couches
électroniques : une couche complète a un moment orbital total et un spin total nuls donc aussi
un moment angulaire total nul.)
Exercice. On considère le produit complètement antisymétrique de N = 2j + 1 représentations de spin j. Mon-
trer que cette représentation est engendrée par le vecteur m1 m2 ···mN |j m1 , j m2 , · · · , j mN i, qu’il est invariant
par l’action de SU(2) et donc que la représentation construite est celle de spin J = 0.
On introduit aussi les symboles 6-j qui décrivent les deux recombinaisons possibles de 3 représentations de
spins j1 , j2 et j3
j
2
j J1
1 j
J2 3
Fig. 4
P
|j1 m1 ; j2 m2 ; j3 m3 i = h (j1 j2 ) J1 M1 |j1 m1 ; j2 m2 ih (J1 j3 ) J M |J1 M1 ; j3 m3 i|(j1 j2 )j3 ; J M i
= h (j2 j3 ) J2 M2 |j2 m2 ; j3 m3 ih (j1 J2 ) J 0 M 0 |j1 m1 ; J2 M2 i|j1 (j2 j3 ); J 0 M 0 i (0.91)
P
et les { } sont les symboles 6-j. On visualise l’opération d’addition des trois spins par un tétraèdre (cf. Fig.
4) dont les arêtes portent j1 , j2 , j3 , J1 , J2 et J et le symbole est tel que deux spins portés par une paire d’arêtes
opposées se trouvent dans la même colonne. Ces symboles sont tabulés dans la littérature.
dans le canal Iz = 12 , par exemple, doivent être reliés par les règles d’addition de l’isospin. En
inversant les relations (0.90), on obtient
r r
1 3 1 2 1 1
|p, π − i = |I = , Iz = − i − |I = , Iz = − i
r3 2 2 r3 2 2
2 3 1 1 1 1
|n, π 0 i = |I = , Iz = − i + |I = , Iz = − i
3 2 2 3 2 2
tandis que pour Iz = 3/2
3 3
|p, π + i = |I = , Iz = i .
2 2
L’invariance d’isospin implique que h I Iz |T |I 0 Iz0 i = TI δII 0 δIz Iz0 , : non seulement I et Iz sont
conservés, mais l’amplitude ne dépend que de I, pas de Iz (comme on le justifiera plus tard
au chap. 2, par le lemme de Schur ou le théorème de Wigner-Eckart). En calculant alors les
éléments de matrice de l’opérateur de transition T entre ces différents états,
h pπ + |T |pπ + i = T3/2
1
h pπ − |T |pπ − i =
T3/2 + 2T1/2 (0.93)
3
√
2
h nπ 0 |T |pπ − i =
T3/2 − T1/2
3
on trouve que les amplitudes satisfont une relation
√
2h n, π 0 |T |p, π − i + h p, π − |T |p, π − i = h p, π + |T |p, π + i = T3/2
conséquence non triviale de l’invariance d’isospin, qui implique des inégalités triangulaires entre
les modules carrés de ces amplitudes donc entre les sections efficaces de ces réactions
p p
[ σ(π − p → π − p) − 2σ(π − p → π 0 n)]2 ≤ σ(π + p → π + p) ≤
p p
≤ [ σ(π − p → π − p) + 2σ(π − p → π 0 n)]2
qui sont bien vérifiées expérimentalement. Mieux, on constate qu’à une énergie d’environ 180
MeV, les sections efficaces (proportionnelles aux carrés des amplitudes) sont dans les rapports
qui est ce qu’on obtiendrait à partir de (0.93) si on avait T 1 = 0. Cela indique qu’à cette énergie
2
la diffusion dans le canal d’isospin 3/2 est prédominante et signale en fait l’existence d’un état
intermédiaire, particule très instable ou “résonance”, notée ∆, d’isospin 3/2 donc avec quatre
états de charge
∆++ , ∆+ , ∆0 , ∆−
dont la contribution domine l’amplitude. Cette particule a un spin 3/2 et une masse M (∆) ≈
1230 MeV/c2 .
Dans certains cas on peut parvenir à des prédictions plus précises. C’est le cas par exemple dans l’étude des
réactions
2
H p → 3 He π 0 et 2 H p → 3 H π +
impliquant des noyaux de deutérium 2 H, de tritium 3 H et d’hélium 3 He. A ces noyaux aussi on peut attribuer
un isospin, 0 au deutéron qui est formé d’un proton et d’un neutron dans un état antisymétrique de leurs
isospins (pour que la fonction d’onde de ces deux fermions, symétrique d’espace et de spin, soit antisymétrique),
Iz = − 21 à 3 H et Iz = 12 à 3 He qui forment une représentation d’isospin 21 . Noter que dans tous les cas, la
charge électrique est reliée à la composante Iz de l’isospin par la relation Q = 12 B + Iz , avec B la charge
baryonique, égale ici au nombre de nucléons (protons ou neutrons). Montrer que le rapport des sections efficaces
σ(2 H p → 3 He π 0 )/σ(2 H p → 3 H π + ) est 21 .
Remarque : l’invariance par SU(2) d’isospin que nous venons de discuter est une symétrie des interactions
fortes. Il existe aussi dans le cadre du Modèle Standard une notion d’“isospin faible”, symétrie des interactions
électro-faibles, on y reviendra au Chap. 5.
Le groupe d’isométrie de cette forme quadratique, appelé O(1,3) ou groupe de Lorentz L, est
tel que
Λ ∈ O(1, 3) x0 = Λx : x0 .x0 = Λµρ xρ gµν Λνσ xσ = xρ gρσ xσ
c’est-à-dire
Λµρ gµν Λνσ = gρσ or ΛT gΛ = g . (0.94)
Ces matrices pseudo-orthogonales satisfont (det Λ)2 = 1 et (en prenant l’élément de matrice 00
de (0.94)) (Λ00 )2 = 1 + 3i=1 (Λ0i )2 ≥ 1 et donc L ≡ O(1,3) a quatre composantes connexes
P
(or “nappes”) selon que det Λ = ±1 et Λ00 ≥ 1 ou ≤ −1. Le sous-groupe des transformations
propres orthochrones satisfaisant det Λ = 1 et Λ00 ≥ 1 est noté L↑+ . Toute transformation de L↑+
peut être écrite comme le produit d’une rotation “ordinaire” de SO(3) et d’une “transformation
spéciale de Lorentz” ou “boost”.
Une différence majeure entre les groupes SO(3) et L↑+ est que le premier est compact (l’en-
semble de ses paramètres est borné et fermé, voir (0.2)), tandis que le second ne l’est pas :
dans un “boost” dans la direction 1, disons, x01 = γ(x1 − vx0 /c), x00 = γ(x0 − vx1 /c), avec
1
γ = (1 − v 2 /c2 )− 2 , la vitesse |v| < c (inégalité stricte !) n’appartient pas à un domaine compact
(ou encore, la variable de “rapidité” β, définie par cosh β = γ peut aller à l’infini). Cette compa-
cité ou non a de très importantes implications sur la nature et les propriétés des représentations,
comme nous allons voir.
Le groupe de Poincaré ou groupe de Lorentz inhomogène est engendré par les transformations de
Lorentz Λ ∈ L et les translations d’espace-temps ; on peut noter (a, Λ) son élément générique
avec une action sur un quadrivecteur x de l’espace de Minkowski et une loi de composition
données par
(a, Λ) : x 7→ x0 = Λx + a
(a0 , Λ0 )(a, Λ) = (a0 + Λ0 a, Λ0 Λ) ; (0.95)
[en accord avec eiP a ψ(x)e−iP a = ψ(x + a)] dont on calcule aisément les commutateurs
[J i , J j ] = iijk J k
[J i , K j ] = iijk K k
[K i , K j ] = −iijk J k (0.99)
et aussi
[J i , P j ] = iijk P k [K i , P j ] = iP 0 δij
[J i , P 0 ] = 0 [K i , P 0 ] = iP i . (0.100)
N.B. Les deux premières des relations (0.99) et la première de (0.100) expriment bien, comme
attendu, que J = {J j }, K = {K j } et P = {P j } se transforment comme des vecteurs sous
l’action des rotations de R3 . Formons les combinaisons
1 1
M j = (J j + iK j ) N j = (J j − iK j ) (0.101)
2 2
elles satisfont
[M i , M j ] = iijk M k
[N i , N j ] = iijk N k
[M i , N j ] = 0 . (0.102)
X 7→ X 0 = AXA†
qui est bien hermitique et définit donc x0 µ = 21 tr (X 0 σµ ) réel, avec det X 0 = det X, donc x2 = x02 .
C’est une transformation linéaire de R4 dans R4 qui préserve la norme minkovskienne x2 , c’est
donc une transformation de Lorentz, et on vérifie qu’elle est dans L↑+ et que A → Λ est un
homomorphisme de SL(2, C) dans L↑+ . On notera dans la suite x0 = A.x si X 0 = AXA† .
j 0 0
1 X an1 bn2 cn3 dn4
Dmm 0 (A) = [(j + m)!(j − m)!(j + m )!(j − m )!]
2
(0.71)
n1 ,n2 ,n3 ,n4 ≥0
n1 !n2 !n3 !n4 !
n1 +n2 =j+m ; n3 +n4 =j−m0
n1 +n3 =j+m ; n2 +n4 =j−m
∗
Noter que DT (A) = D(AT ) (car échanger m ↔ m0 équivaut à n2 ↔ n3 , donc à b ↔ c) et (D(A)) = D(A∗ )
(car les coefficients numériques dans (0.71) sont réels) donc D† (A) = D(A† ).
Cette représentation est appelée (j, 0), elle est de dimension 2j + 1. Il en existe une autre
de dimension 2j + 1, non équivalente, notée (0, j), c’est la représentation “contragrédiente
conjuguée” (au sens du chap 2. § 2.1.4) Dj (A† −1 ). Le remplacement de A par A† −1 s’interprète
dans la construction du § 0.6.3 si au lieu d’associer X = xµ σµ = x0 σ0 + x.σ σ à x, on lui associe
Xe = x0 σ0 − x.σ
σ . On note que σ2 (σi )T σ2 = −σi pour i = 1, 2, 3 donc X e = σ2 X T σ2 . Pour la
transformation A : X 7→ X 0 = AXA† , on a
e 0 = σ2 (X 0 )T σ2 = σ2 (AXA† )T σ2 = (σ2 AT σ2 )† X(σ
X e 2 AT σ2 ) .
Toutes ces représentations peuvent être obtenues à partir des représentations ( 12 , 0) et (0, 21 ).
En effet (j1 , 0) et (0, j2 ) se construisent par produit tensoriel symétrisé des représentations
( 12 , 0) et (0, 21 ), comme on l’a fait pour SU(2). Seules les représentations (j1 , j2 ) ayant j1 et j2
simultanément entiers ou demi-entiers fournissent de vraies représentations de L+ ↑ . Les autres
sont des représentations à un signe près.
Exercice : montrer que la représentation (0, j) est “équivalente” (à un changement de base
près) à la complexe conjuguée de la représentation (j, 0). (On pourra le montrer d’abord pour
j = 21 en se rappelant que (A−1 )† = σ2 A∗ σ2 , puis pour les représentations de j quelconque
obtenues par produit tensoriel d’ordre 2j à partir de j = 21 .) [Si A = a0 σ0 + ~a.σσ, A−1 = a0 σ0 − ~a.σσ =
σ2 AT σ2 , donc (A−1 )† = σ2 A∗ σ2 est équivalente à A∗ , donc la représentation (0, 12 ) est équivalente à ( 12 , 0)∗ ,
puis par produit tensoriel d’ordre 2j, Dj ((A−1 )† ) est équivalente à Dj (A∗ ) .]
Représentations spinorielles
On note que la forme alternée (ξ, η) = ξ 1 η 2 − ξ 2 η 1 = ξ T (iσ2 )η est invariante dans ( 21 , 0) (et
aussi dans (0, 12 )), ce qui découle à nouveau de (0.103)
On peut donc utiliser cette forme pour abaisser les indices α (ou α̇). Ainsi
1
dans ( , 0) : (ξ, η) = ξα η α ξ2 = ξ 1 ξ1 = −ξ 2
2
1
dans (0, ) : (ξ, η) = ξα̇ η α̇ ξ2̇ = ξ 1̇ ξ1̇ = −ξ 2̇ (0.106)
2
Représentation (j1 , j2 )
Les {ξ α1 α2 ···α2j1 β̇1 β̇2 ···β̇2j2 } symétriques en α1 , α2 , · · · , α2j1 et en β̇1 , β̇2 , · · · , β̇2j2 , forment la repré-
sentation irréductible (j1 , j2 ). (On ne peut pas diminuer le rang en prenant des traces, le seul
tenseur invariant étant la forme précédente alternée). La dimension de cette représentation est
(2j1 + 1)(2j2 + 1). Les représentations les plus usuelles rencontrées en théorie des champs sont
(0, 0), ( 21 , 0) et (0, 12 ), ( 12 , 12 ). Cette dernière correspond aux 4-vecteurs, comme on l’a vu plus
haut :
A∈SL(2,C)
x 7→ X = x0 σ0 + x.σ σ −→ X 0 = AXA†
c’est-à-dire
0 0 0 0
X = X αβ̇ → (X 0 )αβ̇ = Aαα (Aβ̇ β̇ )∗ X α β̇ ,
ce qui montre que X se transforme bien selon la représentation ( 12 , 12 ).
Exercice. Montrer que les représentations (1, 0) et (0, 1), de dimension 3, décrivent des
tenseurs F µν de rang 2 self-duaux ou anti-self-duaux, c’est-à-dire satisfaisant
i
F µν = ± µνρσ Fρσ ,
2
où µνρσ est le tenseur complètement antisymétrique à 4 indices, avec la convention que 0123 = 1,
mais attention µνρσ = −µνρσ !
Pµ |p i = pµ |p i . (0.107)
[Wµ , Pν ] = 0
[W µ , W ν ] = −iµνρσ Wρ Pσ
[Jµν , Wλ ] = i(gνλ Wµ − gµλ Wν ) . (0.109)
La dernière relation signifie que W est un 4-vecteur de Lorentz. On note aussi que W.P = 0 en raison de
l’antisymétrie du tenseur . On montre enfin (le vérifier !) que P 2 = Pµ P µ et W 2 = Wµ W µ commutent avec
tous les générateurs P et J : ce sont les opérateurs de Casimir de l’algèbre. Selon le lemme de Schur, (cf plus
bas, chap. 2, § 2.1.6) ils sont dans toute représentation irréductible proportionnels à l’identité, autrement dit,
leurs valeurs propres peuvent être utilisées pour indexer les représentations irréductibles.
En physique, on n’a en principe que deux types de représentations à considérer 4 : les représentations où
P > 0 et celles où P 2 = 0, W 2 = 0. Leur construction détaillée sera effectuée dans le cours d’A. Bilal.
2
4. ce qui ne veut pas dire qu’il n’existe pas d’autres représentations irréductibles ; par exemple les représen-
tations “non physiques” où P 2 = −M 2 < 0
[Une remarque sur les relations entre représentations de dimension finie et infinie agissant sur les champs.
On a vu que le théorème de Wigner nous donnait aussi la transformation des observables A 7→ U (g)AU † (g)
(Chap. 4, §4.2). Appliquons cette expression à la transformation sous l’action du groupe de Lorentz d’un champ
ϕ(x), supposé se transformer selon la représentation de spin s :
où U (a, A) est la transformation unitaire , agissant dans l’espace de Fock, induite par (??). ]
[Irreps de SL(2,C).
– Série principale de représentations unitaires de SL(2,C) dans L2 (C) indexées par (k, iv), k ∈ Z, v ∈ R
!! −k
(k,iv) a b −2−iv −bz + d az − c
D f (z) = | − bz + d| f
c d | − bz + d| −bz + d
unit.
D(k,iv) ∼ D(−k,−iv) sont unitaires irréductibles.
– Série principale de représentations non unitaires (k, w), k ∈ Z, w = u + iv ∈ C. Ibid avec | − bz + d|−2−w ,
sur L2 (C, (1 + |z|2 )<e w dxdy). Cette série contient toutes les irreps de dimension finie.
– Série complémetaire. Pour k = 0, w réel, 0 < w < 2, représentations unitaires pour un autre produit
scalaire Z Z
f (z)g(ζ)dzdζ
h g, f i = 2−w
C C |z − ζ|
À équivalence près, la représentation triviale, la série principale unitaire et la série complémentaire sont les
seules irreps unitaires. ]
Bibliographie
La référence historique pour le physicien est le livre d’E. Wigner [Wi].
Pour une discussion détaillée des propriétés du groupe de Lorentz, voir le livre récent d’Éric
Gourgoulhon, Relativité restreinte. Des particules l’astrophysique, (EDP Sciences / CNRS
Éditions).
Pour une discussion détaillée du groupe des rotations, ainsi que de nombreuses formules et
tables, se reporter à : J.-M. Normand, A Lie group : Rotations in Quantum Mechanics, North-
Holland.
Pour une étude approfondie des représentations physiques des groupes de Lorentz et Poincaré,
voir P. Moussa et R. Stora, Angular analysis of elementary particle reactions, dans Analysis of
scattering and decay, édité par M. Nikolic, Gordon et Breach 1968.
Problème
On considère deux représentations de spin 21 du groupe SU(2) et leur produit direct (ou tensoriel). On note J(1)
et J(2) les générateurs infinitésimaux agissant dans chaque représentation, et J = J(1) + J(2) ceux agissant dans
leur produit direct, cf. (0.75), (0.75’).
1. Que peut-on dire des opérateurs J(1) 2 , J(2) 2 et J2 et de leurs valeurs propres ?
2. Montrer que l’on peut exprimer J(1) .J(2) en termes de ces opérateurs et en déduire que les opérateurs
1 1
(3I + 4J(1) .J(2) ) et (I − 4J(1) .J(2) )
4 4
avec un tenseur métrique gαβ (ξ) dépendant a priori des coordonnées (locales) ξ α , α = 1, · · · , n ;
n est la dimension de la variété. Ce ds2 doit être invariant par des changements (différentiables)
des coordonnées, ξ → ξ 0 , ce qui dicte la transformation du tenseur g
∂ξ α ∂ξ β
ξ 7→ ξ 0 , g 7→ g 0 : gα0 0 β 0 = gαβ , (0.111)
∂ξ 0α0 ∂ξ 0β 0
qui signifie que g est un tenseur de rang 2 covariant. Ce tenseur métrique est supposé non
singulier, c’est-à-dire inversible, et le tenseur inverse est noté avec des indices supérieurs
g = det(gαβ ) . (0.113)
Il y a alors une méthode générale pour construire un élément de volume sur la variété
(c’est-à-dire une mesure d’intégration) et un laplacien, tous deux invariants par changement de
coordonnées locales :
n
√ Y α
dµ(ξ) = g dξ
α=1
1 √
∆ = √ ∂α g g αβ ∂β (0.114)
g
où dΩ est une notation générique qui rassemble!toutes les variables angulaires. Le tenseur
1 0
métrique est donc de la forme générale avec une matrice A (n − 1) × (n − 1) qui
0 r2 A
est indépendante de r et ne dépend que des variables angulaires. Ces dernières donnent lieu au
√ √
laplacien sur la sphère unité S n−1 , noté ∆S n−1 ; g = rn−1 det A ; et (0.114) nous dit que le
laplacien sur Rn a la forme générale
1 ∂ n−1 ∂ 1 ∂2 n−1 ∂ 1
∆Rn = n−1
r + 2
∆S n−1 =
2
+ + 2 ∆S n−1 .
r ∂r ∂r r ∂r r ∂r r
Écrivons les choses plus explicitement pour les sphères unités S 2 et S 3 . Considérons la sphère
S 2 de rayon r fixé à 1 avec les coordonnées sphériques 0 ≤ θ ≤ π, 0 ≤ φ ≤ 2π (Fig. 1). On a
on a
1 1
ds2 = tr dU dU † = dα2 + 2dαdγ cos β + dγ 2 + dβ 2
(0.120)
2 4
√
et avec g = sin β on calcule
1
dµ(U ) = sin β dα dβ dγ (0.121)
8
2 2
∂2
4 ∂ ∂ 4 ∂ ∂
∆sphère S 3 = 2 2
+ 2+ + sin β . (0.122)
sin β ∂α ∂γ ∂α∂γ sin β ∂β ∂ sin β
Ou encore les groupes engendrés par les réflexions dans un nombre fini d’hyperplans de Rn , qui sont finis
ou infinis, selon l’arrangement de ces hyperplans, cf. les groupes de Weyl au Chapitre 4.
!
a b
Un autre exemple important est le groupe modulaire P SL(2, Z) des matrices A = à coefficients
c d
entiers, de déterminant unité ad − bc = 1, où on identifie les matrices A et −A. Étant donné un réseau
à 2 dimensions engendré dans le plan complexe par deux nombres complexes de rapport non réel ω1 et
ω2 , ce groupe décrit les changements de base (ω1 , ω2 )T → (ω10 , ω20 )T = A(ω1 , ω2 )T laissant invariant l’aire
de la cellule élémentaire (=(ω2 ω1∗ ) = =(ω20 ω10 ∗ )) et agissant sur τ = ω2 /ω1 selon τ → (aτ + b)/(cτ + d).
Ce groupe joue un rôle important en mathématiques dans l’étude des fonctions elliptiques, des formes
modulaires, etc, et en physique dans l’étude des théories conformes et des théories de cordes. . .
Les groupes d’homotopie, que nous allons rencontrer bientôt, sont d’autres exemples de groupes discrets,
finis ou infinis. . .
3. Groupes continus.
Nous n’aurons à faire qu’à des groupes de matrices de dimension finie, c’est-à-dire des
sous-groupes des groupes linéaires GL(n, R) ou GL(n, C), pour un certain n. En particulier
– U(n), groupe des matrices unitaires complexes, U U † = I, qui est le groupe d’invariance
de la forme sesquilinéaire (x, y) = x∗i y i ;
P
Le groupe symplectique Sp(2n, R) est le groupe de matrices B réelles 2n × 2n préservant cette forme
B T ZB = Z . La forme ci-dessus apparaı̂t naturellement en mécanique hamiltonienne dans la 2-forme
Pn
symplectique ω = i=1 dpi ∧ dqi = 21 Zij dξi ∧ dξj avec les coordonnées ξ = (p1 , q1 , p2 , · · · , qn ) ; ω est
invariante par action de Sp(2n, R) sur ξ. Pour n = 1, vérifier que Sp(2,R)=SL(2,R).
On peut aussi considérer le groupe symplectique complexe Sp(2n, C). Un groupe relié, souvent noté
Sp(n) mais que je noterai USp(n) pour éviter la confusion avec les précédents, est le groupe symplectique
unitaire, groupe d’invariance d’une forme hermitienne quaternionique, USp(n)=U(2n)∩ Sp(2n, C).
Voir Appendice A.
– le groupe de “déplacements” dans R3 , – compositions de transformations de O(3) et de
translations –, et les groupes obtenus en lui ajoutant les dilatations, puis les inversions
par rapport à un point ;
– le groupe de transformations conformes, c’est-à-dire préservant les angles dans Rn , voir
le Problème à la fin de ce chapitre.
– le groupe de Galilée des transformations x0 = Ox + vt + x0 , t0 = t + t0 , O ∈ O(3) ;
– le groupe de Poincaré, dans lequel les translations sont adjointes au groupe de Lorentz
O(1,3),
– etc etc.
1.1.3 Sous-groupes
La notion de sous-groupe, sous-ensemble d’un groupe lui-même doté de la structure de groupe,
est familière. Le sous-groupe est propre s’il n’est pas identique à G. Si H est un sous–groupe,
pour tout a ∈ G, l’ensemble a−1 .H.a des éléments de la forme a−1 .h.a, h ∈ H forme aussi un
sous–groupe, dit sous–groupe conjugué de H.
Des exemples de sous-groupes particuliers sont donnés par :
– le centre Z :
Soit G un groupe. On appelle centre de G l’ensemble Z des éléments qui commutent avec
tous les éléments de G :
Z = {a | ∀g ∈ G, a.g = g.a} (1.3)
Le commutant Za n’est jamais vide : il contient au moins le sous-groupe engendré par a. Le centre Z est
l’intersection de tous!les commutants. Exemple : dans le groupe GL(2, R), le commutant de la matrice
0 1
de Pauli σ1 = est le groupe abélien des matrices de la forme aI + bσ1 , a2 − b2 6= 0.
1 0
– Plus généralement, étant donnée une partie S d’un groupe G, on définit son centralisateur Z(S) et
son normalisateur N (S) comme les sous-groupes commutant respectivement individuellement avec tout
élément de S ou globalement avec S tout entier
C’est une relation d’équivalence (le vérifier), dite équivalence à droite. On peut définir de la
même façon une équivalence à gauche par
g ∼L g 0 ⇐⇒ g −1 .g 0 ∈ H ⇔ g ∈ g 0 .H. (1.10)
La relation (disons à droite) définit des classes d’équivalence qui donnent une partition de G ;
si gj est un représentant de la classe j, on peut noter cette dernière [Link] . (Les anglophones
utilisent le terme “right-coset” pour cette classe). Les éléments de H forment à eux-seuls une
classe. On note G/H l’ensemble quotient, c’est-à-dire l’ensemble des classes d’équivalence. Son
cardinal (le nombre de classes) est appelé l’indice de H dans G et noté |G : H|. Par exemple,
le groupe (additif) H = 2Z des entiers pairs est d’indice fini égal à 2 dans G = Z. En revanche,
Z est d’indice infini dans R.
Si H est d’ordre fini |H|, toutes les classes ont |H| éléments, et si G est lui-même d’ordre fini
|G|, il est partitionné en |G : H| = |G|/|H| classes, et on obtient comme corollaire le théorème
de Lagrange : l’ordre |H| de tout sous-groupe H divise celui de G, et l’indice |G : H| = |G|/|H|
est l’ordre de l’ensemble quotient G/H.
L’équivalence à gauche donne en général une partition différente, mais de même indice. Par
exemple, le groupe S3 possède un sous–groupe Z2 engendré par la permutation des deux
éléments 1 et 2. Exercice : vérifier que les classes à gauche et à droite ne coı̈ncident pas.
Cette notion est importante dans l’étude des représentations et la classification des groupes.
Exemples : Le groupe des rotations à deux dimensions n’est pas simple, ni même semi-
simple (pourquoi ?). [tout ss-groupe Zp est un sous-groupe invariant abélien ] Le groupe SO(3) est simple
(preuve non triviale, voir plus bas, §1.2.2). Le groupe SU(2) n’est ni simple, ni semi-simple,
il contient en effet le sous-groupe invariant Z2 = {I, −I}. Le groupe Sn n’est pas simple, pour
n > 2 (pourquoi ?). [le sous-groupe alterné, noyau de l’homom. signature, est un ss-gr invt. Il est non trivial
pour n > 2.]
[Action d’un groupe sur un ensemble. Orbites. Petit groupe (stabilisateur) : cf TD]
[le sous-groupe alterné, noyau de l’homom. signature, est un ss-gr invt. Il est non trivial pour n > 2.]
Exercice : montrer que ceci une structure de groupe sur l’ensemble de ces paires : c’est le produit semi-direct
de f G1 et G2 (pour un ϕ donné) et il est noté G1 oϕ G2 . Vérifier que le sous-groupe {(g1 , e)} ' G1 est un
sous-groupe invariant de G.
Exemples : le groupe des déplacements préservant l’orientation, engendré par les translations et les rotations
de l’espace euclidien Rn , est le produit semi-direct Rn o SO(n), avec (~a0 , R0 )(~a, R) = (~a0 + R0~a, R0 R). De même
le groupe de Poincaré dans l’espace de Minkowski est le produit semi-direct R4 o L.
[Conversely is any non simple group a semi-direct product ? See my notes of 1992.]
[Action d’un groupe sur un ensemble. Orbites. Petit groupe (stabilisateur)]
x
1
x2
E
x
0
Figure 1.1 – Les lacets x1 et x2 sont homotopes. Mais aucun d’eux n’est homotope au lacet “trivial”
qui reste en x0 . L’espace n’est pas simplement connexe.
1.2.1 Connexité
Un groupe peut être ou non connexe. Si G n’est pas connexe, la composante connexe de l’identité
est un sous-groupe invariant.
On peut s’intéresser à la propriété de connexité au sens topologique général (un espace E est connexe si
ses seuls sous-espaces à la fois ouverts et fermés sont E et ∅), mais c’est surtout la connexité par arcs qui nous
concernera (pour toute paire de points, il existe un chemin continu les joignant). Démontrer que la composante
connexe de l’identité est un sous-groupe invariant dans l’une et l’autre définition. Réf. [K-S, Po]. [Pour la
connectivité par arcs, facile : si h(t) est une trajectoire continue de e à h, pour tout g, g.h(t).g −1 en est une de
e à g.h.g −1 , cqfd. ]
Exemples. O(3) est disconnexe et la composante connexe de l’identité est SO(3) ; pour le
groupe de Lorentz L=O(1,3) on a défini sa composante propre orthochrone L↑+ , les autres
“nappes” s’en déduisant via la parité P , le renversement du temps T et leur produit P T . . .
Si c’est le cas, on dit que les lacets x1 et x2 sont homotopes (c’est une relation d’équivalence),
ou encore qu’ils appartiennent à la même classe d’homotopie, voir Fig. 1.1.
On peut aussi composer les chemins : Si x1 (.) et x2 (.) sont deux lacets de x0 à x0 , le
chemin x2 ◦ x1 va aussi de x0 à x0 en parcourant d’abord x1 puis x2 . Le lacet inverse de
x1 (.) pour cette composition est le lacet parcouru en sens inverse : x−1 1 (t) := x1 (1 − t). La
composition et le passage à l’inverse sont compatibles avec l’homotopie : si x1 ∼ x01 et x2 ∼ x02 ,
0 −1
alors x2 ◦ x1 ∼ x02 ◦ x01 et x−1
1 ∼ x1 . Ces opérations passent donc aux classes, ce qui munit
l’ensemble des classes d’homotopie d’une structure de groupe pour cette composition, c’est
le groupe d’homotopie π1 (E, x0 ). Ainsi, un représentant de la classe identité est fourni par le
lacet “trivial”, x(t) = x0 , ∀t. On montre enfin que les groupes relatifs à des extrémités x0
différentes sont isomorphes (dans un espace connexe) ; par exemple dans le cas d’un groupe
connexe, on peut se ramener au choix du point de base à l’identité x0 = e. On parle donc du
groupe d’homotopie (ou groupe fondamental) π1 (E). Pour plus de détails, voir par exemple
[Po], [DNF].
Si tous les lacets de x0 à x0 peuvent être contractés en le lacet trivial {x0 }, on dit que E
est simplement connexe. Dans le cas contraire, on démontre, et nous admettrons, que l’on peut
construire un espace E, e dit espace de recouvrement universel de E, tel que E e est simplement
connexe et que localement, E et E e sont homéomorphes. Cela signifie qu’il existe une appli-
cation continue surjective p de E e dans G tel que tout point x de E e ait un voisinage Vx et
que Vx 7→ p(Vx ) soit un homéomorphisme, c’est-à-dire une application bijective et bicontinue 2 .
L’espace Ee de recouvrement universel de x est unique (à un homéomorphisme près).
Dans le cas qui nous occupe où E = G est un groupe topologique, on montre que G e est
lui-même un groupe et que de plus, l’application p est un homomorphisme de G e dans G ([Po],
§ 51). Son noyau qui est un sous-groupe invariant n’est autre que le groupe d’homotopie π1 (G).
Le groupe quotient est isomorphe à G
e 1 (G) ' G ,
G/π (1.12)
(selon une propriété générale du groupe quotient par le noyau d’un homomorphisme, cf. § 1.1.6).
On peut construire le groupe de recouvrement universel G e en considérant les chemins qui joignent l’identité
e à un point g et leurs classes d’équivalence par déformation continue à extrémités fixes. G e est l’ensemble
de ces classes d’équivalence. C’est un groupe pour la multiplication des chemins définie comme suit : si deux
chemins g1 (t) et g2 (t) joignent e à g1 et à g2 respectivement, le chemin g1 (t).g2 (t) joint e à g1 .g2 . Cette loi de
composition est compatible avec l’équivalence et munit G e d’une structure de groupe et on montre que G e est
simplement connexe (cf. [Po] § 51). La projection p de G e dans G associe à toute classe de chemins leur extrémité
commune. On vérifie que c’est bien un homéomorphisme local et un homomorphisme de groupes, et que son
noyau est le groupe d’homotopie π1 (G).
Exemple : Le groupe des phases G =U(1), vu comme le cercle unité S 1 , n’est pas simplement
connexe : un chemin de l’identité 1 à 1 peut faire un nombre arbitraire de fois le tour du cercle et
ce nombre de tours (positif ou négatif) distingue les différentes classes d’homotopie : le groupe
d’homotopie est π1 (U(1)) = Z . Le groupe G e n’est autre que le groupe additif R qu’on peut
visualiser comme une hélice au-dessus du cercle U(1). Le quotient est R/Z ' U(1), ce qu’il faut
rapprocher du fait qu’un point de U(1), c’est-à-dire un angle, est un nombre réel modulo un
multiple entier de 2π. On peut dire encore π1 (S 1 ) = Z. Plus généralement on se convainc que
g1
g0 !y
x
g
1
g!1 y
(a) (b)
Figure 1.2 – (a) Le groupe U(1), identifié au cercle et son groupe de recouvrement universel R,
identifié à l’hélice. Un élément g ∈ U(1) se relève en des points · · · , g−1 , g0 , g1 , · · · sur l’hélice. (b)
3
Dans la boule B représentant SO(3), les points y et −y de la surface sont identifiés. Un chemin allant
de x à x via y et −y est donc fermé et non contractible : SO(3) est non simplement connexe.
pour les sphères, π1 (S n ) est trivial (tous les lacets sont contractibles) dès que n > 1 3 . [think of
a rubber band on an orange ].
Autre exemple fondamental : Le groupe des rotations SO(3) n’est pas simplement connexe,
comme cela a été pressenti au Chapitre 0. Pour nous en convaincre, visualisons la rotation Rn (ψ)
par le point x = tan ψ4 n d’un espace R3 auxiliaire ; ces points sont tous dans la boule B 3 de
rayon 1, avec la rotation identité au centre et les rotations d’angle π sur la surface de la sphère,
mais en raison de Rn (π) = R−n (π) , il faut identifier les points de la sphère diamétralement
opposés. Il s’ensuit qu’il existe dans SO(3) des courbes fermées non contractibles : une courbe
de x à x passant par deux points diamétralement opposés sur la sphère S 2 doit être considérée
comme fermée mais n’est pas contractible (Fig. 2). Il existe deux classes de chemins fermés
non homotopes et le groupe SO(3) est “doublement connexe” : son groupe d’homotopie est
π1 (SO(3)) = Z2 . En fait, nous connaissons déjà le groupe de recouvrement universel de SO(3) :
c’est le groupe SU(2), dont on a montré qu’il était homéomorphe à la sphère S 3 , donc simplement
connexe, et qu’il existait un homomorphisme l’envoyant dans SO(3), selon ±Un (ψ) = ±(cos ψ2 −
i sin ψ2 σ.n) 7→ Rn (ψ), cf. Chapitre 0, § 1.2.
Cette propriété de SO(3) d’être non simplement connexe peut être illustrée par différentes expériences de
salon, dont l’interprétation précise n’est pas toujours évidente, telles “la ceinture de Dirac” et “l’assiette de
Feynman”, voir [Link]
et [Link] pour des animations, et V. Stojanoska et O. Stoytchev,
Mathematical Magazine, 81, 2008, 345-357, pour une discussion détaillée impliquant le groupe des tresses.
[Quelle est la relation de la paramétrisation de SU(2) comme sphère S 3 avec la paramétrisation précédente
de SO(3) dans la boule de R3 ? Rép : la boule apparaı̂t comme la section équatoriale de la sphère S 3 , avec
projection stéréogr. cf [Link].]
Cette même visualisation des rotations par l’intérieur de la boule unité permet de comprendre l’assertion
faite plus haut que le groupe SO(3) est simple. Supposons qu’il ne le soit pas, et soit R = Rn (ψ) un élément
d’un sous-groupe invariant de SO(3), qui contient aussi tous les conjugués de R (par définition d’un sous-
groupe invariant). Ces conjugués sont visualisés par les points de la sphère de rayon tan ψ/4. Le sous-groupe
invariant contenant Rn (ψ) et des points arbitrairement proches de son inverse R−n (ψ) contient des points
arbitrairement proches de l’identité, qui par conjugaison, remplissent une petite boule au voisinage de l’identité.
Il reste à montrer que le produit de tels éléments permet de remplir toute la boule, c’est-à-dire que le sous-groupe
invariant ne peut être que le groupe SO(3) tout entier ; ceci est en fait vrai pour tout groupe de Lie connexe,
comme on le verra plus bas.
Figure 1.3 – Deux configurations de vecteurs unitaires réalisant des applications S 1 → S 1 homoto-
piquement non triviales. Ce sont respectivement les vortex et anti-vortex du modèle XY de mécanique
statistique, voir par exemple [Link] pour plus de détails
et de belles figures.
On aimerait pouvoir effectuer de telles opérations dans le cas d’un groupe continu, la somme
finie étant remplacée par une intégrale, finie et dotée des mêmes invariances. Cela nécessite de
pouvoir disposer d’une mesure d’intégration invariante à gauche et à droite
on vérifie aisément que dµL (g) = y −2 dxdy , dµR (g) = y −1 dxdy sont les mesures invariantes à gauche et à
droite, respectivement, et que leurs intégrales divergent. Réf. [Bu]. [La conjugaison étant un automorphisme de
G, la mesure dµL (h−1 gh) = δ(h)dµL (g), avec δ(h) > 0 et on vérifie aisément que δ(g) est un “quasi-caractère” :
R R
δ(g)δ(h) = δ(gh). Or par l’invariance à gauche, ∀f , f (gh)dµL (h) = f (h)dµL (h), donc
Z Z Z
−1
δ(g) f (h)dµL (h) = f (g.g .h.g)dµL (h) = f (hg)dµL (h) =
c’est-à-dire δ(g)dµL (g) est une mesure invariante à droite. Dans l’exemple précédent, δ(x, y) = y, comme il le
faut pour retrouver dµR à partir de dµL . ]
4. Pour un exemple élémentaire d’un tel phénomène, considérer une fonction f d’une variable réelle satis-
faisant f (x)f (y) = f (x + y). Sous la seule hypothèse que f est continue, démontrer que f (x) = exp kx, donc
qu’elle est analytique !
[Le théorème d’Ado dit que toute alg de Lie admet une représentation fidèle sur une alg de matrices. La
propriété n’est pas vraie pour un groupe. Ainsi soit
1
a c
1
0 n
N = 0 1 b , a, b, c ∈ R et Z = 0 1 0 , n ∈ Z
0 0 1 0 0 1
Z est un sous-groupe invariant de N , mais le groupe de Lie N/Z ne peut être considéré comme un groupe de
matrices. Voir dans Dubrovin et al (vol 2, chap 1, §3.2) un autre exemple de même nature : un groupe a un
sous-groupe à un paramètre qui intersecte un nombre infini de fois le centre sans être contenu dans ce centre.
Ceci est incompatible avec l’existence d’une représentation fidèle de G dans un GL(n). Hilbert’s 5th problem :
Lie’s Concept of a Continuous Group of Transformations without the Assumption of the Differentiability of
the Functions Defining the Group. Definition. Define a Lie group to be a group which has the structure of a
C ∞ differentiable manifold, such that the group operations are smooth. Clearly Lie groups are locally compact
since they are locally Euclidean. 5.1. Theorem (Gleason-Montgomery-Zippen). Let G be a locally Euclidean
topological group which is connected. Then G admits a differentiable manifold structure making it into a Lie
group. Proof. This is difficult. The proof constitutes an affirmative solution to Hilbert’s fifth problem. [MZ55]. ]
Exemples : tous les groupes de matrices présentés plus haut sont des groupes de Lie. Vérifier
que la dimension de U(n) est n2 , celle de SU(n) est n2 −1, celle de O(n) ou SO(n) est n(n−1)/2.
Quelle est celle de Sp(2n, R) ? du groupe de Galilée dans R3 ? des groupes de Lorentz et de
Poincaré ? Montrer que dim(Sp(2n, R))=dim(USp(n))=dim(SO(2n+1)). Nous verrons plus bas
au Chap. 3 que cela n’est pas un accident. [dim = n(2n + 1)]
Dans l’étude d’un groupe de Lie et de ses représentations, on est conduit à se livrer à une
double étude : d’une part une étude locale de son espace tangent au voisinage de l’identité (son
algèbre de Lie), et d’autre part, une étude globale sur la topologie du groupe, information que
ne révèle pas l’étude locale.
(λ1 X1 + λ2 X2 ) ∗ Y = λ1 X1 ∗ Y + λ2 X2 ∗ Y
X ∗ (µ1 Y1 + µ2 Y2 ) = µ1 X ∗ Y1 + µ2 X ∗ Y2 . (1.13)
Exemples : l’ensemble des matrices n×n à coefficients réels ou complexes, M (n, R) ou M (n, C),
est une algèbre associative pour le produit matriciel usuel ; l’ensemble des vecteurs de R3 est
une algèbre (non associative !) pour le produit vectoriel (noté ∧ dans la littérature française et
× dans l’anglo-saxonne).
Une algèbre de Lie est une algèbre dont le produit noté [X, Y ] et appelé crochet de Lie a la
propriété supplémentaire d’être antisymétrique et de satisfaire l’identité de Jacobi
[X, Y ] = −[Y, X]
[X1 , [X2 , X3 ]] + [X2 , [X3 , X1 ]] + [X3 , [X1 , X2 ]] = 0 . (1.14)
[Jacobi donne le défaut d’associativité [X1 , [X2 , X3 ]] − [[X1 , X2 ], X3 ] = −[X2 , [X3 , X1 ]].]
Exemples : Toute algèbre associative pour un produit noté ∗, en particulier toute algèbre
de matrices, est une algèbre de Lie pour le crochet de Lie défini par le commutateur
[X, Y ] = X ∗ Y − Y ∗ X .
Les propriétés de bilinéarité et d’antisymétrie sont évidentes, et l’identité de Jacobi est vérifiée
au prix d’une ligne de calcul. Autre exemple : l’algèbre des vecteurs de R3 pour le produit vec-
toriel mentionné précédemment est en fait une algèbre de Lie, l’identité de Jacobi est aisément
vérifiée compte tenu de la formule connue du “double produit vectoriel”, u ∧ (v ∧ w) =
(u.w)v − (u.v)w. Si on écrit (v ∧ w)i = ijk vj wk en termes du tenseur complètement anti-
symétrique , l’identité de Jacobi est celle rencontrée en (0.27).
Puisque nous avons choisi de nous restreindre à des groupes de matrices, (avec e ≡ I, la matrice
identité), nous pouvons écrire l’application linéaire tangente sous la forme
g(δt) = I + δtX + · · ·
Comme il est habituel en géométrie des variétés, (cf Appendice B.3), l’espace tangent Te G
en e au groupe G, que nous noterons désormais g, est l’espace vectoriel engendré par les vecteurs
X tangents à tous les sous-groupes à un paramètre (=tous les vecteurs vitesse). Si on a choisi
dans G des coordonnées ξ α au voisinage de e, un vecteur tangent est un opérateur différentiel
X = X α ∂ξ∂α . La dimension de g (comme espace vectoriel) égale celle du groupe G, définie
comme le nombre de paramètres (réels), dim g = dim G.
Dans le cas auquel nous nous restreignons d’un groupe G ⊂ GL(n, R), X ∈ g ⊂ M (n, R),
l’ensemble des matrices réelles n × n, et on peut effectuer tous les calculs dans cette algèbre.
En particulier, on peut intégrer (1.18) selon
X tn
g(t) = exp tX = Xn , (1.19)
n=0
n!
une somme toujours convergente. (En fait on peut se passer de l’hypothèse que le groupe est
un groupe matriciel, à condition de donner un sens à l’application exp de g dans G, application
dotée des propriétés usuelles de l’exponentielle, cf Appendice B4.)
? On a encore det eX = etr X , une propriété qu’on établit aisément si X appartient à l’ensemble des matrices
diagonalisables. Ces dernières étant denses dans M (d, R), la propriété est vraie en général.
On a effectué le calcul dans l’algèbre (associative) des matrices, l’élément neutre a été noté I.
Tous les termes négligés sont du 3ème ordre puisque t ∼ u. À l’ordre 2, on voit donc apparaı̂tre
le commutateur XY − Y X au sens habituel, c’est-à-dire le crochet de Lie des matrices X et Y .
En général, pour un groupe de Lie quelconque, on définit le crochet par
Introduisons une notation commode. Pour tout X ∈ g, soit ad X l’opérateur linéaire dans
l’algèbre de Lie défini par
Y 7→ (ad X)Y := [X, Y ] , (1.22)
et donc
(ad p X)Y = [X, [X, · · · [X, Y ] · · · ]]
avec p crochets (commutateurs).
Étant donnés deux éléments X et Y de g, eX et eY les éléments de G qu’ils engendrent,
existe-t-il Z ∈ g tel que eX eY = eZ ? La réponse est positive, au moins pour X et Y suffisamment
petits.
Notons d’abord que si [X, Y ] = 0, les règles du calcul ordinaire s’appliquent et Z = X+Y . En
général, la formule de Baker-Campbell-Hausdorff, que nous admettrons, donne une expression
explicite de Z.
eX eY = eZ Z 1
Z = X+ dtψ(exp ad X exp t ad Y )Y (1.23)
0
u ln u 1 1
ψ(u) = = 1 + (u − 1) − (u − 1)2 + · · · , (1.24)
u−1 2 6
régulière en u = 1. Explicitement, les premiers termes du développement en puissances de X
et Y s’écrivent
1 1
Z = X + Y + [X, Y ] + [X, [X, Y ]] + [Y, [Y, X]] + · · · (1.25)
2 12
La formule admet des cas particuliers intéressants à connaı̂tre. Ainsi si X et Y commutent avec [X, Y ], on
a simplement
1 1
eX eY = eX+Y + 2 [X,Y ] = eX+Y e 2 [X,Y ] , (1.26)
(qui n’est autre que le développement de Taylor à t = 0 de etX Y e−tX évalué en t = 1) et en écrivant et en
résolvant l’équation différentielle satisfaite par f (t) = etX etY , f (0) = 1
Par ailleurs, au premier ordre en Y , on peut remplacer l’argument de ψ dans (1.23) par exp ad X et on voit
qu’on a
∞
X Bn n
Z=X+ (−1)n (ad X) Y + O(Y 2 ) (1.30)
n=0
n!
n
t
= 0 Bn tn! , B0 = 1, B2 = 16 , B4 = − 30
1
et en dehors de B1 = − 21 ,
P
où les Bn sont les nombres de Bernoulli : et −1
tous les B d’indice impair sont nuls. Toujours au premier ordre en Y , on a encore
Z 1
eX+Y = eX + dt etX Y e(1−t)X + O(Y 2 )
0
qu’on obtient en écrivant et en intégrant l’équation différentielle satisfaite par F (t) = exp t(X + Y ). exp −tX.
La convergence des expressions peut se démontrer pour X et Y assez petits. Bien noter
que cette formule de BCH ne fait appel qu’à l’application ad dans l’algèbre de Lie, et non
à la multiplication ordinaire des matrices de GL(d, R). C’est cela qui lui donne un caractère
canonique et universel.
transformation linéaire la plus générale laissant cette forme invariante s’écrit x → x0 = Ox, avec
O orthogonale. Sous forme infinitésimale, O = I +ω, et ω = −ω T est une matrice antisymétrique
arbitraire. Une transformation infinitésimale de la forme δxi = ω i j xj peut encore s’écrire
(notons que nous nous autorisons à monter et descendre librement les indices, ce qui est jus-
tifié avec la métrique de signature (+)n ). On dispose ainsi d’une représentation explicite des
générateurs infinitésimaux de l’algèbre so(n). C’est alors un calcul simple de calculer les rela-
tions de commutation 5
[Jij , Jkl ] = δil Jjk − δik Jjl − δjl Jik + δjk Jil . (1.33)
(Autrement dit, les seuls commutateurs non nuls sont de la forme [Jij , Jik ] = −Jjk pour tout
triplet i 6= j 6= k 6= i, et tous ceux qui s’en déduisent par antisymétrie dans les indices.)
On peut enfin procéder autrement, en utilisant une base des matrices de l’algèbre de Lie,
considérée comme ensemble des matrices antisymétriques n × n. Une telle base est donnée par
des matrices Aij indexées par des paires d’indices 1 ≤ i < j ≤ n, d’éléments de matrice
Autrement dit, la matrice Aij n’a que deux éléments non nuls (et opposés), à l’intersection de
la ligne i et de la colonne j et vice versa. Vérifier que ces matrices Aij ont les relations de
commutation données par (1.33).
Exercice : répéter cette discussion et le calcul des relations de commutation pour le groupe SO(p, q) d’inva-
Pp Pp+q
riance de la forme i=1 x2i − i=p+1 x2i . On introduira le tenseur métrique g = diag ((+1)p , (−1)q ).
5. Noter que par rapport au calcul mené pour le groupe O(1,3) au chapitre 0, § 0.6.2, nous avons changé nos
conventions et adopté ici des générateurs infinitésimaux antihermitiens.
commutent avec
1 1 1
B1 := (J12 + J34 ), B2 = (−J13 + J24 ), B3 := (J14 + J23 )
2 2 2
et que
[Ai , Aj ] = ijk Ak [Bi , Bj ] = ijk Bk , [Ai , Bj ] = 0
où on reconnaı̂t deux copies commutantes de l’algèbre so(3). On écrit so(4)=so(3)⊕ so(3). À
l’évidence l’algèbre so(4) n’est pas simple, mais elle est semi-simple.
Bien noter la différence entre ce cas de so(4) et le cas de l’algèbre so(1,3) étudiée au chapitre 0, § 0.6.2. Là, la
signature indéfinie nous a obligés à complexifier l’algèbre pour “découpler” les deux copies de l’algèbre so(3).
On a les relations suivantes
G simple =⇒ g simple
G semi-simple =⇒ g semi-simple
mais la réciproque n’est pas vraie ! Plusieurs groupes de Lie différents peuvent en effet avoir la
même algèbre de Lie, tels SO(3) qui est simple, et SU(2) qui n’est pas semi-simple, comme on
l’a vu plus haut au § 1.1.7. 6
Cette complexifiée n’est autre que l’algèbre sl(2,C), dont sl(2,R) est aussi une forme réelle non
compacte. (Voir Exercice B et les TD).
[Exercice. Étudier les algèbres réelles de dimension 3 : so(3)=su(2), so(2,1), su(1,1), sp(2,R), usp(1) et
sl(2,R). En trouver les isomorphismes et montrer qu’à isomorphisme près, deux seulement sont indépendantes.
(Voir [DNF] vol. 1, § 13 et 24 pour plus de détails sur ces isomorphismes et leur interprétation géométrique.) ]
Les algèbres so(4) et so(1,3) étudiées plus haut et au Chap. 0 offrent un autre exemple
de deux algèbres, qui sont deux formes réelles non isomorphes de la même complexifiée. Autre
exemple, sp(2n, R) et usp(n). (Voir Appendice A).
De façon générale, on démontre ([FH] p. 130) que
• toute algèbre de Lie complexe semi-simple a une unique forme réelle compacte.
En résumé, les propriétés topologiques locales d’un groupe de Lie sont transcrites dans son
algèbre de Lie. L’algèbre de Lie ne capte cependant pas les propriétés topologiques globales du
groupe (connexité, simple-connexité, . . .), comme nous le discutons maintenant.
qui sont évidemment antisymétriques dans leurs deux indices inférieurs, Cαβγ = −Cβαγ . Pour
l’opérateur ad défini en (1.22), on a donc
X
ad X Y = [X, Y ] = xα y β Cαβγ tγ .
(bien noter la structure : permutation cyclique sur les trois indices α, β, γ à fixe et δ sommé) ;
et montrer que cette identité s’exprime encore comme
qui est une forme bilinéaire symétrique (un produit scalaire) sur les vecteurs de l’algèbre de
Lie. Autrement dit, le tenseur symétrique gαβ est donné par
X
gαβ = Cαδγ Cβγδ = tr (ad tα ad tβ ) .
γ,δ
(La symétrie en α, β est manifeste sur la 1ère expression, elle résulte de la cyclicité de la trace
dans la 2ème.)
Noter que cette forme de Killing est invariante sous l’action de tout ad Z :
(penser à l’action de ad Z comme celle d’un générateur infinitésimal agissant à la manière d’une
dérivation, soit sur le premier terme, soit sur le second). En effet par (1.41), le premier terme
vaut tr (ad Zad Xad Y − ad Xad Zad Y ) et le second tr (ad Xad Zad Y − ad Xad Y ad Z), et ils
sont opposés grâce à la cyclicité de la trace. On démontre que dans une algèbre de Lie simple,
une forme bilinéaire invariante est nécessairement multiple de la forme de Killing.
On peut alors utiliser le tenseur gαβ pour abaisser le 3ème indice de Cαβγ , définissant ainsi
Montrons alors que ce Cαβγ est complètement antisymétrique en α, β, γ. Compte tenu de l’anti-
symétrie en α, β déjà connue, il suffit d’établir que Cαβγ est invariant par permutation cyclique.
Cela découle de (1.43) qui peut être écrite sous une forme plus symétrique selon
(X, [Y, Z]) = (Y, [Z, X]) = (Z, [X, Y ]) = Cαβγ xα y β z γ = Cβγα y β z γ xα = Cγαβ z γ xα y β , (1.44)
det g 6= 0.
• (ii) Une algèbre de Lie semi-simple réelle est compacte ssi la forme de Killing g est définie
négative.
Ce sont les critères de Cartan.
Dans un sens, la propriété (i) est aisée à établir. Supposons que g n’est pas semi-simple et montrons que
det g = 0. Soit I un idéal de g, choisissons une base de g faite d’une base de I, {ti }, i = 1, · · · r, complétée par
ta , a = r + 1, · · · d. Calculons, pour 1 ≤ i, j ≤ r, gij = αβ Ci,αβ Cjβα . La propriété d’idéal nous dit que α et
P
β sont eux-mêmes entre 1 et r, gij = 1≤k,l≤r Ci,kl Cjl k . donc la restriction de la forme de Killing de g à I est
P
la forme de Killing de I. Si en outre, on suppose l’idéal abélien, gij = 0 et gia = 0. La forme est clairement
dégénérée (det g = 0). La réciproque, det g = 0 ⇒ g non semi-simple, est un peu plus délicate à établir.
De même, la propriété (ii) est assez aisée à établir dans le sens compacité ⇒ forme définie négative. Partons
d’une forme bilinéaire symétrique définie positive arbitraire ; par exemple dans une base {tα } donnée, considérons
P α β
h X, Y i = x y . Pour un groupe G compact, on peut rendre cette forme invariante en moyennant sur
G : ϕ(X, Y ) := dµ(g)h gXg −1 , gY g −1 i. Elle est invariante ϕ(gXg −1 , gY g −1 ) = ϕ(X, Y ), soit sous forme
R
infinitésimale, ϕ([Z, X], Y ] + ϕ(X, [Z, Y ]) = 0, (cf (1.43)). Elle est aussi définie positive. Soit eα une base qui la
diagonalise, ϕ(eα , eβ ) = δαβ . Calculons dans cette base la matrice de l’opérateur ad X et montrons qu’elle est
antisymétrique, (ad X)αβ = −(ad X)βα :
L’algèbre est soluble si ∃n : g(n) = 0. Théorème de Lie : Toute représentation d’une alg soluble sur C (de dim
finie) est equiv à une rep triangulaire. ]
Enfin un dernier théorème important (toujours de Cartan !) énonce que
• Toute algèbre de Lie semi-simple g est somme directe d’algèbres de Lie simples gi
g = ⊕i gi .
Ceci est une conséquence simple de (1.44). Considérons une algèbre semi-simple g ayant un idéal I et
appelons C le complément de I par rapport à la forme de Killing, c’est-à-dire (I, C) = 0. Par (1.44), ([C, I], I) =
(C, [I, I]) = (C, I) = 0 (puisque I est une sous-algèbre), et ([C, I], C) = (I, C) = 0 (puisque I est un idéal),
donc [C, I], orthogonal à tout g pour la forme de Killing non dégénérée, s’annule, [C, I] = 0, ce qui signifie que
g = I ⊕ C. En itérant l’argument sur C, on obtient la propriété annoncée.
Ces propriétés ont été mises à profit par Cartan pour classifier les algèbres de Lie simples
complexes ou réelles. Nous reviendrons au Chapitre 3 sur cette classification.
a un crochet nul avec tout tγ . Que vaut C3 dans su(2) ? Voir Bourbaki [Bo] pour la discussion de ces opérateurs
de Casimir généraux. Voir aussi l’exercice C ci-dessous.
Si on se rappelle que les générateurs infinitésimaux (vecteurs de l’algèbre de Lie) s’in-
terprètent comme des opérateurs différentiels dans les coordonnées sur le groupe, on conçoit
que les opérateurs de Casimir fournissent des opérateurs différentiels invariants (puisque com-
mutant avec les générateurs infinitésimaux). En particulier, l’opérateur de Casimir quadratique
correspond à un laplacien sur le groupe (see Chap. 0, § 0.2.3 pour le cas de SO(3)).
Ces opérateurs de Casimir vont jouer un rôle important dans l’étude des représentations
des groupes.
Bibliographie sommaire
Ouvrages mathématiques
[Bo] N. Bourbaki, Groupes et Algèbres de Lie, Chap. 1-9, Hermann 1960-1983.
[Bu] D. Bump, Lie groups, Series “Graduate Texts in Mathematics”, vol. 225, Springer
2004.
[Ch] C. Chevalley, Theory of Lie groups, Princeton University Press.
[D] J. Dieudonné, Éléments d’analyse, Gauthier-Villars, en particulier tomes 5-7 (très com-
plets mais difficiles !).
[DNF] B. Doubrovine, S. Novikov et A. Fomenko, Géométrie contemporaine, Éditions de
Moscou, en particulier, les §14, 23 et 24 du volume 1 et les chapitres 1 (variétés) et 4 et 5
(homotopie) du volume 2. La version française étant épuisée, voici les références de la version
anglaise : Dubrovin, B. A., Fomenko, A. T., Novikov, S. P. Modern geometry—methods and
applications. Part I. The geometry of surfaces, transformation groups, and fields. Graduate
Texts in Mathematics, 93. Springer-Verlag, New York, 1992. Part II. The geometry and topology
of manifolds. Graduate Texts in Mathematics, 104. Springer-Verlag, New York, 1985. (a third
volume deals with homology. . .)
[Ki-Jr] A. Kirillov Jr, An Introduction to Lie groups and Lie algebras, (Cambridge Studies
in Advanced Mathematics), Cambridge Univ. Pr., 2008.
[Po] L.S. Pontryagin, Topological Groups, Gordon and Breach, 1966.
[W] H. Weyl, Classical groups, Princeton University Press
Un ouvrage récent écrit par une mathématicienne, mais avec un contenu et dans un esprit
proches du présent cours, est celui de
[K-S] Y. Kosmann-Schwarzbach, Groupes et symétries, Groupes finis, groupes et algèbres de
Lie, représentations, Les Éditions de l’École Polytechnique, 2006.
e1 e2 = −e2 e1 = e3
et ses permutations cycliques. On peut représenter les ei en termes des matrices de Pauli : ei 7→ −iσi .
Le conjugué d’un quaternion q est le quaternion
Noter que q q̄ := |q|2 = |q (0) |2 + |q (1) |2 + |q (2) |2 + |q (3) |2 , la norme carrée du quaternion, et donc q −1 = q̄/|q|2 si
sa norme est non nulle.
On définit encore le conjugué hermitique de q
(en accord avec le fait que les matrices de Pauli sont hermitiennes).
Noter que la conjugaison et la conjugaison hermitique renversent l’ordre des facteurs
Un quaternion réel est un quaternion de la forme (A.1) avec q (µ) ∈ R , donc identique à son complexe
conjugué.
L’ensemble des quaternions réels forment un corps, qui est aussi un espace de dimension 4 sur R. Il est
désigné par H (H comme Hamilton).
(Cela joue pour les matrices quaternioniques le même rôle que le conjugué hermitique pour des matrices
complexes.) Une matrice quaternionique est donc dite self-duale si
Le groupe symplectique Sp(2n, R) est le groupe de matrices réelles 2n × 2n préservant cette forme
B T SB = S . (A.12)
!
0 1
Dans la base où X T = (x1 , xn+1 , x2 , xn+2 , · · · ), la matrice S = diag = diag (−e2 ) en termes quater-
−1 0
nioniques, et le groupe symplectique est alors engendré par des matrices quaternioniques n × n Q satisfaisant
(α)
QR .Q = I, (le vérifier !) ; cependant, la matrice B étant réelle, les éléments de Q sont tels que les qij sont réels
pour α = 0, 2 et imaginaires purs pour α = 1, 3. Ce groupe n’est pas compact. Son algèbre de Lie sp(2n, R) est
engendrée par les matrices réelles A telles que AT S + SA = 0. La dimension de ce groupe ou de son algèbre de
Lie est n(2n + 1). Pour n = 1, Sp(2,R)=SL(2,R).
Un groupe relié est le groupe USp(n) engendré par les matrices n × n unitaires et quaternioniques réelles
QR = Q† = Q−1 . C’est le groupe d’invariance de la forme hermitienne quaternionique x̄i yi , x, y ∈ Hn .
P
Il est compact car c’est un sous groupe de U(2n). Son algèbre de Lie usp(n) est engendrée par les matrices
quaternioniques réelles antiselfduales A = −AR = −A† (le vérifier). Elle a aussi n(2n + 1) pour dimension. Pour
n = 1, USp(1)=SU(2).
En exprimant la condition sur les matrices A de sp(n, R) en termes de quaternions, on constate que les deux
algèbres sp(2n, R) et usp(n) ont la même algèbre complexifiée, qui n’est autre que sp(2n, C). Seule usp(n) est
compacte.
Espace compact E : espace topologique (séparé) tel que de tout recouvrement de E par des
ouverts, on peut extraire un recouvrement fini ;
Conséquences : si E est compact,
– toute suite infinie de points de E admet un point d’accumulation ;
– si f : E 7→ F est continue, f (E) est compact ;
– toute fonction continue sur E est bornée.
Si E est un sous-espace de Rn , E compact ⇔ E borné et fermé (théorème de Heine–Borel).
Espace localement compact : espace (séparé) dont tout point a au moins un voisinage com-
pact. Exemples : R n’est pas compact mais localement compact ; Q n’est ni compact ni locale-
ment compact.
et par changement de coordonnées {xi } → {y i }, ces opérateurs se transforment par la matrice jacobienne
∂
P ∂xi ∂ i j
∂y j = i ∂y j ∂xi avec la transformation des X → Y qui en découle.
x0
Xe
XC(t)
e C
C(t)
Figure 1.4 – Le champ de vecteurs tangents à la courbe C(t) est un champ invariant à gauche
Vecteur tangent à une courbe : si une courbe C(t) passe par le point x0 en t = 0, on peut dériver une
fonction f le long de cette courbe
df (C(t))
f 7→ .
dt t=0
Cela définit le vecteur tangent à la courbe C au point x0 , appelé aussi vecteur vitesse et noté C 0 (t)|t=0 = C 0 (0).
L’espace tangent à M en x0 , noté Tx0 M , est l’espace vectoriel engendré par les vecteurs vitesses à toutes
∂
les courbes passant par x0 . L’espace Tx0 M a pour base les ∂x i
x0
: il a la même dimension que M .
On appelle champ de vecteurs sur une variété M la donnée en tout point x ∈ M d’un vecteur Xx tangent
à M en x.
qui exprime que la courbe C(t) est tangente en chacun de ses points au champ de vecteurs invariant à gauche,
équation complétée par la condition initiale C(0) = e. Cette équation différentielle du premier ordre a en effet
une solution déterminée à une constante (dans le groupe) près, constante qui est fixée de façon unique par la
condition initiale.
La fonction définie par (B.2) satisfait la propriété (1.15). En effet, si C(t) satisfait (B.3), C(t + t0 ) la satisfait
aussi et diffère donc de C(t) par une constante, C(t + t0 ) = k.C(t), (k dans le groupe), constante qui est fixée
en prenant t = 0, C(t0 ) = k, donc C(t + t0 ) = C(t0 )C(t) et C(−t) = C(t)−1 , qed.
Dans le cas des groupes matriciels considéré dans ce cours, cette fonction exp s’identifie bien sûr à la fonction
exponentielle définie par son développement de Taylor (1.19).
qui est l’“aire” de la sphère unité S 3 et le “volume” de SU(2). Pour SO(3) où l’angle ψ est
R
restreint à (0, π), on a plutôt v(SO(3)) = SO(3) dµ(g) = π 2 .
On obtient l’expression dans tout autre système de coordonnées, par exemple les angles
d’Euler, en calculant le jacobien adéquat,
1
dµ(U ) = sin β dα dβ dγ . (C.3)
8
(Noter que 0 ≤ γ ≤ 4π pour SU(2), tandis que 0 ≤ α ≤ 2π et 0 ≤ β ≤ π).
Comparer ces formules avec celles trouvées par une autre méthode au Chapitre 0, App. 0.
• Cas de U(n).
Examinons finalement rapidement le cas du groupe U(n) en lui appliquant la méthode du Chap. 0, App. 0.
Toute matrice unitaire U ∈ U(n) peut se diagonaliser sous la forme
U = V ΛV † , (C.4)
où Λ = diag (λ1 , · · · , λn ) et les λi sont en fait des phases λj = eiαj . Les λi peuvent être considérées comme
des variables “radiales”, tandis que V représente les variables “angulaires”. Noter que V doit être restreint à
ne pas commuter avec la matrice diagonale Λ. Supposant cette dernière générique, avec des valeurs propres λi
toutes distinctes, V vit dans U(n)/U(1)n . La métrique naturelle, invariante par U 7→ U 0 U ou 7→ U U 0 , s’écrit
tr (dU dU † ). Or dU = V (dΛ + [dX, Λ])V † , où dX := V † dV est antihermitienne (et sans termes diagonaux,
pourquoi ?). On a donc tr (dU dU † ) = i |dαi |2 + 2 i<j |dXij |2 |λi − λj |2 ce qui définit le tenseur métrique gαβ
P P
λn−1
1 λn−1
2 ··· λn−1
n
.. ..
. .
Y
∆(λ) := (λi − λj ) = . (C.6)
i<j λ 1 λ2 ··· λn
1 1 ··· 1
La partie “radiale” de la mesure d’intégration est donc donnée par |∆(eiα )|2 dαi à un facteur constant près,
Q
soit encore
Y αi − αj Y
dµ(U ) = const. sin2 dαi × partie angulaire . (C.7)
i<j
2
Noter que cette partie radiale de la mesure est suffisante si on a à intégrer sur le groupe une fonction de U
invariante par U → V U V † , V ∈U(n). Par exemple dµ(U ) tr P (U ), avec P un polynôme.
R
S(x) = {g ∈ G|β(g)x = x} .
Montrer que si x et y appartiennent à la même orbite, leurs groupes d’isotropie sont conjugués. [Si y ∼ x donc
∃g ∈ G : y = β(g)x, considérons S(y) = {g 0 |β(g 0 )y = y}, donc β(g 0 )β(g)x = β(g)x donc β(g −1 g 0 g)x = x
c’est-à-dire g −1 g 0 g ∈ S(x), donc g −1 S(y)g ⊂ S(x) et en fait en inversant les opérations, g −1 S(y)g = S(x), qed.]
Quel est le groupe d’isotropie d’un point x ∈ Rn sous l’action de SO(n) ? d’un vecteur de genre temps p dans
l’espace de Minkowski ?
0
[S(x) ≈ SO(n − 1) ; S(p) =O(3) si p = p = (m, ~0) donc de façon générale, un groupe conjugué à O(3) :
0
p = Λp, ∀R ∈ O(3), ΛRΛ−1 p = p. ] Le stabilisateur S(x) est-il un sous-groupe invariant ? [en général non,
puisqu’on sait qu’un sous-groupe invariant est égal à tous ses conjugués : si S(x) était invariant, il serait égal à
tous les stabilisateurs S(y) des points y de O(x). Dans le cas de SO(3), par exemple, absurde . . .]
6. Montrer qu’il existe une bijection entre les points de l’orbite O(x) et l’ensemble quotient G/S(x). [(g ∼ g 0
en ce sens que g 0−1 g = h ∈ S(x)) ⇔ β(g)x = β(g 0 )β(h)x = β(g 0 )x donc g et g 0 sont équivalents (même left
coset) par rapport à S(x) ssi ils définissent le même point sur l’orbite O(x).] Pour un groupe fini G, en déduire
une relation entre les ordres de G, de O(x) et de S(x). [∀x |G| = |O(x)| × |S(x)|.] Cet ensemble G/S(x) est-il
un espace homogène pour l’action de G ?[oui puisque toute orbite l’est.]
Le sujet du chapitre 2 porte sur le cas particulier où E est un espace vectoriel avec comme bijections les
transformations linéaires du groupe GL(E) : on parle alors de représentations du groupe G dans E.
0 1 0 1 0 0
0 −1 0
1 0 0, qui satisfont donc aux relations de commutation [J˜1 , J˜2 ] = J˜3 , [J˜2 , J˜3 ] = −J˜1 , [J˜3 , J˜1 ] = −J˜2 ,
0 0 0
isomorphes à celles de su(1,1) et sl(2, R). ]
6. En utilisant les critères de Cartan, discuter la semi-simplicité et la compacité de ces différentes algèbres.
Quelle est leur complexifiée et leur relation avec su(2) ? [On calcule la forme de Killing, par exemple de so(2,1) :
g11 = 2C123 C132 = 2, g22 = 2 et g33 = −2, indéfinie, de signature (+, +, −), donc l’algèbre est semi-simple mais
pas compacte.]
(Pour la relation géométrique entre les groupes SU(1,1), SL(2,R) et SO(1,2)), cf. le §13, vol. 1 de [DNF].
avec tous les t(ij) [commutateur = somme télescopique périodique !] et sont donc des opérateurs de Casimir de
degré r.
4. Comment modifier ce qui précède pour l’algèbre su(n) ? ([Bu], chap 10) [Introduce traceless matrices t̃(ij) ,
= (t̃(ij) )ab = δia δjb − n1 δij δab ]
ds2 = gµν (x)dxµ dxν → ds02 = gµν (x0 )dx0µ dx0ν = α(x)ds2 (1.50)
a) Écrire la forme infinitésimale de cette condition, quand xµ → x0µ = xµ + aµ (x). (On reliera le paramètre de
dilatation 1 + δα à aµ en prenant une trace adéquate.)
b) Montrer que pour un espace euclidien ou pseudo-euclidien de métrique gµν = diag {(+1)p , (−1)d−p }, la
condition se ramène à
2
∂µ aν + ∂ν aµ = gµν ∂ρ aρ . (1.51)
d
3. Montrer en utilisant (1.49), (1.51) que sous les conditions du 1. et du 2.b, toute théorie invariante par
translations, rotations et dilatations l’est aussi sous l’effet des transformations conformes.
4. On va maintenant étudier les conséquences de (1.51). On pose D := d1 ∂ρ aρ .
– a) En dérivant (1.51) par rapport à xν , montrer que
∂ 2 aµ = (2 − d)∂µ D. (1.52)
– b) En dérivant (1.52) par rapport à xµ , montrer qu’en dimension d > 1, D est une fonction harmonique :
∂ 2 D = 0.
– c) On suppose dans la suite que d ≥ 2. En dérivant (1.52) par rapport à xν , en symétrisant en µ et ν et
en utilisant (1.51), montrer que si d > 2, alors ∂µ ∂ν D = 0. En conclure qu’il existe une constante h et un
vecteur constant k tel que D = kµ xµ + h.
– d) En dérivant (1.51) par rapport à xσ et en antisymétrisant en ν et σ, montrer que
– f) En conclure que l’expression générale d’une transformation conforme infinitésimale en dimension d > 2
s’écrit
1
aν = kσ xσ xν − xσ xσ kν + lσν xσ + hxν + cν (1.55)
2
avec c un vecteur constant 7 . De combien de paramètres réels indépendants dépend une telle transforma-
tion en dimension d ?
II-1. On apprend que dans l’espace (pseudo-)euclidien de dimension d > 2, les transformations conformes
sont engendrées par les translations, les rotations, les dilatations et “les transformations conformes spéciales”,
obtenues en composant une inversion xµ → xµ /x2 , une translation et à nouveau une inversion. Écrire la forme
finie puis la forme infinitésimale de ces transformations conformes spéciales, et vérifier que le résultat est bien
en accord avec (1.55), ce qui justifie l’assertion précédente.
2. Écrire l’expression des générateurs infinitésimaux Pµ des translations, Jµν des rotations, D des dilatations
et Kµ des transformations spéciales, comme opérateurs différentiels en x.
3. Écrire avec le minimum de calculs les relations de commutation de ces générateurs (on utilisera les
résultats déjà connus sur les générateurs Pµ et Jµν et on tirera profit de l’homogénéité et de la définition des
transformations conformes spéciales pour réduire le seul calcul non trivial à celui de [Kµ , Pν ]). Vérifier que des
relations de commutation se ferment bien sur les générateurs P, J, D et K.
4. Quelle est la dimension du groupe conforme dans l’espace euclidien Rd ?
III-1. Pour mieux comprendre la nature du groupe conforme, on applique l’espace Rd , complété du point à
l’infini et doté de sa métrique x2 = x21 + · · · + x2d , sur la sphère S d . Cette sphère est définie par l’équation
rd+1
Sd N
r
Rd
r2 + rd+1
2
= 1 dans l’espace Rd+1 , et l’application est réalisée grâce à la projection stéréographique à partir du
“pôle Nord” r = 0, rd+1 = 1 (voir Fig. 1.5). Montrer que l’on a
2x x2 − 1
r= rd+1 = .
x2 +1 x2 + 1
Quelle est l’image du point à l’infini ? Quel est l’effet de l’inversion dans Rd sur le point r = (r, rd+1 ) ∈ S d ?
2. La sphère précédente est à son tour considérée comme la section du cône de lumière C dans l’espace de
Minkowski M1,d+1 de métrique z02 − z2 − zd+1 2
= 0 par l’hyperplan z0 = 1. Montrer que de cette façon on a
une correspondance biunivoque entre les points de Rd ∪ {∞} et les rayons du cône de lumière (c’est-à-dire les
vecteurs à une dilatation près) et que l’expression de x ∈ Rd en fonction de z = (z0 , z, zd+1 ) ∈ C est
z
x= .
z0 − zd+1
3. On va montrer maintenant que l’action du groupe conforme dans Rd découle de transformations linéaires
dans M1,d+1 préservant le cône de lumière. Sans aucun calcul, montrer que ces transformations doivent alors
appartenir au groupe de Lorentz de M1,d+1 , soit O(1, d + 1).
a) Identifier les transformations linéaires de z correspondant aux rotations de x dans Rd . Montrer que les
dilatations de x correspondent à des “boosts” de rapidité β dans le plan (z0 , zd+1 ), en donnant la relation entre
le paramètre de dilatation et la rapidité.
b) On considère ensuite les transformations de O(1, d + 1) qui préservent z0 − zd+1 . Écrire la matrice Ta
d’une telle transformation infinitésimale agissant sur les coordonnées (z0 , z, zd+1 ) telle que δz = a(z0 − zd+1 )
(au premier ordre en a). A quelle transformation de x ∈ Rd correspond-elle ? Calculer par exponentiation de Ta
la matrice d’une transformation finie (on pourra par exemple calculer les premières puissances Ta2 , Ta3 . . .).
c) Quelle est enfin l’interprétation de l’inversion de Rd dans le groupe de Lorentz de M1,d+1 ? Que dire
des transformations conformes spéciales ? Quelle est la dimension du groupe O(1, d + 1) ? Qu’en conclure sur la
relation entre le groupe de Lorentz dans l’espace de Minkowski M1,d+1 et le groupe conforme dans Rd ?
IV. Question subsidiaire : Connaissez-vous des transformations conformes de l’espace R2 autres que celles
mentionnées au II.1 ?
La question de l’action d’un groupe dans un ensemble a déjà été évoquée au chapitre
précédent (Exercice A et TD). On va s’intéresser maintenant plus particulièrement à l’action
linéaire d’un groupe dans un espace vectoriel. Cette situation est rencontrée fréquemment en
géométrie et en physique (mécanique quantique, mécanique statistique, théorie des champs,. . .).
Il faut cependant garder à l’esprit que d’autres actions de groupe peuvent aussi avoir un intérêt
physique : ainsi le groupe des rotations SO(n) agit sur la sphère S n−1 de façon non linéaire,
et cela apparaı̂t par exemple dans des modèles de ferromagnétisme et des théories de champs
dites modèles σ non linéaires, cf cours de F. David.
∀g ∈ G g 7→ D(g) ∈ GL(E)
∀g, g 0 ∈ G D(g.g 0 ) = D(g).D(g 0 ) (2.1)
D(e) = I
∀g ∈ G D(g −1 ) = (D(g))−1
où I désigne l’opérateur identité dans GL(E). Si l’espace de représentation est de dimension
p, la représentation est dite elle-même de dimension p. La représentation qui à tout g ∈ G
associe 1 (considéré comme ∈ GL(R)) est appelée triviale ou représentation identité ; elle est
de dimension 1.
Si G est un groupe topologique, resp. un groupe de Lie, on demandera aussi à l’application g 7→ D(g) d’être
continue, resp. différentiable. Dans la suite de ces notes, on supposera toujours ces conditions satisfaites.
La représentation est dite fidèle si ker D = {e}, ou encore si D(g) = D(g 0 ) ⇔ g = g 0 . Sinon,
le noyau de l’homomorphisme est un sous-groupe invariant H, et la représentation du groupe
G/H dans E est fidèle (le vérifier). En conséquence, toute représentation non triviale d’un
groupe simple est fidèle. Inversement, si G a un sous-groupe invariant H, toute représentation
de G/H fournit une représentation dégénérée (= non fidèle) de G.
Si E est de dimension finie p, on peut choisir une base ei , i = 1, . . . , p, et associer à tout
g ∈ G la matrice représentative de D(g), notée avec une lettre calligraphiée
avec, comme (presque) toujours dans ces notes, la convention de sommation sur les indices
répétés. La disposition des indices (i : indice de ligne, j indice de colonne) est dictée par la loi
(2.1). En effet, on a bien
Exemples : Le groupe SO(2) des rotations dans le plan admet une représentation de dimension
deux, avec des matrices !
cos θ − sin θ
(2.4)
sin θ cos θ
qui décrivent bien les rotations d’angle θ autour de l’origine.
Le groupe SU(3) est défini comme l’ensemble des matrices U unitaires, 3×3 et de déterminant
1. Ces matrices forment elles-mêmes une représentation de SU(3), c’est la “représentation de
définition”. Montrer que les matrices U ∗ complexes conjuguées forment aussi une représentation
de SU(3). !
1 a
De quel groupe les matrices forment-elles une représentation ?
0 1
Un tel V est dit opérateur d’entrelacement (“intertwiner” en anglais). Si V est inversible (et
donc E et E 0 ont même dimension, si elle est finie), on dit que les représentations D et D0 sont
équivalentes. (C’est une relation d’équivalence entre représentations !).
Dans le cas de dimension finie, où on identifie E et E 0 , on voit que les matrices représentatives
de D et D0 sont reliées par une transformation de similitude et peuvent être considérées comme
différant par un changement de base. Il n’y a donc pas lieu de distinguer fondamentalement
C’est une fonction de G dans R ou C qui satisfait les propriétés suivantes (les vérifier) :
– Le caractère est indépendent du choix de base dans E.
– Deux représentations équivalentes ont le même caractère.
– Le caractère prend la même valeur pour les différents éléments d’une même classe 1 de G :
on dit que le caractère est une fonction de classe : χ(g) = χ(hgh−1 ).
La réciproque de cette dernière propriété, à savoir une fonction de classe peut-elle s’exprimer
en termes des caractères, est vraie pour tout groupe fini ; elle l’est aussi pour tout groupe de
Lie compact et toute fonction continue (ou de la classe de carré sommable) sur G : c’est l’objet
du théorème de Peter–Weyl, voir plus bas § 2.3.1.
On notera encore que le caractère, évalué pour l’élément identité du groupe, fournit la
dimension de la représentation
χ(e) = dim D . (2.7)
1. Les classes du groupe G dont il s’agit ici sont celles résultant de la relation d’équivalence dans G :
g ∼ g 0 ⇔ ∃h ∈ G : g 0 = hgh−1 . Ne pas confondre ces classes avec celles (“cosets”) liées à un sous-groupe.
0 D2 (g)
0 D2 (g)
C’est le cas des représentations du groupe des translations à une dimension. La représentation
!
1 a
D(a) = (2.10)
0 1
est réductible, puisqu’elle laisse invariants les vecteurs (X, 0) mais n’a pas de sous-espace
supplémentaire invariant.
En revanche, si la représentation réductible de G dans E laisse invariant le sous-espace E1 ,
il existe une représentation dans le sous-espace E2 = E/E1 . Dans les notations de l’équ. (2.9),
sa matrice représentative est D2 (g).
Il faut encore souligner l’importance du corps de base dans la discussion de l’irréductibilité.
C’est ainsi que la représentation (2.4) qui est irréductible sur un espace vectoriel sur R ne l’est
pas sur C : on peut au prix d’un changement de base la récrire comme
!
e−iθ 0
. (2.11)
0 eiθ
Ce concept joue un rôle dans le contrôle de l’“anomalie chirale non-singlet” dans les théories de jauge : si
les fermions appartiennent à une représentation réelle ou pseudoréelle du groupe de jauge, ils n’induisent pas
d’anomalie. Voir le chapitre 5 de ce cours.
La représentation contragrédiente de D est définie quant à elle par
c’est-à-dire D̄ij (g) = Dji (g −1 ), qui satisfait bien aussi (2.3). Pour une représentation unitaire, cf alinéa suivant,
∗
D̄ij (g) = Dij (g), la contragrédiente s’identifie à la conjuguée. Les représentations D, D∗ et D̄ sont simultanément
réductibles ou irréductibles.
[Dans SL(2, C), (cf. Chapitre 00), la représentation avec indices pointés est la conjuguée de la contragrédiente.
Dans SU(2), elle est equivalent à la représentation à indices non pointés puisqu’elle est unitary. ]
qui satisfait
X
D† (g)QD(g) = D† (g 0 .g)D(g 0 .g) = Q (2.17)
g 0 ∈G
P P
où on a remplacé g0 par g0 .g (“lemme de réarrangement”), (cf § 1.2.4) L’opérateur auto-
adjoint Q est défini positif, (pourquoi ?), on peut donc l’écrire sous la forme
Q = V †V (2.18)
D0 (g) = V D(g)V −1
D0† (g)D0 (g) = V †−1 D† (g)V † V D(g)V −1 (2.19)
(2.17)
= V †−1 D† (g)QD(g)V −1 = V †−1 QV −1 = I .
Dans le cas d’un groupe continu compact, l’existence de la mesure invariante de Haar (cf §
1.2.4) permet de répéter l’argument avec Q = dµ(g 0 )D† (g 0 )D(g 0 ). cqfd
R
Comme corollaire des deux propriétés précédentes, toute représentation réductible d’un
groupe fini ou d’un groupe compact sur un espace préhilbertien est (équivalente à) une re-
présentation unitaire et complètement réductible. Il s’agit donc pour nous de construire et de
classifier les représentations unitaires irréductibles. On va montrer plus bas que, pour un groupe
fini ou compact, ces représentations irréductibles sont de dimension finie.
!
1 a
Contre-exemple dans le cas d’un groupe non compact : les matrices forment une représentation
0 1
indécomposable (non complètement réductible).
N.B. Si les deux représentations ne sont pas irréductibles, c’est bien sûr faux en général. Un
contre-exemple
! est fourni par la représentation (2.10) qui commute avec les matrices V =
0 b
.
0 0
Corollaire 1. Tout opérateur d’entrelacement d’une représentation irréductible sur le corps C
avec elle-même, c’est-à-dire tout opérateur commutant avec tous les représentants du groupe,
est un multiple de l’identité.
En effet, sur C, V a au moins une valeur propre λ (qui est non nulle puisque V est inversible
par le lemme de Schur). L’opérateur V − λI est lui aussi un opérateur d’entrelacement, mais il
est singulier donc nul.
Corollaire 2. Une représentation irréductible sur C d’un groupe abélien est nécessairement de
dimension 1.
En effet, soit g 0 ∈ G, D(g 0 ) commute avec tous les D(g) puisque G est abélien. Donc (corollaire
1) D(g 0 ) = λ(g 0 )I. La représentation se décompose en dim D copies de la représentation de
dimension 1 : g 7→ λ(g), et l’irréductibilité impose que dim D = 1.
Insistons sur l’importance du caractère algébriquement clos de C, par opposition à R,
dans ces deux ! corollaires. La représentation sur R du groupe SO(2) par les matrices D(θ) =
cos θ − sin θ
vient fournir des contrexemples aux deux propositions précédentes : toute ma-
sin θ cos θ
trice D(α) commute avec D(θ) mais n’a pas de valeur propre réelle (si α 6= 0, π) et la représen-
tation est irréductible sur R, quoique de dimension deux.
Application du Corollaire 1 : dans l’algèbre de Lie d’un groupe de Lie, les opérateurs de Casimir quadra-
tiques définis à la fin du Chap. 1 commutent avec tous les générateurs infinitésimaux et donc avec tous les
éléments du groupe. Anticipant un peu sur la discussion à venir des représentations d’une algèbre de Lie, dans
une représentation unitaire on peut choisir ces opérateurs de Casimir hermitiens, donc diagonalisables, ce qui
permet d’appliquer le raisonnement du Corollaire 1 : dans toute représentation irréductible, ils sont multiples
de l’identité. Ainsi pour SU(2), J2 = j(j + 1)I dans la représentation de spin j.
Une méthode couramment utilisée pour construire des représentations irréductibles d’un groupe
donné consiste à construire le produit tensoriel de représentations connues et à le décomposer en
représentations irréductibles. C’est aussi la situation qu’on rencontre en Mécanique Quantique,
quand on connaı̂t la transformation des composantes d’un système et qu’on étudie comment le
système composé se transforme (système de deux particules de spin j1 et j2 par exemple).
Soient E1 et E2 deux espaces vectoriels portant des représentations D1 et D2 d’un groupe G.
L’espace produit tensoriel 4 E = E1 ⊗ E2 est l’espace engendré par les combinaisons linéaires de
“produits” (tensoriels) d’un élément de E1 et d’un élément de E2 : z = i x(i) ⊗ y (i) . L’espace
P
E porte lui même une représentation, notée D = D1 ⊗ D2 , produit tensoriel (ou produit direct)
4. On trouvera à l’Appendice D un petit rappel sur les produits tensoriels et les tenseurs.
Décomposition de Clebsch-Gordan
D ⊗ D0 = ⊕j Dj (2.23)
D ⊗ D0 = ⊕ρ mρ D(ρ) . (2.24)
Une écriture plus correcte serait E ⊗ E 0 = ⊕ρ Fρ ⊗ E (ρ) où Fρ est un espace vectoriel de dimension mρ , l’“espace
de multiplicité”.
Les entiers mρ sont non négatifs. Les équations (2.23) et (2.24) impliquent des règles simples
sur les caractères et les dimensions
X X
χD .χD0 = χj = mρ χ(ρ) (2.25)
j ρ
X X
0
dim D. dim D = dim Dj = mρ dim D(ρ) . (2.26)
j ρ
les produits tensoriels de vecteurs ~x et ~y et on sait construire le produit scalaire ~x.~y qui est
invariant par le groupe (représentation triviale), un tenseur antisymétrique à deux indices
Aij = xi yj − xj yi
qui se transforme comme une représentation irréductible de dimension 3 (de spin 1), 5 et un
tenseur symétrique de trace nulle
2
Sij = xi yj + xj yi − δij ~x.~y
3
qui se transforme selon une représentation irréductible de dimension 5 (spin 2) ; on peut donc
décomposer tout tenseur xi yj selon
1 1 1
xi yj = δij ~x.~y + Aij + Sij ;
3 2 2
le total des dimensions est bien sûr de 9 = 3 × 3 = 1 + 3 + 5 et en repérant dans ce cas simple
les représentations par leur dimension, on écrit
où on reconnaı̂t bien sûr les règles familières d’“addition du moment angulaire” (voir Chap. 0)
0
(j) ⊗ (j 0 ) = ⊕j+j 00
j 00 =|j−j 0 | (j ) . (2.28)
Coefficients de Clebsch-Gordan
La formule (2.23) décrit comment dans une transformation du groupe les matrices de re-
présentation se décomposent en représentations irréductibles. Il est aussi souvent important
(ρ)
de savoir comment les vecteurs des représentations concernées se décomposent. Soit eα , α =
1, · · · , dim D(ρ) , une base de vecteurs de la représentation ρ. On cherche à développer le produit
(ρ) (σ) (τ )
de deux tels objets, soit eα ⊗ eβ , sur des eγ . Comme la représentation τ peut intervenir un
nombre mτ de fois, il convient d’introduire un indice supplémentaire i = 1, · · · , mτ . On écrira
(σ)
X
e(ρ)
α ⊗ eβ = Cρ,α; σ,β|τi ,γ eγ(τi ) . (2.30)
τ,γ,i
et justifie la notation
h ρ, α; σ, β|τi γ i = h τi γ|ρ, α; σ, β i∗ (2.35)
X
|τi γ i = h ρ, α; σ, β|τi γ i|ρ, α; σ, β i . (2.36)
α,β
Finalement en appliquant une opération du groupe aux deux membres de (2.31) et en utilisant
ces relations, on décompose le produit des matrices D(ρ) et D(σ) de façon tout à fait explicite
(ρ) (σ)
X (τ )
Dαα0 Dββ 0 = h τi γ|ρ, α; σ, β i∗ h τi γ 0 |ρ, α0 ; σ, β 0 i Dγγi0 . (2.37)
τ,γ,γ 0 ,i
On verra plus bas (§ 2.4.4) une application de ces formules au théorème de Wigner-Eckart.
Il s’agit là d’une méthode souvent utilisée pour fabriquer des représentations de H, une fois
connues celles de G. En général, si D est irréductible (sur G), D0 ne l’est pas (sur H), et se pose
à nouveau la question de la décomposer en représentations irréductibles. Par exemple, étant
donné un sous-groupe fini de SU(2), il s’agit de dresser la liste (finie, comme on verra plus
bas) de ses représentations irréductibles à partir de celles de SU(2). Autre exemple rencontré
souvent en physique : un groupe de symétrie G est “brisé” en un sous-groupe H ; comment les
représentations de G se décomposent-elles en représentations de H ? Exemples : en physique des
solides, le groupe G ⊂ SO(3) de symétrie “ponctuelle” (c’est-à-dire de rotations et réflexions)
d’un cristal est brisé en H par un champ extérieur ; en physique des particules, on rencontrera
aux chapitres 4 et 5 les cas de SU(2)⊂ SU(3) ; U(1)×SU(2)× SU(3) ⊂ SU(5), etc.
Ainsi des calculs menés dans une représentation particulière mais faisant appel uniquement
aux règles de commutation de l’algèbre de Lie demeurent valables dans toute représentation.
On a vu au Chap. 0, § 0.2.2, une illustration de cette propriété d’universalité.
En revanche, les opérateurs de Casimir prennent des valeurs différentes dans des représen-
tations irréductibles différentes.
En parallèle avec les définitions du § 2.1.1, on définit les notions de représentation fidèle
d’une algèbre de Lie (son noyau ker d = {X|d(X) = 0} se réduit à l’élément nul de g), de
représentation réductible ou irréductible (existence ou non d’un sous-espace invariant), etc.
d
d(X) := D(g(t)) , (2.39)
dt t=0
Montrons que cette application est bien compatible avec les crochets de Lie, et que c’est donc
une représentation de l’algèbre de Lie. Pour cela nous répétons la discussion du chap. 1, §
3.4, pour faire apparaı̂tre le commutateur de façon naturelle. Soient g(t) = etX et h(u) = euY
deux sous-groupes à un paramètre, pour t et u infiniment petits et du même ordre. On a
etX euY e−tX e−uY = eZ avec Z = ut[X, Y ] + · · · , et donc
ed(Z) = D(eZ ) = D(etX euY e−tX e−uY ) = D(etX )D(euY )D(e−tX )D(e−uY )
= etd(X) eud(Y ) e−td(X) e−ud(Y )
= eut[d(X),d(Y )]+··· , (2.41)
d’où en identifiant les termes dominants, d([X, Y ]) = [d(X), d(Y )], ce qu’il fallait démontrer.
◦ Ce passage d’une représentation de G à une représentation de g s’applique en particulier
à une représentation de G qui joue un rôle spécial, la représentation adjointe de G dans son
algèbre de Lie g . Cette représentation est définie par l’action suivante
ce qu’on note Ad g X. (Il faut comprendre le membre de droite de (2.42) soit comme résultant
de la dérivation en t = 0 de g etX g −1 , soit, selon le point de vue généralement adopté dans
ces notes, au sens de la multiplication matricielle, les matrices g et X agissant dans le même
espace.)
La représentation adjointe de G donne lieu à une représentation de g dans l’espace g,
également appelée représentation adjointe. On l’obtient en prenant la forme infinitésimale de
(2.42), formellement g = I + tY , ou encore en considérant le sous-groupe à un paramètre
engendré par Y ∈ g, g(t) = exp tY et en calculant Ad g(t)X = g(t)Xg −1 (t) = X +t[Y, X]+O(t2 )
(cf. chap.1 (3.15)), et donc
d
Ad g(t)X = [Y, X] = ad Y X . (2.43)
dt t=0
ce qui prouve que l’homomorphisme des algèbres de Lie s’intègre en un homomorphisme des
groupes au voisinage de l’identité. On démontre enfin qu’un tel homomorphisme infiniment
différentiable et local (au voisinage de l’identité) d’un groupe simplement connexe G dans
un groupe G0 (ici, le groupe linéaire GL(E)) s’étend de façon unique en un homomorphisme
infiniment différentiable de tout G dans G0 . En résumé, il suffit donc pour trouver les représen-
tations (éventuellement unitaires) du groupe G de trouver les représentations par des opérateurs
(éventuellement antihermitiques) de son algèbre de Lie g.
C’est ce principe fondamental qui a déjà été illustré au Chap. 0 sur les deux cas concrets
de SU(2) et de SL(2, C).
Le membre de gauche de (2.44) est (à un facteur v(G) près) la dérivée par rapport à Mββ 0 de
Vαα0 . Les représentations étant unitaires, D† (g) = D(g −1 ), il est facile, en utilisant l’invariance
à gauche de la mesure dµ(g 0 ) = dµ(gg 0 ), de vérifier que V satisfait
0
V D(ρ ) (g) = D(ρ) (g)V (2.47)
pour tout g ∈ G. La matrice V est donc par le lemme de Schur nulle si les représentations ρ et
ρ0 sont différentes, et un multiple de l’identité si ρ = ρ0 .
a) Dans le premier cas, en choisissant une matrice M dont le seul élément non nul est Mββ 0 = 1
et en identifiant l’élément de matrice Vαα0 , on obtient la propriété d’orthogonalité (2.44).
b) Si ρ = ρ0 , choisissons d’abord M11 = 1, les autres Mββ 0 nuls. On a V = c1 I, où le coefficient
c1 est obtenu en prenant la trace : c1 nρ = v(G)D11 (I) = v(G), ce qui prouve que la dimension
nρ est finie.
c) En répétant l’argument avec une matrice M arbitraire, on a à nouveau V = cM I et on
calcule cM en prenant la trace : cM nρ = v(G)tr M , ce qui, par différentiation par rapport à
Mββ 0 , conduit à l’orthonormalité (2.44), cqfd.
La proposition (2.45) découle simplement de la précédente en prenant la trace sur α = β et
α = β 0.
0
– on vient de voir que toute représentation irréductible (et unitaire) d’un groupe compact
est de dimension finie ;
– la relation (2.45) implique que deux représentations D(ρ) et D(σ) sont équivalentes (en
fait identiques, compte tenu de notre convention d’indexation) ssi leurs caractères sont
égaux : χ(ρ) = χ(σ) .
de gauche, l’intégrale sur le groupe (le “volume du groupe” G) diverge. Au membre de droite, tr I, la dimension
de la représentation, est donc infinie.
De façon générale, on peut dire que
Toute représentation unitaire de carré intégrable d’un groupe non compact est de dimension
infinie.
Bien sûr, la représentation triviale g 7→ 1 (qui n’est pas L2 (G)) échappe à cet argument.
Testons à nouveau ces résultats sur les deux cas de U(1) et R. Pour la représentation unitaire
ikx
e de U(1), la relation (2.44) (ou (2.45), cela ne fait pas de différence pour ces représentations
de dimension 1) exprime que Z 2π
dx ikx −ik0 x
e e = δkk0 ,
0 2π
comme on sait bien. Par contre pour R elle conduirait à
Z ∞
0
dxeikx e−ik x = 2πδ(k − k 0 )
−∞
avec la fonction de Dirac. Bien sûr, cette expression n’a pas de sens pour k = k 0 , la représen-
tation n’est pas de carré intégrable.
Complétude
ρ
Revenons au cas d’un groupe compact. On peut démontrer que les matrices Dαβ (g) satisfont
aussi une propriété de complétude
X (ρ) (ρ)∗
nρ Dαβ (g)Dαβ (g 0 ) = v(G)δ(g, g 0 ) , (2.48)
ρ,α,β
ou encore si on préfère
X (ρ) (ρ)†
X
nρ Dαβ (g)Dβα (g 0 ) = nρ χ(ρ) (g.g 0−1 ) = v(G)δ(g, g 0 ) , (2.48)0
ρ,α,β ρ
où δ(g, g 0 ) est la distribution de Dirac adaptée à la mesure de Haar, c’est-à-dire telle que
dµ(g 0 )f (g 0 )δ(g, g 0 ) = f (g) pour toute fonction f sur G suffisamment régulière.
R
Cette propriété de complétude est importante : elle nous apprend que toute fonction sur le
groupe, continue ou de carré intégrable, à valeurs dans C, peut être développée sur les fonctions
(ρ)
Dαβ (g)
dµ(g 0 ) (ρ)† 0
Z X Z X
0 0 0 (ρ) (ρ) (ρ)
f (g) = dµ(g )δ(g, g )f (g ) = nρ Dαβ (g) Dβα (g )f (g 0 ) =: nρ Dαβ (g)fαβ .
ρ,α,β
v(G) ρ,α,β
(2.49)
C’est le théorème de Peter–Weyl, non trivial, que nous admettrons. Un corollaire dit alors que
les caractères χ(ρ) d’un groupe compact forment un système complet de fonctions de classe,
c’est-à-dire invariante par g ∼ hgh−1 . Autrement dit, toute fonction de classe continue peut se
décomposer sur les caractères irréductibles.
Donnons la démonstration de cette dernière assertion. Soit f une fonction de classe continue, f (g) =
f (hgh−1 ), appliquons lui le théorème de Peter-Weyl, et examinons l’intégrale apparaissant dans (2.49) :
dµ(g 0 ) dµ(g 0 )
Z Z
(ρ) (ρ)† (ρ)†
fαβ = f (g 0 )Dβα (g 0 ) = f (hg 0 h−1 )Dβα (hg 0 h−1 ) ∀h
v(G) v(G)
dµ(h) dµ(g 0 )
Z
(ρ)† (ρ)† (ρ)†
= f (g 0 )Dβγ (h)Dγδ (g 0 )Dδα (h−1 )
v(G) v(G)
dµ(g 0 )
Z
(ρ)† 1
= f (g 0 )Dγδ (g 0 ) δαβ δγδ par (2.44)
v(G) n ρ
Z 0
1 dµ(g )
= f (g 0 )χ(ρ)∗ (g 0 )δαβ (2.50)
nρ v(G)
d’où il découle que (2.49) se réduit bien à un développement sur les caractères, cqfd.
Testons à nouveau ces relations de complétude sur le cas U(1). Elles expriment dans ce cas
∞
0
X
eikx e−ikx = 2πδP (x − x0 ) (2.51)
k=−∞
où δP (x − x0 ) = ∞ 0
P
`=−∞ δ(x − x − 2π`) est la distribution de Dirac périodique (alias “peigne de
Dirac”). Et (2.49) signifie que toute fonction périodique de période 2π (et avec des conditions
adéquates de régularité) peut être représentée par sa série de Fourier
∞ Z π
X dx
f (x) = ikx
e fk fk = f (x)e−ikx . (2.52)
k=−∞ −π 2π
Pour le groupe non compact R, la relation de complétude (qui est encore vraie dans ce cas)
équivaut à la transformation de Fourier
Z ∞ Z ∞
dx
f (x) = dk f˜(k)eikx
f˜(k) = f (x)e−ikx . (2.53)
−∞ −∞ 2π
Le théorème de Peter–Weyl pour un groupe quelconque est donc une généralisation des
décompositions de Fourier.
Le groupe des rotations dans le plan SO(2) est isomorphe au groupe U (1). Noter que si on s’intéresse à
des représentations irréductibles réelles, la dimension n’est plus égale à 1 (sauf pour la représentation identité !)
mais à 2
!
cos kα − sin kα
(k)
D (α) = , k ∈ N∗ , χ(k) (α) = 2 cos kα (2.54)
sin kα cos kα
2.3.2 Conséquences
Pour un groupe compact,
(i) toute représentation étant complétement réductible, son caractère s’écrit
X
χ= mρ χ(ρ) (2.55)
ρ
Cas de SU(2)
C’est un bon exercice de comprendre comment les différentes propriétés discutées dans ce
paragraphe sont réalisées par les matrices de représentation de SU(2). Cela sera discuté en
détail en TD et dans l’Appendice E.
R P
théorèmes le volume v(G) par l’ordre |G| (=nombre d’éléments) de G, et dµ(g) par g∈G :
1 X (ρ) (ρ0 )∗ 1
Dαβ (g)Dα0 β 0 (g) = δρρ0 δαα0 δββ 0 (2.58)
|G| g∈G nρ
X nρ (ρ) (ρ)∗
Dαβ (g)Dαβ (g 0 ) = δg,g0 . (2.59)
ρ,α,β
|G|
Mais les représentations des groupes finis jouissent de propriétés supplémentaires. Montrons
ainsi que les dimensions des représentations irréductibles non équivalentes vérifient
X
n2ρ = |G| . (2.60)
ρ
Cela découle du fait que le système d’équations (2.58-2.59) peut être vu comme exprimant que
12
nρ (ρ)
Dαβ (g) de dimensions ρ n2ρ × |G| satisfait UU † = I, U † U = I, ce
P
la matrice Uρ,αβ ; g := |G|
qui n’est possible que si c’est une matrice carrée, cqfd.
Cela implique en particulier que le nombre r de représentations irréductibles inéquivalentes est
fini, et nous allons montrer que
Proposition. Le nombre r de représentations irréductibles est fini et égal au nombre m des
classes Ci dans le groupe.
(ρ)
Preuve : En notant χj la valeur du caractère χ(ρ) dans la classe Ci , on peut récrire les relations
d’orthogonalité et de complétude des caractères selon
m
1 X (ρ) (ρ0 )∗
|Ci |χi χi = δρρ0 (2.61a)
|G| i=1
r
|Ci | X (ρ) (ρ)∗
χ χ = δij . (2.61b)
|G| ρ=1 i j
+ 2"
!
3
A
" D
B
C
Vérifier que les relations (2.61) sont bien satisfaites. Expliquer aussi pourquoi le groupe T n’est autre que
le groupe A4 des permutations paires de 4 objets.
[Une autre propriété non triviale est que la dimension de toute irrep d’un groupe fini G divise l’ordre |G|.]
2.3.4 Récapitulation
Pour un groupe compact, toute représentation irréductible est de dimension finie et équivalente
à une représentation unitaire. Ses éléments de matrice et caractères satisfont des relations d’or-
thogonalité et de complétude. L’ensemble des représentations irréductibles est discret.
Pour un groupe fini, (cas qu’on n’a traité que très superficiellement dans ce cours), ces
mêmes propriétés d’orthogonalité et de complétude sont satisfaites. Mais on a des propriétés
supplémentaires, par exemple le nombre des représentations irréductibles inéquivalentes est fini,
et égal au nombre de classes du groupe.
Pour un groupe non compact, les représentations unitaires sont généralement de dimension
infinie. (Par contre il peut exister des représentations non unitaires de dimension finie, cf le
cas de SL(2,C) au Chap. 0). L’ensemble des représentations irréductibles est indexé par des
paramètres discrets et continus.
La fonction ζ(g1 , g2 ) de G × G dans R forme ce qu’on appelle une 2-cochaı̂ne. Elle est fermée (et on l’appelle
alors 2-cocycle) en raison de la propriété d’associativité :
(le vérifier). En général, pour une n-cochaı̂ne ϕ(g1 , · · · , gn ), on définit l’opérateur ∂ qui fait passer des n-
cochaı̂nes aux n + 1-cochaı̂nes :
n
X
(∂ϕ)(g1 , · · · , gn+1 ) = (−1)i+1 ϕ(g1 , g2 , · · · , (gi gi+1 ), · · · , gn+1 ) − ϕ(g2 , · · · , gn+1 ) + (−1)n ϕ(g1 , · · · , gn ) .
i=1
Pour une 1-cochaı̂ne α(g), ∂α(g1 , g2 ) = α(g1 .g2 ) − α(g1 ) − α(g2 ), et donc (2.63) s’exprime par ζ 0 = ζ − ∂α.
Vérifier que ∂ 2 = 0.
La question de savoir si la représentation U (g) est intrinsèquement projective ou peut être ramenée à une
représentation ordinaire par un changement de phase équivaut à savoir si le cocycle ζ est trivial, c’est-à-dire s’il
existe un α(g) tel que dans (2.63), ζ 0 = 0.
Autrement dit, le 2-cocycle ζ, qui est fermé (∂ζ = 0) par (2.64), est-il exact, c’est-à-dire de la forme ζ = ∂α ?
C’est un problème typique de cohomologie. La cohomologie des groupes de Lie est un vaste sujet qui a été très
étudié. . . mais dont nous ne dirons rien de plus dans ce cours.
On peut résumer une discussion un peu longue et complexe (esquissée plus bas au § 2.4.5) en
disant que pour un groupe semi-simple G, tel SO(n), l’origine de ces représentations projectives
est à chercher dans le caractère non simplement connexe de G. Dans ce cas, les représentations
unitaires de G,
e recouvrement universel de G, fournissent des représentations à une phase près
de G. Par exemple, on retrouve que les représentations projectives de SO(3) (à un signe près)
sont les représentations de SU(2). C’est le cas aussi du sous-groupe L↑+ du groupe de Lorentz
O(1,3), dont le recouvrement universel est SL(2,C).
Avant de poursuivre, il est légitime de se poser la question : pourquoi les représentations
projectives intéressent-elles les physiciens ? La raison est que les transformations d’un système
quantique y font appel, comme on va le voir.
Théorème de Wigner. Si une bijection entre les rayons et entre les opérateurs auto-
adjoints d’un espace de Hilbert H préserve les modules des produits scalaires
alors cette bijection est réalisée par un opérateur U (g), linéaire ou antilinéaire, unitaire sur H,
et unique à une phase près, c’est-à-dire
Rappelons d’abord ce qu’on entend par opérateur antilinéaire. Un tel opérateur satisfait
h g φ|gA|g ψ i = h U φ|U AU † |U ψ i
= h φ|U † U AU † U |ψ i#
= h φ|A|ψ i# (2.72)
x0 = U (T )xU † (T ) = x (2.73)
0 †
p = U (T )pU (T ) = −p . (2.74)
Les relations de commutation canoniques ne sont compatibles avec cette transformation que si U (T ) est anti-
linéaire
Autre argument : U (T ) commute avec les translations dans le temps dont le générateur est i fois l’hamiltonien :
U (T )iHU † (T ) = −iH (puisque t → −t). Si U était linéaire, on conclurait que U HU † = −H, ce qui est gênant
si on veut que Spec(H) ≥ 0 !
Les transformations d’un système quantique, c’est-à-dire les bijections du théorème de Wi-
gner, forment un groupe G : si g1 et g2 sont de telles bijections, leur composition g1 g2 en est
une aussi, ainsi que g1−1 . Les opérateurs U (g) qu’on va supposer linéaires dans la suite de ce
cours forment donc une représentation à une phase près (cf l’unicité à une phase près dans le
théorème), c’est-à-dire une représentation projective de G.
Jusqu’à ce point, nous avons mené la discussion des transformations d’un système quantique
sans rien supposer sur son éventuelle invariance sous ces transformations, c’est-à-dire sur la
façon dont elles affectent (ou non) sa dynamique. Ces transformations peuvent être envisagées
d’un point de vue actif : on considère en parallèle le système initial et le système transformé,
ou d’un point de vue passif : il s’agit du même système, examiné dans deux systèmes de
coordonnées, deux référentiels, différents, obtenus l’un à partir de l’autre par la transformation
considérée.
ou encore
[H, U (g)] = 0 . (2.76)
On définit donc une invariance (ou symétrie) d’un système quantique sous l’action d’un groupe
G comme l’existence d’une représentation projective unitaire (linéaire ou antilinéaire) de ce
groupe dans l’espace des états, qui commute avec l’hamiltonien.
• Cette situation implique l’existence de lois de conservation. En effet toute observable
fonction des U (g) commute avec H, donc est une quantité conservée
∂F(U (g))
i~ = [F(U (g)), H] = 0 (2.77)
∂t
et chacune de ses valeurs propres est un “bon nombre quantique” : si le système appartient à
un sous-espace propre de F au temps t, il y demeure lors de son évolution dans le temps. Si G
est un groupe de Lie, pour g une transformation infinitésimale et si T désignent les générateurs
infinitésimaux dans la représentation considérée,
U (g) = I − i δαj Tj
(où on choisit les T auto-adjoints pour avoir U unitaire), les Tj sont des observables commutant
avec H, donc des quantités conservées, mais en général, pas simultanément mesurables.
Exemples.
Groupe des translations −→ Pµ énergie-impulsion ; groupe des rotations −→ Mµν moment
cinétique.
Noter encore que ces opérateurs Ti qui réalisent dans la théorie quantique les opérations in-
finitésimales du groupe G, forment d’un point de vue mathématique une représentation de
l’algèbre de Lie g. On peut donc affirmer qu’ils satisfont les relations de commutation
(avec un “i” parce qu’on a fait un choix d’opérateurs hermitiens). Le nombre maximal de
ces opérateurs qu’on peut diagonaliser simultanément, donc de ces quantités conservées qu’on
pourra fixer, dépend de la structure de g et de ces relations de commutation.
• Mais l’hypothèse d’invariance faite plus haute a une autre conséquence, d’application
fréquente et importante. Si l’espace des états H qui “porte une représentation” du groupe G
est décomposé en représentations irréductibles, dans chaque espace E (ρ) , supposé de multiplicité
1, l’hamiltonien est multiple de l’identité en vertu du lemme de Schur. On a donc dans ce cas une
information complète sur la nature du spectre : espaces propres E (ρ) et multiplicités des valeurs
propres Eρ de H égales à dim E (ρ) 7 . Si certains espaces de représentation E (ρ) apparaissent avec
une multiplicité mρ supérieure à 1, il faut encore diagonaliser H dans la somme de ces espaces
⊕i E (ρ,i) , ce qui est tout de même plus simple que le problème de diagonalisation dans l’espace
H de départ. On verra plus bas que le théorème de Wigner-Eckart permet de réduire encore la
complexité de ce dernier calcul. La théorie des groupes nous a donc considérablement simplifié
la tâche . . . mais elle ne nous fournit pas les valeurs des énergies propres Eρ .
Dans ce qui précède, nous avons considéré le point de vue hamiltonien. Comme on le sait, on peut mener une
discussion parallèle dans le formalisme quantique – classique ou quantique –. Là, les invariances du lagrangien (ou
de l’action) se traduisent par l’existence de courants de Noether de divergence nulle et de quantités conservées.
7. Il peut arriver que la multiplicité d’une valeur propre de H soit plus élevée, soit à cause de l’existence d’un
groupe de symétrie plus grand que G, soit parce que certaines représentations viennent en paires complexes
conjuguées, soit pour une autre raison.
l’effet des rotations. Utilisant les notations de la sect. 2, supposons que les Aα se transforment
par la représentation irréductible D(ρ) et appliquons les sur des états |σβ i se transformant selon
la représentation irréductible D(σ) . L’état résultant se transforme selon
(ρ) (σ)
U (g)Aα |σβ i = U (g)Aα U (g)† U (g)|σβ i = Dα0 α (g)Dβ 0 β (g)Aα0 |σβ 0 i (2.80)
c’est-à-dire selon le produit tensoriel des représentations D(ρ) et D(σ) . Comme on l’a fait en
(2.37), on peut développer sur des représentations irréductibles
(ρ) (σ)
X (τ )
Dα0 α (g)Dβ 0 β (g) = h τi γ|ρ, α; σ, β ih τi γ 0 |ρ, α0 ; σ, β 0 i∗ Dγ 0 iγ (g) . (2.81)
τ,γ,γ 0 ,i
Supposons maintenant que le groupe G est compact (ou fini). Les matrices des représentations
satisfont les propositions d’orthogonalité (2.44). On peut alors écrire
Notons
1 X
h τ k A k σ ii := h τi γ 0 |ρ, α0 ; σ, β 0 i∗ h τi γ 0 |Aα0 |σβ 0 i . (2.83)
nτ α0 ,β 0 ,γ 0
[ta , tb ] = Cabc tc .
(ce qui prouve que zab doit être antisymétrique en a, b). On trouve donc que les relations de commutation des
T sont modifiées par un terme central (c’est-à-dire commutant avec tous les autres générateurs)
L’existence de représentation projective peut donc se traduire par la réalisation d’une extension centrale de
l’algèbre de Lie. On appelle ainsi la nouvelle algèbre de Lie engendrée par les Ta et par un (ou plusieurs)
nouveau(x) générateur(s) Cab commutant avec tous les Ta (et entre eux)
(Dans une représentation irréductible de l’algèbre, le lemme de Schur nous assure que Cab = cab I.) La trivia-
lité (ou non-trivialité) du cocycle ζ se traduit sous forme infinitésimale par la possibilité (ou l’impossibilité)
d’éliminer le terme central par une redéfinition des T
en exploitant les contraintes sur les Cabc et Cab provenant de l’identité de Jacobi.
Exercice. Écrire la contrainte supplémentaire que l’identité de Jacobi met sur les constantes Cabc et Cab .
Montrer que Cab = Cabc Dc en fournit une solution et qu’une redéfinition telle (2.88) est alors possible.
On démontre (Bargmann) que pour un groupe de Lie connexe G, les cocycles sont triviaux si
1. il n’existe pas d’extension centrale non triviale de g ;
2. G est simplement connexe.
En ce qui concerne le point 1, un théorème de Bargmann nous assure qu’il n’existe pas d’extension centrale
non triviale pour tout algèbre semi-simple, comme celles des groupes classiques SU(n), SO(n), Sp(2n). C’est
donc plutôt le point 2 qui nous intéresse. [par contre, Galilée ?]
Si le groupe G n’est pas simplement connexe, on étudie les représentations (disons unitaires) de son recou-
vrement universel G,e qui sont des représentations à une phase près de G (le groupe π1 (G) = G/G
e est représenté
sur U (1)). C’est le cas des groupes SO(n) et de leur recouvrement universel Spin(n), (par exemple du groupe
SO(3)), ou du groupe de Lorentz O(1,3), comme rappelé plus haut.
avec une somme finie sur des vecteurs x(α) ∈ E, y (α) ∈ F (on a absorbé dans le vecteur x(α) un
éventuel coefficient scalaire λα dans la combinaison linéaire).
A ⊗ B(x ⊗ y) = Ax ⊗ By (D.2)
X X
A⊗B (x(α) ⊗ y (α) ) = Ax(α) ⊗ By (α) (D.3)
α α
et les composantes de z sont indexées par des paires d’indices (i, j), et A ⊗ B est décrit dans
cette base par une matrice qu’on lit sur
0 0 0 0
X
(A ⊗ B)z = Aii0 Bjj 0 xi y j ei fj =: (A ⊗ B)ii0 ;jj 0 z i j ei ⊗ fj (D.4)
i,i0 ,j,j 0
soit
(A ⊗ B)ij;i0 j 0 = Aii0 Bjj 0 , (D.5)
formule qui est parfois prise comme définition du produit tensoriel de deux matrices.
en accord avec (D.2). La matrice de D ⊗ D0 dans une base ei ⊗ fj est Dii0 Djj 0
0.
autre formule parfois prise comme définition d’un tenseur (sous l’action de G).
La construction que l’on vient de faire des tenseurs z ij de rang 2 peut s’itérer pour construire
des produits tensoriels E1 ⊗ E2 ⊗ · · · Ep et des tenseurs z i1 ···ip de rang p. C’est ce que nous
avons fait au Chap. 0, § 0.3.3, dans la construction des représentations de SU(2) par produits
tensoriels symétrisés de la représentation de spin 12 , ou au § 6.3 pour celles de SL(2,C) par
produits tensoriels symétrisés des deux représentations à indices pointés (0, 21 ) ou non pointés
( 21 , 0).
La fonction δ(U, U 0 ) qui apparaı̂t dans le second membre de (E.1) est celle adaptée à la mesure
dµ(U ), telle que dµ(U 0 )δ(U, U 0 )f (U 0 ) = f (U ) ; dans les angles d’Euler α, β, γ par exemple,
R
(voir Appendice C du Chap. 1). La signification de la seconde équation (E.1) est que les fonctions
j
Dmn (U ) forment une base complète sur l’espace des fonctions (continues ou de carré intégrable)
sur le groupe SU(2). C’est le théorème de Peter-Weyl, qui généralise donc le théorème de Fourier.
Les caractères des représentations de SU(2) se déduisent des expressions précédentes
j
X
j
χj (U ) = χj (ψ) = tr D (n, ψ) = eimψ
m=−j
sin 2j+1
2
ψ
= . (E.3)
sin ψ2
Noter que ces expressions sont des polynômes (dits de Tchebichev de 2ème espèce, Chebyshev
dans la transcription anglo-saxonne) de la variable 2 cos ψ2 (voir l’exercice D en fin de chapitre).
En particulier
ψ
χ0 (ψ) = 1 χ 1 (ψ) = 2 cos χ1 (ψ) = 1 + 2 cos ψ etc . (E.4)
2 2
On est alors en mesure de vérifier toutes les propriétés attendues
La dernière exprime que les caractères forment une base complète des fonctions de classe, c’est-
à-dire des fonctions paires périodiques de 12 ψ. On retrouve là une variante du développement
de Fourier.
Les formules de multiplicité (2.57) conduisent-elle bien aux formules connues (2.28) ?
faire apparaı̂tre leur relation avec des “fonctions spéciales” de la Physique Mathématique.
On a déjà noté que la discussion des matrices D de Wigner au Chap. 0 § 0.3.3 s’applique !
a b
non seulement aux matrices de SU(2) mais aussi à des matrices quelconques A = du
c d
groupe linéaire GL(2,C). L’équation (0.70) du Chap. 0 est donc toujours vraie dans ce cas
X j
Pjm (ξ 0 , η 0 ) = Pjm0 (ξ, η)Dm 0 m (A) . (0.70)
m0
L’opérateur différentiel constitué des deux premiers termes est le laplacien ∆S 2 sur la sphère
unité S 2 . L’équation (E.11) définit donc les harmoniques sphériques Ylm (θ, φ) comme vecteurs
propres du laplacien ∆S 2 . La normalisation correcte est que
21
2l + 1 l
Dm0 (φ, θ, 0) = Ylm∗ (θ, φ) . (E.12)
4π
• Introduisons encore les polynômes et fonctions de Legendre Pl (u) et Plm (u) définies pour l
entier et u ∈ [−1, 1] par
1 dl 2
Pl (u) = l l
(u − 1)l (E.13)
2 l! du
1 dm
Pl (u) = (1 − u2 ) 2 m m Pl (u)
m
pour 0 ≤ m ≤ l . (E.14)
du
Les polynômes de Legendre Pl (u) sont des polynômes orthogonaux sur l’intervalle [−1, 1] avec
R1 2
le poids 1 : −1 duPl (u)Pl0 (u) = 2l+1 δll0 . Les premiers Pl sont
1 1
P0 = 1 P1 = u P2 = (3u2 − 1) P3 = (5u3 − 3u) , · · · (E.15)
2 2
1
tandis que Pl0 = Pl , Pl1 = (1−u2 ) 2 Pl0 , etc. Les harmoniques sphériques sont reliées aux fonctions
de Legendre Plm (cos θ) (pour m ≥ 0) par
12
(2l + 1) (l − m)
Ylm (θ, φ) = (−1)m Plm (cos θ)eimφ (E.16)
4π (l + m)
donc
21 12
l (l − m) 4π
Dm0 (0, θ, 0) = dlm0 (θ) = (−1) m
Plm (cos θ) = Ylm∗ (θ, 0) . (E.17)
(l + m) 2l + 1
En particulier, dl00 (θ) = Pl (cos θ). En général, dlm0 m (θ) est relié au polynôme de Jacobi
(α,β) (−1)l −α −β d
l
α+l β+l
Pl (u) = (1 − u) (1 + u) (1 − u) (1 + u) (E.18)
2l l! dul
par
21 m+m0 m−m0
(j + m0 )!(j − m0 )!
θ θ (m0 −m,m0 +m)
djm0 m (θ) = cos sin Pj−m0 (cos θ) . (E.19)
(j + m)!(j − m)! 2 2
Polynômes de Jacobi et de Legendre relèvent de la théorie générale des polynômes orthogonaux dont on
montre qu’ils satisfont des relations de récurrence linéaires à trois termes. Ils satisfont en outre des équations
différentielles. C’est ainsi que les polynômes de Jacobi sont orthogonaux pour la mesure
Z 1
(α,β) (α,β) 2α+β+1 Γ(l + α + 1)Γ(l + β + 1)
du(1 − u)α (1 + u)β Pj (u)Pj 0 (u) = δjj 0 (E.20)
−1 (2l + α + β + 1)l!Γ(l + α + β + 1)
(α,β)
Le polynôme de Jacobi Pl (u) est solution de l’équation différentielle
d2 d (α,β)
{(1 − u2 ) + [β − α − (2 + α + β)u] + l(l + α + β + 1)}Pl (u) = 0 . (E.22)
du2 du
Les polynômes de Legendre correspondent au cas α = β = 0. Ces relations apparaissent ici comme reliées à
celles des Dj . Cela est un phénomène général : de nombreuses fonctions spéciales (Bessel, etc) sont reliées à des
matrices de représentations de groupes. La théorie des groupes permet donc de mettre dans une perspective
géométrique des résultats de l’analyse classique.
(ii) Elles sont normalisées à 1 sur la sphère unité et plus généralement y satisfont des propriétés
d’orthogonalité et de complétude
Z Z 2π Z π
m∗ m0 0
dΩ Yl Yl0 = dφ dθ sin θ Ylm∗ Ylm
0 = δll0 δmm0 (E.26)
0 0
∞ l
X X δ(θ − θ0 )δ(φ − φ0 )
Ylm∗ (θ, φ)Ylm (θ0 , φ0 ) = δ(Ω − Ω0 ) =
l=0 m=−l
sin θ
= δ(cos θ − cos θ0 )δ(φ − φ0 ) (E.27)
(iii) On peut considérer Ylm (θ, φ) comme fonction du vecteur unitaire n d’angles directeurs θ, φ.
Si le vecteur n est transformé en n0 par la rotation R, on a
0
Ylm (n0 ) = Ylm (n)Dl (R)m0 m (E.28)
ce qui exprime que les Ylm se transforment comme des vecteurs de la représentation de spin l.
(iv) On vérifie sur l’expression ci-dessus les relations de symétrie en m
et de parité
Ylm (π − θ, φ + π) = (−1)l Ylm (θ, φ) . (E.30)
Noter qu’à θ = 0, Ylm (0, φ) s’annule sauf pour m = 0, cf. (E.13, E.16).
(v) Les harmoniques sphériques satisfont aussi des relations de récurrence de deux types : celles
issues de l’action de J± , opérateurs différentiels qui agissent selon (0.116)
±iφ ∂ ∂ p
e ± + icotg θ Ylm = l(l + 1) − m(m ± 1)Ylm±1 (E.31)
∂θ ∂φ
l
2l + 1 X
Pl (cos θ) = Ylm (n)Ylm∗ (n0 ) (E.34)
4π m=−l
où θ désigne l’angle entre les directions n et n0 . Cette formule peut se vérifier en démontrant
que le membre de droite satisfait bien les équations différentielles satisfaites par Pl (exercice 1
ci-dessous).
Exercices.
1. Démontrer que le polynôme de Legendre Pl vérifie
comme fonction de n ou de n0 , ainsi que (J + J0 ) Pl = 0 où J et J0 sont les générateurs des rotations de n et
n0 respectivement. En déduire qu’il a un développement sur les harmoniques sphériques donné par le théorème
d’addition de (E.34) (On rappelle que Pl (1) = 1).
2. Montrer qu’une fonction génératrice des polynômes de Legendre est
∞
1 X
√ = tl Pl (u) . (E.35)
1 − 2ut + t2 l=0
On pourra vérifier que l’équation différentielle des Pl (cas particulier de (E.22) pour α = β = 0) est bien
satisfaite et que les coefficients Pl apparaissant dans cette formule sont bien des polynômes en u. En déduire
l’identité (on suppose r0 < r),
∞ X r0l X 4π r0l
1
= P l (cos θ) = Y m∗ (n)Ylm (n0 ) . (E.36)
|~r − ~r0 | rl+1 2l + 1 rl+1 l
l=0 l,m
1
Y00 = √
4π
r r
3 ±1 3
= Y10
cos θ Y1 = ∓ sin θ e±iφ (E.37)
4π 8π
r r r
5 ±1 15 ±iφ ±2 15
0 3
sin2 θ e±2iφ .
Y2 = 3 cos θ − 1 Y2 = ∓ cos θ sin θ e Y2 =
16π 8π 32π
d3 r0 ρ(~r0 )
Z
1
φ(~r) =
4π0 |~r − ~r0 |
1 X 1 Ylm∗ (n)
φ(~r) = Qlm (E.38)
0 l,m 2l + 1 rl+1
sont les moments multipolaires de la distribution de charge ρ. Par exemple, si ρ(~r) = ρ(r) est
√
invariant par rotation, seul Q00 est non nul, égal à la charge totale (à 1/ 4π près)
Q √ Z 2 Q
Q00 = √ = 4π r drρ(r) φ(r) = .
4π 4π0 r
Pour un ρ(~r) quelconque, les trois composantes de Q1m reconstruisent le moment dipolaire
R 3 0 0 0
d r ρ(~r )~r . Plus généralement, sous l’effet des rotations, les Qlm forment les composantes
d’un opérateur tensoriel se transformant selon la représentation de spin l (et cf. (E.30), de
parité (−1)l ).
En Mécanique Quantique, les Qlm deviennent des opérateurs. On peut leur appliquer le
théorème de Wigner-Eckart et en conclure que
en analogie avec
1
ei~x.~p = h ~x|~p i .
(2π)3/2
(On a pris ~ = 1.) En particulier, supposons que dans un processus de collision décrit par un
Hamiltonien invariant par rotation, un état d’impulsion initiale p~i selon l’axe des z, (c’est-à-dire
θ = φ = 0), interagit avec un certain centre diffuseur et ressort dans un état d’impulsion p~f ,
avec |pi | = |pf | = p, selon la direction n = (θ, φ). On écrit l’amplitude
0
X
h p, θ, φ|T |p, 0, 0 i = Ylm (θ, φ)h p, l, m|T |p, l0 , m0 iYlm
0
∗
(0, 0)
ll0 mm0
X
= Ylm (θ, φ)h p, l, m|T |p, l, m iYlm∗ (0, 0) (E.40)
lm
X 2l + 1
= Tl (p)Pl (cos θ)
l
4π
selon à nouveau la formule d’addition et h plm|T |pl0 m0 i = δll0 δmm0 Tl (p) exprimant l’invariance
par rotation. C’est le développement en ondes partielles de l’amplitude de diffusion, très utile
dans l’analyse des résultats expérimentaux et dans la modélisation.
2 1
Z
1
dz (1 − z 2 ) 2 Ul (z)Ul0 (z)
π −1
et Z 1
2 1
dz (1 − z 2 ) 2 Ul (z)Ul0 (z)Ul00 (z) ?
π −1
Les Ul (z) sont les polynômes de Tchebichev (Chebyshev dans la transcription anglo-saxonne) de 2ème espèce.
Ils sont orthogonaux (la première des relations de la question 4) et satisfont une relation de récurrence à trois
termes (question 1), qui sont deux propriétés générales des polynômes orthogonaux.
E. Harmoniques sphériques
est proportionnelle au coefficient de Clebsch-Gordan (−1)m3 h l1 , m1 ; l2 , m2 |l3 , −m3 i, avec un coefficient indépendant
des m qu’on déterminera.
Pour simplifier l’écriture, on supposera que toutes les représentations apparaissant dans le produit tensoriel des
représentations (ρ) et (σ) sont réelles et sans multiplicité. Soit |τ γ i une base d’une telle représentation. On
introduit alors les coefficients de Clebsch-Gordan (réels) qu’on écrit comme des matrices
M(τ γ) = h τ γ|ρα; σβ i . (2.90)
αβ
1. Rappeler pourquoi ces coefficients satisfont des propriétés d’orthogonalité et de complétude qu’on écrira.
2. En déduire qu’on peut écrire
X
Xαβ;α0 β 0 = − M(τ γ) T (ρ)a M(τ γ) T (σ)a . (2.91)
αβ α0 β 0
τγ
4. En utilisant de façon répétée cette relation (2.94) dans (2.91), montrer qu’on a
1X
Xαβ;α0 β 0 = (Cρ + Cσ − Cτ ) M(τ γ) M(τ γ) 0 0 (2.95)
2 τγ αβ αβ
5. Pourquoi peut-on dire que les “grandes représentations” τ tendent à rendre le coefficient (Cρ + Cσ − Cτ )
de plus en plus négatif ? On pourra prendre l’exemple de SU(2) avec ρ et σ deux représentations de spin
(entier) égal à j.
6. Pouvez-vous imaginer une théorie de champs dans laquelle le coefficient Xαβ;α0 β 0 apparaı̂trait dans une
amplitude de diffusion à deux corps (à l’approximation en arbres) ? Quelle conséquence la propriété
discutée aurait-elle sur cette amplitude ?
#
"
S
!
D = SD−1 T S −1 (2.97)
[Transposant (1) on a DT = S −1T D−1 S T qu’on reporte dans (2.97) : D = SS −1T DS T S −1 , qui donne
(2.98)). ]
8. Montrer alors que si D est irréductible, S = λS T , avec λ2 = 1. [SS −1T entrelace D avec elle-même, donc,
lemme de Schur, SS −1T = λI, S = λS T , λ2 = 1.]
9. En conclure que la forme invariante S est soit symétrique soit antisymétrique. [Si λ = 1, resp. = −1, la
forme S est symétrique, resp. antisymétrique. ]
Dans le premier cas (symétrique), la représentation est dite réelle, dans le second (S antisymétrique), elle
est dite pseudoréelle (ou quaternionique). On peut montrer que dans le premier cas, il existe une base
sur R dans laquelle les matrices de la représentation sont réelles, et qu’il n’en existe pas dans le second.
1
10. Connaissez-vous un exemple du second cas ? [La représentation de spin 2 de SU(2) est “pseudoréelle”. ]
B. Indicatrice de Frobenius–Schur
1. Soit G un groupe fini ou un groupe de Lie compact. On repère ses représentations irréductibles par un
indice ρ et on note χ(ρ) (g) leur caractère. Soit χ(g) le caractère d’une représentation arbitraire, réductible
ou non.
1 X
hF i = F (g) . (2.99)
|G|
g∈G
Par quoi faut-il remplacer cette définition dans le cas d’un groupe de Lie compact (et d’une fonction
1
P
F continue) ? [Il faut substituter à |G| g∈G l’intégration sur le groupe avec la mesure de Haar
normalisée dµ(g)/v(G). ]
Que vaut cette expression si ρ n’est pas équivalente à ρ̄ ? [La même relation d’orthogonalité de
caractères irréductibles dit que χ(ρ) χ(σ̄) = δρσ , donc l’expression ci-dessus vaut 1 ssi ρ ∼ ρ̄, et 0
sinon. ]
2. On considère la représentation D(ρ) agissant dans un espace E, et son carré tensoriel D(ρ) ⊗2 , qui agit
sur les tenseurs de rang 2 de E ⊗ E.
(a) Écrire explicitement l’action de D(ρ) ⊗2 sur un tenseur t = {tij },
tij 7→ t0ij = · · ·
(ρ)i (ρ)j i0 j 0
[tij 7→ t0ij = D i0 D j0 t .]
(b) Montrer que tout tenseur de rang 2, t = {tij }, est la somme d’un tenseur tS symétrique et
d’un tenseur tA antisymétrique dans leurs deux indices, se transformant selon des représenta-
tions indépendantes. Écrire explicitement les matrices de transformation de tS et tA en veillant
bien aux propriétés de symétrie des objets considérés. [Les tenseurs de rang 2 symétriques, resp.
antisymétriques, se transforment selon
1 (ρ)i 0 0
tijS 7→ t0ij
(ρ)j (ρ)i (ρ)j
S = D i0 (g)D j 0 (g) ± D i0 (g)D j 0 (g) tiSj
A A 2 A
]
(c) Montrer que les caractères des représentations des tenseurs symétriques et antisymétriques sont
respectivement
(ρ⊗ρ) S 1 (ρ)
χ A (g) = (χ (g))2 ± χ(ρ) (g 2 ) . (2.100)
2
[Cela s’obtient en prenant la trace des matrices de la question précédente.]
(d) Que valent ces caractères pour g = e, l’identité dans le groupe ? Ces résultats étaient-ils prévisibles ?
(ρ⊗ρ) S
[Pour g = e, on a χ A (e) = dim D S = 12 d(d ± 1), dimensions des espaces de tenseurs
A
symétriques, resp. antisymétriques de rang 2, dans un espace de dimension d, cf Question préliminaire.
]
prend la valeur 0 ou 1, selon des cas que l’on précisera [C’est égal à 1 ou 0, selon que ρ ∼ ρ̄ ou non,
cf question 1.c).]
(c) - Montrer que h χ(ρ⊗ρ)S i et h χ(ρ⊗ρ)A i sont des entiers non négatifs, et qu’ils fournissent une mul-
tiplicité que l’on précisera. [h χ(ρ⊗ρ)S i et h χ(ρ⊗ρ)A i sont des entiers (cf question 1.b)), qui donnent
la multiplicité de la représentation identité (c’est-à-dire le nombre d’invariants) dans (ρ ⊗ ρ)S , resp.
(ρ ⊗ ρ)A . ]
- Montrer que finalement l’indicatrice de Frobenius–Schur (2.101) ne peut prendre que les trois
valeurs 0 et ±1 selon des cas que l’on précisera. [Si ρ ∼ ρ̄, leur somme est 1, leur différence est donc
ou bien 1 ou bien −1 ; si ρ ∼/ ρ̄, leur somme est 0, donc leur différence est nulle. On a donc trois
cas
1
si ρ ∼ ρ̄ et h χ(ρ⊗ρ)S i = 1
ind[ρ] = 0 si ρ ∼
/ ρ̄
−1 si ρ ∼ ρ̄ et h χ(ρ⊗ρ)A i = 1
]
(d) Commentez la relation entre cette discussion et celle de l’exercice A.
[Dans le premier cas, où h χ(ρ⊗ρ)S i = 1, qui signale l’existence d’un tenseur (ou forme) invariant(e)
bilinéaire symétrique dans V (ρ) ⊗ V (ρ) , la représentation est réelle, selon la terminologie du A ;
dans le dernier cas, où la forme est antisymétrique, la représentation est quaternionique. Enfin, la
représentation est complexe si elle n’est pas équivalente à sa conjuguée. ]
(ρ)
P
4. ? On se restreint au cas d’un groupe fini. Pour tout h ∈ G, on définit Q(h) := ρ ind(ρ)χ (h).
Démontrer le
Théorème. Q(h) = #{g ∈ G|g 2 = h}
[Proof . Q(h) = h ρ χ(ρ) (g 2 )χ(ρ) (h) (since only representations ρ ∼ ρ̄ contribute, we may drop the com-
P
|G| 1
P
plex conjugation of the second character). The sum over ρ gives |[h]| δ[g2 ],[h] . Thus Q(h) = |[h]| g∈G δ[g 2 ],[h] .
But each element in [h] has the same number of “square roots” : h = g ⇔ h = γhγ = (γgγ −1 )2 = g 02
2 0 −1
and g1 6= g2 ⇔ g10 6= g20 . Hence Q(h) = 1/|[h]|#{solutions of [g 2 ] = [h]} = #{solutions of g 2 = h}, qed. ]
Il sera important de considérer l’algèbre sur C, c’est-à-dire d’utiliser C comme corps de nombres
(au prix de la complexifier si elle était réelle). La représentation adjointe va être utilisée. Comme
elle est fidèle pour une algèbre semi-simple (ad X = 0 ⇒ X = 0), cf exercice B du Chap. 2, on
ne perd pas d’information.
Il peut être utile de se rappeler que l’algèbre complexe a une version réelle compacte dans
laquelle les constantes de structure réelles conduisent à une forme de Killing définie négative,
et, les représentations y étant unitarisables, les éléments de l’algèbre de Lie (générateurs in-
finitésimaux) peuvent être considérés comme hermitiens soit comme antihermitiens, selon nos
besoins.
Cette algèbre de Cartan n’est pas unique, mais on démontre que deux choix distincts sont
reliés par un automorphisme de l’algèbre.
Ainsi si g est l’algèbre de Lie d’un groupe de Lie G et si h est une sous-algèbre de Cartan de g, tout conjugué
−1
ghg de h par un élément quelconque g de G est aussi une sous-algèbre de Cartan.
Soit h une telle sous-algèbre de Cartan. Soit ` sa dimension, elle est indépendante du choix
de h et on l’appelle le rang de l’algèbre g. Pour su(2), ce rang est 1, (le choix de Jz par exemple) ;
pour su(n), le rang est n − 1. En effet, pour su(n), une algèbre de Cartan est engendrée 1 par
les matrices diagonales de trace nulle. Une base en est donnée par les n − 1 matrices
H1 = diag (1, −1, 0, · · · , 0), H2 = diag (0, 1, −1, 0, · · · , 0), · · · , Hn−1 = diag (0, · · · , 0, 1, −1) .
(3.2)
Une matrice quelconque de l’algèbre de Lie (dans cette représentation), (anti-)hermitienne et
de trace nulle, est diagonalisable par une transformation unitaire ; sa forme diagonale est de
trace nulle et s’exprime donc comme combinaison linéaire des hj ; la matrice de départ est donc
conjuguée, par une transformation unitaire, d’une combinaison linéaire des hj . Cette propriété
est générale, et on démontre (Cartan, cf [Bu], chapitre 16) que
Si g est l’algèbre de Lie du groupe G, tout élément de g est conjugué par G d’un élément de h.
adjointe,
[ad Hi , ad Hj ] = 0 . (3.3)
On peut diagonaliser simultanément ces ad Hi . On
[[ad Hi , ad Hj ] = 0 = ad [Hi , Hj ] ⇔ [Hi , Hj ] = 0]
en connaı̂t déjà des vecteurs propres de valeur propre nulle puisque ∀i, j, ad Hi Hj = 0, et on
peut trouver un ensemble de vecteurs propres Eα indépendants des Hj
ad Hi Eα = α(i) Eα (3.4)
avec des α(i) pas tous nuls (sans quoi la sous-algèbre abélienne h ne serait pas maximale).
L’espace h∗ . Dans ces expressions, les α(i) sont les valeurs propres des opérateurs ad Hi .
Puisqu’on a choisi les ad Hi hermitiens, leurs valeurs propres α(i) sont réelles. Par combinaison
linéaire, pour un élément arbitraire de h écrit H = i hi Hi ,
P
[Réalité de α. En outre, les matrices Hi (toujours dans la représentation adjointe) ont pour éléments de
matrice ad (Hi )ab = iCiab , qui sont antisymétriques imaginaires pures. Leurs valeurs propres non nulles viennent
donc en paires de nombres réels et opposés
]
Les racines jouissent des propriétés suivantes
– (i) si α est une racine, −α en est une autre ;
– (ii) l’espace propre correspondant à la valeur propre α est de dimension 1 (pas de multi-
plicité) ;
– (iii) si α est une racine, les seules racines de la forme λα sont ±α ;
– (iv) les racines α engendrent tout l’espace dual h∗ . (voir exercice).
Pour une preuve des points (i–iii), voir plus bas, pour (iv), voir Exercice A.
Nombre de racines. Les matrices Hj ayant été supposées diagonalisables, le nombre de leurs
vecteurs propres Eα plus celui de leurs vecteurs propres Hi de valeur propre nulle doit être égal
à la dimension de l’espace, ici la dimension d de la représentation adjointe (donc la dimension
de l’algèbre g). Comme toute racine non nulle vient accompagnée de son opposée, le nombre
de racines α non nulles est pair et égal à d − `. On note ∆ l’ensemble des racines.
Dans la base {Hi , Eα } de g, la forme de Killing prend une forme simple
En effet (H, [H 0 , Eα ]) = α(H 0 )(H, Eα ), mais aussi, en utilisant la définition de la forme de Killing et la cyclicité
de la trace
(H, [H 0 , Eα ]) = tr (ad H[ad H 0 , ad Eα ]) = tr ([ad H, ad H 0 ] ad Eα ) = 0 (3.8)
puisque [ad H, ad H 0 ] = 0. Il en découle que ∀H, H 0 ∈ h, α(H 0 )(H, Eα ) = 0, donc que (H, Eα ) = 0. De même
et α(i) = α(Hi ) = (Hα , Hi ). (Autrement dit on résout le système linéaire gij hjα = α(i) qui est de
Cramer puisque gij = (Hi , Hj ) est inversible.) On a aussi une forme bilinéaire sur h∗ héritée de
la forme de Killing
h α, β i := (Hα , Hβ ) , (3.11)
dont nous allons faire usage au § 2 pour étudier la géométrie du système de racines.
Il reste à découvrir les relations de commutation (les crochets) des Eα entre eux. En utilisant
l’identité de Jacobi, on trouve que
ad Hi [Eα , Eβ ] = [Hi , [Eα , Eβ ]] = [Eα , [Hi , Eβ ] − [Eβ , [Hi , Eα ]] = (α + β)(i) [Eα , Eβ ] . (3.12)
En invoquant l’absence de multiplicité, on voit que trois cas se présentent. Si α + β est une
racine, [Eα , Eβ ] est proportionnel à Eα+β , avec un coefficient de proportionnalité Nαβ dont on
montrera plus bas (§ 2.1 et exercice C) qu’il est non nul. Si α + β 6= 0 n’est pas une racine,
[Eα , Eβ ] doit s’annuler. Enfin si α + β = 0 , [Eα , E−α ] est un vecteur propre de tous les ad Hi de
valeur propre nulle, donc [Eα , E−α ] = H ∈ h. Pour déterminer cet H, procédons comme dans
(3.9)
donc
[Eα , E−α ] = (Eα , E−α )Hα . (3.14)
[Hi , Hj ] = 0
[Hi , Eα ] =
α(i) Eα
Jusqu’à ce point, nous n’avons pas fixé la normalisation des Hi et des Eα . Il est usuel de
choisir, en accord avec (3.7)
(Hi , Hj ) = δij (Eα , Eβ ) = δα+β,0 . (3.15)
(En effet la restriction de la forme de Killing à h, après la multiplication par i à laquelle on a
procédé pour rendre les ad Hi hermitiens, est définie positive.) Avec cette normalisation, Hα
défini plus haut par (3.10) satisfait aussi
Hα = α.H := α(i) Hi . (3.16)
Noter que Eα , E−α et Hα forment une sous-algèbre su(2)
[Hα , E±α ] = ± h α, α i E±α [Eα , E−α ] = Hα . (3.17)
(C’est en fait Hα /h α, α i que nous identifions à Jz , et cette normalisation va être utilisée plus
bas.) Toute algèbre semi-simple contient donc une algèbre isomorphe à su(2) associée à chacune
de ses racines.
Noter qu’avec les normalisations de (3.15), la métrique de Killing s’écrit dans la base
{Hi , Eα , E−α }
I` 0
0 1
1 0
gab = (3.18)
0 ...
0 1
1 0
où le premier bloc est une matrice identité de dimension ` × `.
où les différentes expressions visent à familiariser avec les notations rencontrées ci-dessus.
(Seules les deux dernières expressions dépendent du choix de normalisation (3.15).) On va
montrer que la géométrie –longueurs et angles– des racines est fortement contrainte. Il suffit de
se rappeler les leçons de l’algèbre su(2) : dans une représentation de dimension finie, Jz a des
Hα
valeurs propres entières ou demi-entières. Donc ici, où chaque h α,α i
joue le rôle d’un Jz et a les
Eβ pour vecteurs propres, ad Hα Eβ = h α, β iEβ , c’est-à-dire
Chaı̂nes de racines
Il est en fait utile de reprendre la discussion précédente et de l’affiner. L’idée est comme dans
su(2) d’appliquer de façon répétée les opérateurs “montant” Eα et “descendant” E−α (“ladder
operators”) sur un vecteur propre Eβ donné. On a vu que si α et β sont deux racines avec
α + β 6= 0, il peut se faire que β ± α soient aussi des racines. Soit p ≤ 0 le plus petit entier tel
que (ad E−α )|p| Eβ soit non nul, donc que β + pα soit racine, et soit q ≥ 0 le plus grand entier
tel que (ad Eα )q Eβ soit non nul, donc que β + qα soit racine. On appelle l’ensemble de racines
{β + pα, β + (p + 1)α, · · · , β, · · · β + qα} la α-chaı̂ne passant par β. Notons que les Eβ 0 , quand
β 0 parcourt cette chaı̂ne, forment une base d’une représentation de dimension finie de l’algèbre
su(2) engendrée par Hα et E±α . D’après ce que nous savons de ces représentations de su(2), les
valeurs propres minimale et maximale de Hα sont opposées
h α, β + pα i = −h α, β + qα i
m = −p − q . (3.22)
Mais cette construction nous montre aussi que β − mα = β + (p + q)α est dans la α-chaı̂ne
passant par β, (puisque p ≤ −m ≤ q), donc que c’est une racine.
Remarque. La discussion du § 3.1 a laissé les coefficients Nαβ indéterminés. On démontre (cf Exercice B) en
utilisant les relations de commutation des E le long d’une chaı̂ne que les coefficients Nαβ satisfont des relations
non linéaires et qu’ils sont déterminés à des choix de signes près par la géométrie du système de racines selon
r
1
|Nαβ | = (1 − p)qh α, α i . (3.23)
2
Noter que comme annoncé, Nαβ s’annule si q = 0, c’est-à-dire si α + β n’est pas une racine.
Groupe de Weyl
Pour tout vecteur x dans l’espace des racines h∗ , définissons la transformation linéaire
h α, x i
wα (x) = x − 2 α. (3.24)
h α, α i
C’est une réflexion dans l’hyperplan orthogonal à α passant par l’origine : (wα )2 = I, wα (α) =
−α, et wα (x) = x si x est orthogonal à α. C’est bien sûr une isométrie, préservant le produit
scalaire : h wα (x), wα (y) i = h x, y i. On appelle wα une réflexion de Weyl. Par définition le
groupe de Weyl W est le groupe engendré par les wα , c’est-à-dire l’ensemble de tous les produits
possibles de wα pour des racines α. D’après la remarque suivant (3.22), si α et β sont deux
racines, wα (β) = β − mα est une racine. L’ensemble des racines est donc préservé par l’action
du groupe de Weyl. Le groupe W est complètement déterminé par son action sur les racines, qui
consiste donc à les permuter. C’est un sous-groupe du groupe de permutations de l’ensemble
fini ∆, c’est donc un groupe fini 2 .
Exemple : pour l’algèbre su(n), on montre que W = Sn , le groupe de permutations de n objets,
cf plus bas § 3.2.
Signature d’un élément de W . Soit w ∈ W , écrit comme le produit de r réflexions élémentaires
(3.24) : w = wαr . . . wα2 .wα1 . On définit sa signature comme sign(w) := (−1)r . Cela généralise
la notion familière dans le groupe W = Sn , et l’on montre que cette définition est cohérente et
indépendante de l’écriture de w comme produit.
Notons que si β+ = β + qα est la plus haute racine dans la α-chaı̂ne passant par β, et β− = β + pα la plus
basse, wα (β± ) = β∓ et plus généralement, les racines de la chaı̂ne sont échangées deux par deux par l’action de
wα . La chaı̂ne est donc invariante par wα . Cela est une généralisation de la symétrie des “multiplets” de su(2)
(−j, −j + 1, · · · , j − 1, j), et cela s’applique à toute α-chaı̂ne passant par tout β, et donc à tout l’ensemble des
racines. On en conclut que
L’ensemble des racines est invariant par W .
Les racines ne sont pas indépendantes dans h∗ . On montre qu’on peut subdiviser leur ensemble ∆
en racines dites “positives” et racines “négatives”, l’opposé d’une racine positive étant négative,
et trouver une base αi , i = 1, · · · , ` de ` racines simples, telles que toute racine positive (resp.
négative) s’exprime comme combinaison linéaire à coefficients entiers positifs ou nuls (resp.
négatifs ou nuls) de ces racines simples. Une racine simple ne peut donc s’écrire comme somme
de deux racines positives (pourquoi ?).[sinon, si αi pouvait s’exprimer comme somme de racines positives
βj , elles-mêmes combinaisons linéaires à coefficients ∈ N de racines simples, cela contredirait l’indépendance des
racines simples. ]
Ni le choix d’un ensemble de racines positives, ni celui de la base de racines simples n’est
unique. On passe d’un ensemble de racines simples à un autre par une opération du groupe de
Weyl.
Si α et β sont des racines simples, α − β ne peut être une racine (pourquoi ?). L’entier p
dans la discussion précédente est donc nul et m = −q ≤ 0. Il en découle que h α, β i ≤ 0.
2. Cette propriété n’est pas triviale : en général, quand on se donne m vecteurs dans l’espace euclidien
m
R , le groupe engendré par les réflexions dans les hyperplans qui leur sont orthogonaux est infini. Il faut des
configurations bien particulières des vecteurs pour que le groupe soit fini. Les groupes de réflexion finis ont
été classifiés par Coxeter. Les groupes de Weyl des algèbres simples forment un sous-ensemble des groupes de
Coxeter.
3 ! 1+ 2 !2
!2 ! ! +! ! +2 ! !2 ! +! 2! +! 3! +! !2
! +!
2
1 1 2 1 2 1 2 1 2 1 2
1
"! !1 !2 !1 !1
1
A2 B2 G2 D2
Figure 3.1 – Systèmes de racines de rang 2. Les deux racines simples positives sont en trait
gras. Pour les algèbres B2 , G2 et D2 , on n’a noté que les racines positives. The two racines
simples are drawn in thick lines. For the algebras B2 , G2 et D2 , only racines positives have
been labelled.
Attention, cette matrice n’est pas a priori symétrique 3 . Ses éléments diagonaux valent 2, ses
éléments non diagonaux sont des entiers négatifs ou nuls.
Il faut se rappeler que le produit scalaire qui figure au numérateur de (3.26) est défini
positif. Selon l’inégalité de Schwarz, h α, β i2 ≤ h α, α ih β, β i avec égalité seulement si α et
β sont colinéaires. Cette propriété, avec les propriétés d’intégrité de leurs éléments, suffit à
classifier toutes les matrices de Cartan possibles, comme on va le voir.
Écrivons h αi , αj i = kαi k kαj k cos α
\ i , αj . Notons d’abord qu’en multipliant ou en divisant
les deux équations (3.21) pour la paire {αi , αj }, i 6= j, à savoir Cij = mi ≤ 0 et Cji = mj ≤ 0,
et en utilisant la propriété (3.25), on obtient que si i 6= j,
1√
cos α
\ i , αj = − 2 mi mj
k αi k
r
mi avec mi , mj ∈ N , (3.27)
=
k αj k
mj
et la valeur −1 du cosinus est interdite, parce que αi 6= −αj par hypothèse, si bien que les
√ √
seules valeurs possibles de ce cosinus sont 0, − 12 , − 22 , − 23 , c’est-à-dire que les seuls angles
possibles entre racines simples sont π2 , 2π , 3π
3 √
ou 5π , avec des rapports de longueurs des racines
4 √ 6
respectivement égaux à ?(indéterminé), 1, 2, 3.
Il n’existe bien sûr qu’une seule algèbre de rang 1, c’est l’algèbre su(2) complexifiée (3.1)
ou (3.17). On lui donnera désormais le nom de A1 . Il est ensuite aisé de classifier les algèbres
possibles de rang 2. Les quatre cas sont représentés sur la Fig. 3.1, avec leurs matrices de Cartan
3. Attention aussi que certains auteurs appellent matrice de Cartan la transposée de (3.26) !
6
Al 1 2 3 l 1 2 4 5
E6
3
7
Bl 1 2 3 l 1 2 4 5 6
E7
3
8
Cl 1 2 3 l 1 2 4 5 6 7
E8
3
l !1
1 2 3 4
F4
Dl 1 2 3
1 2
l
G2
s’écrivant
! ! ! !
2 −1 2 −2 2 −1 2 0
A2 : B2 : G2 : D2 : . (3.28)
−1 2 −1 2 −3 2 0 2
Diagramme de Dynkin
En rang plus élevé, c’est-à-dire en dimension de l’espace des racines plus élevée, il devient
difficile de représenter le système des racines. On adopte une autre représentation, en codant
la matrice de Cartan dans un diagramme de la façon suivante. À chaque racine simple αi est
associé un vertex i du diagramme. Deux vertex sont unis par une ligne ssi h αi , αj i =
6 0 ; la ligne
est simple si Cij = Cji = −1 (angle de 2π/3, longueurs égales) ; elle est double (resp. triple) si
√
Cij = −2 (resp. −3) et Cji = −1 (angle de 3π resp. 5π , avec un rapport des longueurs de 2,
√ 4 6
resp. 3) et porte alors une flèche (ou plutôt un signe >) entre i et j indiquant quelle racine
est la plus longue. (Attention que là encore, certains auteurs utilisent la convention opposée
pour l’orientation de ces flèches !)
A` , B` , C` , D` , E6 , E7 , E8 , F4 , G2 . (3.29)
Dans chaque cas, l’indice indique le rang de l’algèbre. La géométrie des systèmes de racines est
codée dans les diagrammes de Dynkin de la Fig. 3.2.
La preuve est un peu laborieuse et sera omise ici. Elle consiste à exploiter le fait que la matrice de Cartan
est définie positive pour montrer successivement qu’au plus un seul de ses éléments non diagonaux peut être
différent de 0 ou −1 (une seule arête du diagramme de Dynkin peut être multiple), que le diagramme ne contient
pas de boucle, que la seule coordinence possible d’un vertex est 0, 1 ou 2 et qu’un diagramme a au plus un
vertex de coordinence 3, etc, et finalement que la liste des diagrammes possibles se réduit à celle de la Fig. 3.2.
Les quatre familles infinies sont identifiées aux algèbres de Lie (complexifiées) de groupes
classiques
ou à leur unique forme réelle compacte, respectivement A` = su(` + 1), B` = so(2` + 1),
C` = usp(`), D` = so(2`).
Les “algèbres exceptionnelles” E6 , . . ., G2 ont pour dimensions respectives 78, 133, 248, 52 et 14. Ce sont les
algèbres de groupes de Lie . . . exceptionnels ! G2 est le groupe d’automorphismes d’octonions, F4 est lui-même
un groupe d’automorphismes de matrices d’octonions, etc.
Parmi ces algèbres, les algèbres A, D, E, dont toutes les racines ont même longueur, sont dites simple-
ment lacées. Il est curieux de remarquer que de nombreux problèmes, sous-groupes finis de su(2), singularités
“simples”, théories conformes “minimales”, etc, sont classifiés selon ce schéma ADE . . . mais cela est une autre
histoire !
Les formes réelles de ces algèbres simples complexes ont aussi été classifiées par Cartan. On trouve 12 séries
infinies et 23 cas exceptionnels !
[hi , hj ] = 0
[hi , ej ] = Cji ej (3.32)
[hi , fj ] = −Cji fj
[ei , fj ] = δij hj
4. Ce travail de classification, entrepris par Killing a été complété et corrigé par É. Cartan, puis simplifié
par van der Waerden, Dynkin, . . .
(le vérifier). L’algèbre est engendrée par les ei , fi , hi et tous leurs commutateurs contraints par (3.32) et par les
“relations de Serre”
ad (ei )1−Cji ej = 0
1−Cji
ad (fi ) fj = 0. (3.33)
Cela prouve que toute l’algèbre est bien codée dans la donnée des racines simples et de leur géométrie (la matrice
de Cartan ou le diagramme de Dynkin). [Attention que les Hi et Eα de (3.15) forment une base de g comme
e.v., et les hi , ei , fi une base de g comme alg. de Lie !]
Noter aussi la propriété remarquable, pas évidente a priori, que dans cette base, toutes les constantes de
structure (coefficients des relations de commutation) sont des entiers.
appelées aussi indices de Kac ou indices de Kac duaux, jouent aussi un rôle, en particulier par leurs sommes,
X X
h=1+ ai , h∨ = 1 + a∨
i . (3.37)
i i
∨
Ces nombres h et h sont respectivement le nombre de Coxeter et le nombre de Coxeter dual. Quand il faut
choisir une normalisation des racines, ce que nous n’avons pas fait encore, on choisit en général d’imposer que
h θ, θ i = 2.
Enfin la diagonalisation de la matrice de Cartan symétrisée
h αi , αj i
C
bij := 2 p (3.38)
h αi , αi ih αj , αj i
donne un spectre de valeurs propres
b = 4 sin2 π mi ,
n o
valeurs propres de C i = 1, · · · , ` , (3.39)
2h
faisant apparaı̂tre un nouvel ensemble d’entiers mi , les exposants de Coxeter, compris entre 1 et h − 1, avec de
possibles multiplicités. Ces nombres sont importants à plusieurs titres. Ils contiennent des informations utiles
sur le groupe de Weyl. En leur ajoutant 1, (ce qui les rend ≥ 2), on obtient les degrés des opérateurs de Casimir
algébriquement indépendants, ou encore les degrés où le groupe de Lie a une cohomologie non triviale, etc etc.
P
Exemples : pour An−1 alias su(n), racines et coracines sont identiques. La plus haute racine θ = i αi , donc
h = h∨ = n, les exposants de Coxeter sont 1, 2 · · · , n − 1. Pour Dn alias so(2n), racines et coracines sont encore
identiques, θ = α1 + 2α2 + · · · + 2αn−2 + αn−1 + αn , h = 2n − 2, et les exposants sont 1, 3, · · · , 2n − 3, n − 1,
avec donc n − 1 double si n est pair.
Voir l’Appendice F pour des données sur les algèbres simples classiques.
ou de façon équivalente
Hi |λa i = λ(i) |λa i , (3.41)
avec une valeur propre λ qui est à nouveau une forme sur l’espace h, donc un élément de h∗ ,
l’espace des racines. On donne le nom de poids à un tel vecteur λ = (λ(i) ) de h∗ . Noter que pour
une représentation unitaire, les H sont hermitiens, donc λ est à valeurs réelles : les poids sont
des vecteurs réels de h∗ . La valeur propre λ pouvant apparaı̂tre avec une multiplicité, nous avons
doté les états propres d’un indice a de multiplicité. L’ensemble des poids d’une représentation
forme dans l’espace h∗ le diagramme des poids de la représentation, voir Fig. 3.5 ci-dessous pour
des exemples dans le cas de su(3).
La représentation adjointe est une représentation particulière de l’algèbre dont les poids
non nuls sont les racines. Les racines étudiées aux paragraphes précédents appartiennent donc
à l’ensemble des poids dans h∗ .
Les vecteurs |λa i formant une base de la représentation, leur nombre total, multiplicité
incluse, égale la dimension de l’espace E de représentation. Cet espace E contient des sous-
espaces de représentation de chacune des algèbres su(2) que nous avons identifiées au § 3.2,
engendrées par {Hα , Eα , E−α }. Par le même argument qu’au § 3.2, on va montrer que tout
poids λ satisfait
h λ, α i
∀α, 2 = m0 ∈ Z , (3.42)
h α, α i
et réciproquement, on montre que tout λ ∈ h∗ satisfaisant (3.42) est le poids d’une représenta-
tion de dimension finie. On peut donc utiliser (3.42) comme autre définition d’un poids. Pour
se convaincre que le poids de toute représentation satisfait (3.42), on peut, comme au § 3.2,
définir la chaı̂ne maximale des poids passant par λ
λ + p0 α, · · · , λ, · · · , λ + q 0 α p0 ≤ 0, q 0 ≥ 0 ,
qui forment une représentation de la sous-algèbre su(2), et montrer alors que m0 = −p0 − q 0 .
0 0
Soient p0 le plus petit entier ≤ 0 tel que (E−α )|p | |λa i =
6 0, et q 0 le plus grand entier ≥ 0 tel que (Eα )q |λa i =
6 0,
Hα a pour valeurs propres sur ces deux vecteurs h λ, α i + p0 h α, α i, resp h λ, α i + q 0 h α, α i. En exprimant que
les valeurs propres de 2Hα /h α, α i sont entières et opposées, on a
h λ, α i h λ, α i
2q 0 + 2 = 2j 2p0 + 2 = −2j . (3.43)
h α, α i h α, α i
En soustrayant membre à membre, on a q 0 − p0 = 2j, la longueur de la chaı̂ne est bien 2j + 1 (dimension de la
représentation de spin j de su(2)), tandis qu’en ajoutant membre à membre pour éliminer 2j, on a
h λ, α i
2 = −(q 0 + p0 ) =: m0 , comme annoncé en (3.42).
h α, α i
Cette chaı̂ne est invariante sous l’action de la réflexion de Weyl wα . (Cela est une généralisa-
tion de la symétrie des “multiplets” de su(2) (−j, −j + 1, · · · , j − 1, j).) Plus généralement,
l’ensemble des poids est invariant par le groupe de Weyl : si λ est un poids d’une représentation,
wα (λ) en est un aussi, et on montre qu’il est de même multiplicité. Le diagramme des poids
d’une représentation est donc invariant sous l’action de W .
L’ensemble des poids est découpé par le groupe de Weyl W en “chambres”, en nombre égal
à l’ordre de W . La chambre associée à l’élément w de W est le cône
où les αi sont les racines simples. (Ce n’est pas tout à fait une partition, car il existe des poids
sur les “murs” de séparation.) La chambre fondamentale est C1 , correspondant à l’identité dans
W . Les poids appartenant à cette chambre fondamentale sont appelés poids dominants. Tout
poids peut être amené dans C1 par une opération de W : il est sur l’“orbite” (pour le groupe
de Weyl) d’un unique poids dominant. Parmi les poids de toute représentation irréductible, il
en existe au moins un qui est dans C1 .
Par ailleurs, de [Hi , Eα ] = α(i) Eα , il découle que
donc que Eα |λa i, s’il n’est pas nul, est un vecteur de poids λ + α. Or dans une représentation
irréductible, tous les vecteurs s’obtiennent à partir les uns des autres par de telles actions de
Eα , d’où il découle que
. Deux poids de la même représentation irréductible diffèrent par une combinaison à coefficients
entiers de racines,
(mais cette combinaison n’est en général pas une racine).
On introduit alors un ordre partiel sur les poids d’une même représentation : on dit que
λ0 > λ si λ0 − λ = i ni αi , avec des coefficients ni entiers non négatifs. Il existe (parmi les poids
P
de cette représentation) un unique plus haut poids Λ, dont on montre qu’il est de multiplicité
1. Le vecteur de plus haut poids sera noté |Λi (sans indice a). Il est tel que pour toute racine
positive Eα |Λi = 0, (sans quoi il ne serait pas le plus haut), donc q 0 = 0 dans l’équation (3.43)
ci-dessus, et hΛ, αi = 21 hα, αij > 0, Λ est un poids dominant.
. Le plus haut poids d’une représentation est un poids dominant, Λ ∈ C1 .
Ce vecteur de plus haut poids caractérise la représentation irréductible. (Dans le cas de su(2),
ce serait un vecteur |j, m = j i.) Autrement dit, deux représentations sont équivalentes ssi elles
ont le même plus haut poids.
h λ, αi i
λi = 2 ∈Z (3.45)
h αi , αi i
avec αi les racines simples. Pour un poids dominant, donc pour tout poids le plus haut d’une
représentation irréductible, ces indices sont non négatifs, c’est-à-dire dans N.
Les poids fondamentaux Λi satisfont par définition
h Λj , αi i
2 = δij . (3.46)
h αi , αi i
Leur nombre égale le rang ` de l’algèbre, ils constituent une base de h∗ . Chacun d’eux est le plus
haut poids d’une représentation irréductible dite fondamentale ; il y a donc ` représentations
fondamentales. Nous avons donc obtenu
. Toute représentation irréductible est caractérisée par son plus haut poids,
et par abus de notation, on désignera par (Λ) la représentation irréductible de poids le plus
haut Λ.
. Tout plus haut poids se décompose sur les poids fondamentaux, avec pour composantes ses
indices de Dynkin (3.45),
X`
Λ= λj Λj , λi ∈ N . (3.47)
j=1
et tout Λ de la forme (3.47) est le plus haut poids d’une représentation irréductible.
Autrement dit, la connaissance des poids fondamentaux suffit à construire toutes les représen-
tations irréductibles de l’algèbre.
Montrer en utilisant les propriétés énoncées ci-dessus que le plus haut poids de la représentation adjointe
ne peut être que θ, défini en eq. (3.36).
On montre enfin que les sous-groupes du groupe fini P/Q sont aussi isomorphes aux groupes d’homotopie
des groupes G ayant g comme algèbre de Lie ! Par exemple pour su(n), on verra plus bas que P/Q = Zn , et
ces sous-groupes sont caractérisés par un diviseur d de n. Pour chacun d’eux, SU(n)/Zd a pour algèbre de Lie
su(n). Le cas n = 2, avec SU(2) et SO(3), nous est familier.
Il est utile de connaı̂tre la dimension d’une représentation de plus haut poids donné et la
valeur qu’y prend l’opérateur de Casimir quadratique. Elles sont données en termes du vecteur
de Weyl ρ, défini par deux formules (non trivialement !) équivalentes
ρ = 21 α>0 α
P
P
= j Λj . (3.48)
Une formule remarquable, due à Weyl, exprime la dimension de la représentation de plus haut
poids Λ comme un produit sur les racines positives
Y h Λ + ρ, α i
dim(Λ) = (3.49)
α>0
h ρ, α i
d’où
dim(Λ)
TΛ = C2 (Λ) , (3.53)
dim g
une formule souvent utile dans les calculs (théories de jauge. . .). Dans la représentation adjointe, dim(A) = dim g,
donc TΛ = TA = C2 (A).
[Formule “étrange” de Freudenthal–de Vries
h
h ρ, ρ i = h θ, θ i dim g
24
]
Il existe une floppée de formules variées, souvent intrigantes, reliant différents aspects de la théorie des
algèbres de Lie et de leurs représentations. Ainsi par exemple la “formule étrange” de Freudenthal–de Vries qui
h
relie les normes des vecteurs ρ et θ à la dimension de l’algèbre et au nombre de Coxeter : h ρ, ρ i = 24 h θ, θ i dim g.
Il existe encore une formule (Freudenthal) qui décrit la multiplicité d’un poids λ au sein d’une représentation
de plus haut poids Λ. [(Λ + ρ)2 − (λ + ρ)2 mult(λ) = 2 α>0 j>0 hλ + jα, αimult(λ + jα) ] Et aussi, question
P P
liée, une formule de Weyl qui donne l’expression du caractère χΛ (eH ) de cette représentation évalué sur un
élément du “tore de Cartan”, qui résulte de l’exponentiation de l’algèbre de Cartan h.
Représentation conjuguée
Étant donnée une représentation de plus haut poids Λ, sa représentation conjuguée est en général non équivalente.
On sait caractériser quel est son plus haut poids Λ grâce au groupe de Weyl. La non équivalence des re-
présentations (Λ) et (Λ) a à voir avec les symétries du diagramme de Dynkin. Pour les algèbres de type
B, C, E7 , E8 , F4 , G2 pour lesquelles il n’existe pas de telle symétrie non triviale, les représentations sont auto-
conjuguées. C’est aussi le cas de D2r . Pour les autres, la conjugaison correspond à la symétrie suivante sur les
indices de Dynkin
où l’indexation des poids fondamentaux, donc celle des indices de Dynkin, suit celle des racines simples, cf Fig.
3.2.
les êi dans un hyperplan orthogonal à ρ̂ := ni=1 êi , donc ei = êi − n1 ρ̂. Il est commode de se
P
placer dans l’hyperplan ni xi = 1 de l’espace Rn . Ces vecteurs ont pour produits scalaires
P
1
h ei , ej i = δij − . (3.55)
n
En termes de ces vecteurs, les racines positives de su(n)= An−1 , en nombre égal à |∆+ | =
n(n − 1)/2, sont
αij = ei − ej , 1 ≤ i < j ≤ n, (3.56)
Ces racines ont été normalisées à h α, α i = 2. La somme des racines positives se calcule aisément
0 " !
Figure 3.3 – Poids de su(2). Les parties positives des réseaux des poids (petits points) et des
racines (gros points)
Représentations conjuguées
Si Λ = (λ1 , · · · , λn−1 ) est le plus haut poids d’une représentation irréductible de su(n), Λ =
(λn−1 , · · · , λ1 ) est celui de la représentation conjuguée, en général pas équivalente. On note que
ni la dimension, ni la valeur de l’opérateur de Casimir ne distinguent les représentations Λ et
Λ.
“n-alité”
Les classes de congruence de P par rapport à Q sont en nombre n. On les distingue par la valeur de
à laquelle on peut donner le vilain nom de “n-alité”, par extension de la “trialité” de su(3). Les éléments du
réseau des racines ont donc ν(λ) = 0.
Dans le cas de su(2), il n’y a qu’un poids fondamental Λ = Λ1 et une racine positive α,
normalisée à h α, α i = 2, donc h Λ, α i = 1, h Λ, Λ i = 21 . Donc α = 2Λ, Λ correspond à la
représentation de spin 12 , α à celle de spin 1. Le réseau des poids et celui des racines sont
simples à dessiner, voir Fig. 3.3. L’indice de Dynkin λ1 s’identifie à l’entier 2j, les deux classes
C1
10
e3 e2
6 15 27
!2 e1
8 15
"23
3 6 10
"1
!1
Figure 3.4 – Poids de su(3). Seule la première chambre de Weyl C1 a été détaillée, avec quelques
plus hauts poids. Les poids de trialité 0 (réseau des racines) sont représentés par un gros disque,
ceux de trialité 1, resp. 2, par un disque plein, resp. vide.
3 3
8 10
Figure 3.5 – Les diagrammes de poids des représentations les plus basses de su(3), désignées
par leur dimension. Noter qu’une rotation de 30o du réseau des poids a été effectuée par rapport
aux figures précédentes. Dans chaque représentation, le poids le plus haut est indiqué par une
petite indentation. Les points ont une multiplicité 1, le disque ouvert a la multiplicité 2.
10
6 15 27
3 8 15 24
1 3 6 10
manière suivante : on ajoute de toutes les façons possibles les dim(Λi ) poids de la fondamentale
au vecteur Λ et on ne garde comme plus hauts poids de la décomposition que les poids résultant
de cette addition qui appartiennent à C1 .
Illustrons ceci sur le cas de su(3). Supposons que l’on désire calculer la décomposition de 8⊗8.
On sait que la représentation 8 (adjointe) se trouve dans le produit des deux fondamentales 3
et 3̄. Les poids de la représentation fondamentale “3” de plus haut poids Λ1 = e1 sont e1 , e2 , e3 .
Ceux de la représentation fondamentale “3̄” sont leurs opposés. Avec la règle ci-dessus, on
obtient donc
3⊗3 = 3̄ ⊕ 6 3 ⊗ 3̄ = 1 ⊕ 8
3⊗6 = 8 ⊕ 10 3 ⊗ 6̄ = 3̄ ⊕ 15
3⊗8 = 3 ⊕ 6̄ ⊕ 15
3 ⊗ 15 = 6 ⊕ 15 ⊕ 24 (3.65)
etc, et leurs conjuguées, cf Fig. 3.6. En général on ajoute les trois vecteurs e1 = (1, 0), e2 =
(−1, 1) et e3 = (0, −1) (dans la base Λ1 , Λ2 ) à Λ = (λ1 , λ2 ) : les poids les plus hauts de la
décomposition sont donc (λ1 + 1, λ2 ), (λ1 − 1, λ2 + 1) et (λ1 , λ2 − 1), dont on élimine ceux qui
ont un indice de Dynkin négatif. Noter la cohérence avec la trialité : toutes les représentations
apparaissant au membre de droite ont la même trialité, somme (modulo 3) des trialités de celles
du membre de gauche. Par exemple, τ (3) = 1, τ (15) = 1, τ (6) = 2, τ (15) = 2, etc.
En itérant cette opération, on peut alors calculer
8 ⊗ (1 ⊕ 8) = 8 ⊗ 3 ⊗ 3̄ = (3 ⊕ 6̄ ⊕ 15) ⊗ 3̄ = 1 ⊕ 8 ⊕ 8 ⊕ 8 ⊕ 10 ⊕ 10 ⊕ 27
d’où on tire
8 ⊗ 8 = 1 ⊕ 8s ⊕ 8a ⊕ 10 ⊕ 10 ⊕ 27 . (3.66)
Dans cette dernière expression,
[and more precisely (8 ⊗ 8)S = 1 ⊕ 8s ⊕ 27; (8 ⊗ 8A = 8a ⊕ 10 ⊕ 10.]
on a ajouté un indice s ou a pour distinguer les deux copies de la représentation 8 : l’une est
symétrique, l’autre antisymétrique dans l’échange des deux représentations 8 du membre de
gauche. Cette relation nous sera très utile dans le chapitre suivant, dans l’étude de la symétrie
SU(3) de saveur.
Bien que fastidieux, ce processus est simple et systématique. Il existe une règle un peu plus
élaborée pour le produit tensoriel de deux représentations de plus hauts poids quelconques (Λ)
et (Λ0 ) d’une algèbre quelconque, voir ci-dessous. Il existe aussi des codes qui calculent ces
décompositions, tel l’étonnant LiE, voir [Link]
LiE/[Link]
Une généralisation des règles précédentes, valide pour toute algèbre simple g, est donnée par l’algorithme
de Racah–Speiser, qui fournit les multiplicités Nλµν , pour des poids les plus hauts λ et µ de g (les notations
précédentes ont été changées Λ → λ, Λ0 → µ)
Considérons l’ensemble des poids σ = λ0 + µ + ρ où λ0 parcourt le diagramme de poids [λ] de la représentation
(λ) et ρ est le vecteur de Weyl. Trois cas peuvent advenir :
– i) si tous les indices de Dynkin de σ sont strictement positifs, λ0 + µ contribue à la somme sur ν dans
(3.67) avec une multiplicité égale à la multiplicité de σ (c’est-à-dire de λ0 ) ;
– ii) si σ ou l’une de ses images par le groupe de Weyl a un indice de Dynkin nul, c’est-à-dire si σ est sur
le mur d’une chambre de Weyl, λ0 + µ ne contribue pas à la somme sur ν ;
– iii) si σ a un (ou des) indice(s) de Dynkin négatif(s) (mais aucun nul), et n’est pas du cas discuté en (ii),
il peut être appliqué dans la chambre de Weyl fondamentale par un unique élément w du groupe de Weyl.
Le poids w[σ] − ρ contribue alors par sign(w) fois la multiplicité de λ0 à la somme sur ν, où sign(w) est
la signature de l’élément w de W , définie plus haut au § 3.2.1.
Ceci est résumé dans la formule
X X
Nλµν = sign(w) δν,w[λ0 +µ+ρ]−ρ (3.68)
λ0 ∈[λ] w∈W
w[λ0 +µ+ρ]−ρ∈P+
i j0 0
δ 0 j = U ii0 U † j δji 0 = (U.U † )i j = δji .
Formons maintenant des tenseurs de rang (p, m), à p indices supérieurs et m indices inférieurs,
se transformant comme V ⊗p ⊗ W ⊗m , donc selon
i ···i ip † l1 lm j1 ···jp
t0 k11 ···kpm = U ij11 · · · U jp U k 1 · · · U† km tl1 ···lm . (3.69)
• Dans le cas de SU(2), on sait que les représentations U et U ∗ sont équivalentes. Cela
résulte de l’existence d’une matrice C = iσ2 , telle que CU C −1 = U ∗ , donc CV ∗ se transforme
0 0
comme V . Ou encore, puisque Cij = ij et i0 j 0 U ii U jj = ij det U = ij , le tenseur antisymétrique
, invariant et inversible (ij = −ij , ij jk = δik ), peut être utilisé pour monter et descendre les
avec t[i1 ,i2 ],···ip := 12 (ti1 i2 ···ip − ti2 i1 ···ip ) et t{i1 ,i2 }···ip := 12 (ti1 i2 ···ip + ti2 i1 ···ip ). Pour la composante an-
tisymétrique, on peut écrire t[i1 ,i2 ]···ip = i1 i2 t̃i3 ···ip , avec t̃i3 ···ip = − 12 ab tabi3 ···ip , et donc réduire son
rang 6 . Donc seuls les tenseurs complètement symétriques dans tous leurs p indices supérieurs
fournissent des représentations irréductibles, et on retrouve ainsi une nouvelle fois la construc-
tion de toutes les représentations irréductibles de SU(2) par produits tensoriels symétrisés de la
représentation de dimension 2, cf Chap. 0,, et le rang p s’identifie à 2j. On vérifie en particulier
que le nombre de composantes indépendantes d’un tenseur de rang p complètement symétrique
dans l’espace C2 est p + 1, puisque ces composantes possèdent 0, 1, · · · p indices égaux à 1, les
autres étant égaux à 2.
Un tenseur de rang p complètement symétrique sera représenté par un “diagramme d’Young”
avec p boı̂tes |{z} . (La définition précise d’un diagramme d’Young sera donnée au paragraphe
p
suivant.) Prenons p = 3 pour fixer les idées. Le produit tensoriel d’un tel tenseur de rang 3 par
un tenseur de rang 1 sera figuré par
⊗ = ⊕
4tijk ul = (tijk ul + tjkl ui + tikl uj + tijl uk ) + (tijk ul − tjkl ui ) + (tijk ul − tikl uj ) + (tijk ul − tijl uk )
où le premier terme est complètement symétrique dans ses p + 1 = 4 indices, et les suivants
sont antisymétriques en (i, l), (j, l) ou (k, l). Selon l’argument précédent, ces derniers peuvent
être réduits à des tenseurs de rang 2,
⊗ = ⊕
Restreignons nous dans la fin de ce paragraphe au cas de SU(3). Les tenseurs sont donc du
i ···i
type tj11 ···jpm , (i· , j· = 1, 2, 3), se transformant selon la représentation 3⊗p ⊗ 3̄⊗m . On a encore un
tenseur invariant, mais cette fois de rang 3
0 0 0
i0 j 0 k0 U ii U jj U kk = ijk det U = ijk ,
qui nous permet de troquer toute paire d’indices antisymétriques supérieurs pour un indice
inférieur et vice versa, et de réduire ainsi le rang. Mais on peut aussi contracter toute paire
d’indices supérieur et inférieur en un invariant, selon une remarque au début du paragraphe.
On se contente donc de considérer les tenseurs complètement symétriques et de trace nulle de
rang (p, m). On peut démontrer que ces tenseurs forment une représentation irréductible, qui
n’est autre que celle de poids le plus haut pΛ1 + mΛ2 dans les notations du § 3.2. Nous nous
contenterons de vérifier que les dimensions de ces représentations sont bien en accord avec celles
données en (3.64), see Exercise E. A cette représentation on associe à nouveau un diagramme
d’Young à deux lignes, la première à p + m, la seconde à m boı̂tes.
Les règles de produit tensoriel, en particulier celles par les représentations fondamentales
3 et 3̄ (cf § 3.4.1), se retrouvent aussi dans ce langage : il faut ajouter la boı̂te nouvelle de
toutes les façons possibles au diagramme, et effacer toute colonne de hauteur 3 (ce qui reflète
la propriété que det U = 1). Exercice : étudier la réduction de ⊗ et retrouver la règle
graphique du § 3.4.1 dans ce langage.
Un cas particulier que nous allons beaucoup utiliser au chapitre suivant est le suivant : la
représentation adjointe est celle des tenseurs de rang (1,1) et de trace nulle. Cela n’est pas
étonnant : la représentation adjointe est celle engendrée par l’algèbre de Lie su(3), donc par
les matrices (anti)hermitiennes 3 × 3 de trace nulle. Un tenseur de cette représentation se
0 0
transforme par tij 7→ t0 ij = U ii0 U ∗jj tij 0 , soit sous forme matricielle
t0 = U tU † , (3.70)
ce qui à nouveau n’est pas pour nous surprendre, cf la définition de la représentation adjointe
au chapitre 2. Quel diagramme d’Young associe-t-on à la représentation adjointe ?
qui est en général réductible. Mais dans F , agit aussi le groupe symétrique Sm selon
−1 −1
(1)
σ ∈ Sm , D(σ)x
b ⊗ · · · x(m) = x(σ 1) ⊗ · · · ⊗ x(σ m) . (3.73)
Faisons le choix d’une base ei dans E, et notons gij les éléments de matrice de g ∈ GL(n) dans cette base. La
représentation de GL(n) dans F a pour matrice
m
Y
D(g){i1 ···im }{j1 ···jm } = gik jk (3.74)
k=1
et celle de Sm
m
Y
D(σ)
b {i ···i }{j ···j } =
1 m 1 m
δiσk jk . (3.75)
k=1
Un tenseur t, élément de F , a dans cette base des composantes ti. et se transforme sous l’action de g ∈ GL(n),
resp. de σ ∈ Sm , en un tenseur t0 de composantes t0i. = Di. j. tj. , resp. D
bi ,j tj . Ces deux ensembles de matrices
. . .
commutent
X Q Q
D(g){i. },{j. } D(σ)
b {j },{k }
. .
= l gil jl δjl ,kσ−1 l = l giσl kl
{j. }
P
= {j. } D(σ)
b {i },{j } D(g){j },{k } .
. . . .
(3.76)
Définissons alors un diagramme d’Young. Un diagramme d’Young est formé de m cases disposées en k lignes
P
de longueur non croissante : f1 ≥ f2 ≥ · · · fk , fi = m. Voici un exemple pour m = 8, ayant f1 = 4, f2 =
2, f3 = 2
On décore ensuite les m boı̂tes d’un diagramme d’Young, le transformant ainsi en un tableau, en y distribuant
les entiers de 1 à m. Un tableau standard est un tableau dans lequel les entiers sont croissants dans chaque ligne
de gauche à droite, et dans chaque colonne de haut en bas.
Le nombre nY de tableaux standards obtenus à partir d’un diagramme Y est calculé comme suit. On définit
les nombres `i = fi + k − i, i = 1, · · · , k. Ils forment une suite strictement décroissante : `1 > `2 > · · · > `k . On
démontre alors que
n! Y
nY = Q (`i − `j ) (3.77)
i `i ! i<j
où pour alléger les notations on n’a pas fait figurer les indices i1 , i2 , i3 sur A, · · · , D1 . Tout tenseur se décompose
sur cette base :
6ti1 i2 i3 = A + B + 2(C1 + D1 ) .
Les indices 1 sur C et D rappellent que sous l’action du groupe S3 , ces objets se mélangent avec une autre
combinaison C2 = ti1 i3 i2 − ti3 i1 i2 + ti2 i3 i1 − ti1 i2 i3 (resp. D2 = ti2 i1 i3 + ti2 i3 i1 − ti1 i2 i3 − ti1 i3 i2 ) des tijk en
des représentations de dimension 2. Au contraire l’action du groupe GL(n) mélange entre elles les différentes
composantes du tenseur A, celles du tenseur B, etc. Les tenseurs C et D se transforment selon des représentations
équivalentes.
Tous les tableaux d’Young, cependant, ne contribuent pas aux représentations de GL(n) pour n donné. Il
est clair qu’un tableau à k > n lignes implique une antisymétrisation de k indices prenant leurs valeurs dans
{1, · · · , n} et donne donc un résultat nul. En revanche il est aisé de voir que tout tableau à k ≤ n lignes donne
lieu à une représentation. On démontre, et nous admettrons, que cette représentation de GL(n) est irréductible
et que sa dimension est
(n) ∆(f1 + n − 1, f2 + n − 2, · · · , fn )
dimY = (3.82)
∆(n − 1, n − 2, · · · , 0)
Q
où ∆(a1 , a2 , · · · , an ) = i<j (ai − aj ) est le déterminant de Vandermonde des a et les fi désignent les longueurs
P
des lignes du tableau Y . C’est un polynôme de degré m = fi en n. Comparer à (3.62).
Dans le cas d’un tableau à une ligne, la formule résulte d’un argument combinatoire simple. La dimension
est égale au nombre de composantes du tenseur complètement symétrique ti1 ,···im où on peut supposer 1 ≤ i1 ≤
i2 ≤ · · · ≤ in ≤ n. Il s’agit de disposer de toutes les façons possibles n−1 signes < parmi les m indices i1 , · · · , im
n
pour marquer les blocs successifs de 1, 2, . . ., n. La dimension cherchée est donc le coefficient binômial Cn+m−1 ,
en accord dans ce cas particulier avec (3.82).
Dans l’exemple précédent avec m = 3, les deux derniers tenseurs C1 et D1 se transforment selon des
représentations équivalentes. On dit donc que E ⊗3 se décompose en
+ +2
où la troisième apparaı̂t avec la multiplicité deux. En général, la multiplicité dans E ⊗m d’une représentation de
GL(n) indexée par un tableau d’Young est égale à la dimension de la représentation correspondante de Sm .
Cette remarquable relation entre les représentations de Sm et de GL(n) est due à Frobenius et Weyl et
appelée dualité de Frobenius–Weyl.
On peut étendre ces considérations à d’autres groupes de transformations linéaires, SL(n), O(n), U(n), . . .
En raison des conditions additionnelles sur les matrices g dans ces groupes, une réduction supplémentaire des
représentations peut être possible. Par exemple, on a vu à la sect. 2.2 du chap. 2 que la puissance E ⊗2 de
l’espace euclidien à 3 dimensions se réduisait sous l’action de SO(3) en trois sous-espaces, correspondant à des
tenseurs de symétrie définie et de trace nulle et à un scalaire invariant.
poids le plus haut Λ avec ses indices de Dynkin λi et le tableau Y avec ses lignes de longueur fi est comme suit
n−1
X
Λ = (λ1 , · · · , λn−1 ) ↔ Y = (fi = λj ) . (3.83)
j=i
{
{
!
!2 1
!5
{
!7
Figure 3.7 – Correspondance entre diagramme d’Young et poids le plus haut (ou ses indices de
Dynkin). Ici Y ↔ Λ = (2, 2, 0, 0, 1, 0, 2)
Références additionnelles
La description de la construction des poids et racines peut se trouver dans de nombreuses
références données plus haut (Bump ; Bröcker et Dieck ; Gilmore . . .) mais encore dans
J. E. Humphreys, Introduction to Lie Algebras and Representation Theory, Graduate Texts in
Mathematics 9, Springer.
Le chapitre 13 du “Gros livre jaune” de P. Di Francesco, P. Mathieu et D. Sénéchal, [DFMS],
Conformal Field Theory, Springer, est une mine d’informations sur les algèbres de Lie simples,
leurs représentations, les produits tensoriels d’ycelles . . .
Pour le calcul des expressions explicites des constantes Nαβ , voir [Gi], ou Wybourne, Clas-
sical groups for physicists, John Wyley.
Sur les octonions et les groupes exceptionnels, voir l’article très complet (et disponible en
ligne) de John C. Baez, Bull. Amer. Math. Soc. 39 (2002), 145-205.
Pour la classification des formes réelles, voir S. Helgason, Differential Geometry, Lie groups
and Symmetric spaces, Academic Press, 1978, ou Kirillov, op. cit. au chap. 2 .
F.2 so(2l + 1) = Bl , l ≥ 2
Rang = l, dimension l(2l + 1), nombre de Coxeter h = 2l, nombre de Coxeter dual h∨ = 2l − 1
ei , i = 1, · · · , l , h ei , ej i = δij une base de Rl .
Racines ±ei , 1 ≤ i ≤ l et ±ei ± ej , 1 ≤ i < j ≤ l. Base de racines simples αi = ei − ei+1 , i = 1, · · · , l − 1, et
αl = el .
Racines positives
X
ei = αk , 1 ≤ i ≤ l ,
i≤k≤l
X
ei − ej = αk , 1 ≤ i < j ≤ l, (F.2)
i≤k<j
X X
ei + ej = αk + 2 αk , 1 ≤ i < j ≤ l,
i≤k<j j≤k≤l
Pi 1
Pl
Poids fondamentaux Λi = j=1 ej , i = 1, · · · , l − 1, Λl = 2 j=1 ej ; donc e1 = Λ1 = (1, 0, · · · , 0), ei =
Λi − Λi−1 = (0, · · · , −1, 1, 0 · · · ), i = 2, · · · , l − 1, el = 2Λl − Λl−1 = (0, · · · , 0, −1, 2).
Indices de Dynkin des racines
α1 = (2, −1, 0, · · · ), αi = (0, · · · , −1, 2, −1, 0 · · · ), i = 2, · · · , l−2 ; αl−1 = (0, · · · , 0, −1, 2, −2) ; αl = (0, · · · , 0, −1, 2)
et θ = (0, 1, 0, · · · , 0)
Groupe de Weyl : W ≡ Sl n (Z2 )l , d’ordre 2l .l!, agit sur les poids en permutant les ei et ei 7→ (±1)i ei .
F.3. sp(2l) = Cl , l ≥ 2
Rang = l, dimension l(2l + 1), nombre de Coxeter h = 2l, nombre de Coxeter dual h∨ = l + 1
ei , i = 1, · · · , l , h ei , ej i = 21 δij une base de Rl (Attention ! au facteur 2 qui assure la normalisation θ2 = 2).
Base de racines simples αi = ei − ei+1 , i = 1, · · · , l − 1, et αl = 2el .
Racines ±2ei , 1 ≤ i ≤ l et ±ei ± ej , 1 ≤ i < j ≤ l.
Racines positives
X
ei − ej = αk , 1 ≤ i < j ≤ l ,
i≤k<j
X X
ei + ej = αk + 2 αk + αl , 1 ≤ i < j ≤ l, (F.4)
i≤k<j j≤k<l
X
2ei = 2 αk + αl , 1 ≤ i ≤ l,
i≤k<l
Groupe de Weyl : W ≡ Sl n (Z2 )l , d’ordre 2l .l!, agit sur les poids en permutant les ei et ei 7→ (±1)i ei .
F.4. so(2l) = Dl , l ≥ 3
Racines positives
X
ei − ej = αk , 1 ≤ i < j ≤ l,
i≤k<j
X X
ei + ej = αk + 2 αk + αl−1 + αl , 1 ≤ i < j ≤ l − 1, (F.6)
i≤k<j j≤k<l−1
X
ei + el = αk + αl , 1 ≤ i ≤ l − 1,
i≤k≤l−2
Groupe de Weyl : W ≡ Sl n (Z2 )l−1 , of order 2l−1 .l!, agit sur les poids en permutant les ei et ei 7→ (±1)i ei ,
Q
avec i (±1)i = 1.
Exposants de Coxeter {1, 3, 5, · · · , 2l − 3, l − 1}, avec l − 1 appaissant donc deux fois si l est pair.
2 si 1 ≤ i = j ≤ l
−1 si 1 ≤ i = (j ± 1) ≤ l − 2
Matrice de Cartan h αi , αj i =
−1 si (i, j) = (l − 2, l) or (l, l − 2)
0 sinon
Pi
Poids fondamentaux Λi = j=1 ej = α1 + 2α2 + · · · + (i − 1)αi−1 + i(αi + · · · + αl−2 ) + 2i (αl−1 + αl ) pour
i = 1, · · · , l − 2 ; Λl−1 = 12 (e1 + · · · + el−1 − el ) = 12 (α1 + 2α2 + · · · + (l − 2)αl−2 ) + 2l αl−1 + l−2
2 αl ; Λl =
1 1 l−2 l
2 (e1 + · · · + el−1 + el ) = 2 (α1 + 2α2 + · · · + (l − 2)αl−2 ) + 2 αl−1 + 2 αl .
2. On veut montrer que les racines α définies par (3.5) ou (3.6) engendrent bien tout l’espace h∗ dual de la
sous-algèbre de Cartan h. Montrer que s’il n’en était pas ainsi, il existerait un élément H de h tel que
∀α ∈ ∆ α(H) = 0 . (3.83)
Montrer en utilisant (3.82) qu’alors, ∀H 0 ∈ h, (H, H 0 ) = 0. Pourquoi cela est-il impossible dans une algèbre
semi-simple ? (cf la discussion précédant l’équation (3.10)).
3. Variante de l’argument précédent : sous l’hypothèse du 2. et donc de (3.83), montrer que H commuterait
avec tous les Hi et tous les Eα , donc appartiendrait au centre de g. Montrer que le centre d’une algèbre est un
idéal abélien. Que peut-on dire du centre d’une algèbre semi-simple ? Conclure.
3. Considérant la α-chaı̂ne passant par β et les deux entiers p et q définis au § 3.2.1, écrire l’identité de
Jacobi pour Eα , E−α et Eβ+kα , avec p ≤ k ≤ q, et montrer qu’elle implique
Soit f (k) := Nα,β+kα N−α,−β−kα . Montrer en utilisant les relations (3.85) que l’équation précédente se récrit
h α, β + kα i = f (k) − f (k − 1) . (3.86)
1
f (k) = −(Nα,β+kα )2 = (k − q)h α, β + (k + q + 1)α i . (3.87)
2
Que vaut f (p − 1) ? Montrer que l’on retrouve l’expression (3.21). Montrer que la formule (3.87) est en accord
avec (3.23). Il reste à déterminer le signe de la racine carrée. . ., cf [Gi].
Quel est le cardinal de ∆ ? (Rép. 2l + 2l(l − 1) = 2l2 ) . ∆ décrit l’ensemble des racines de l’algèbre so(2l + 1).
e. Une base de racines simples est donnée par αi = ei − ei+1 , i = 1, · · · , l − 1, et αl = el . Expliquer pourquoi
les racines
X
ei = αk , 1 ≤ i ≤ l,
i≤k≤l
X
ei − ej = αk , 1 ≤ i < j ≤ l, (3.88)
i≤k<j
X X
ei + ej = αk + 2 αk , 1 ≤ i < j ≤ l,
i≤k<j j≤k≤l
)
h. Le groupe de Weyl est le produit (“semi-direct”) W ≡ Sl n (Z2 )l , qui agit sur les ei (et donc sur les poids
et racines) par permutation et par changements de signe indépendants ei 7→ (±1)i ei . Quel est son ordre ? Dans
le cas de B2 , dessiner la première chambre de Weyl. (Rép. 2l .l!) (Rép. la permutation et les changements
de signe de e1 et e2 correspondent bien à des (produits de) réflexions dans les ”plans” orthogonaux à α1 et α2 ;
ils ne modifient pas le dessin de la fig 1 du cours. Ordre |W | = 2l l!. Pour B2 , |W | = 8, la première chambre de
Weyl est l’octant compris entre α1 + α2 et α1 + 2α2 . )
Pi Pl
i. Montrer que les vecteurs Λi = j=1 ej , i = 1, · · · , l − 1, Λl = 21 j=1 ej sont les poids fondamentaux.
h α ,Λ i
(Rép. On vérifie 2 h αi1 ,αji i = δij )
j. Calculer en utilisant la formule de Weyl : dim(Λ) = α>0 h Λ+ρ,α i
Q
h ρ,α i la dimension des 2 représentations
fondamentales de B2 et celle de poids le plus haut 2Λ2 . Au vu de ces dimensions, à quoi correspondent ces
représentations de SO(5) ? (Rép. Dans le cas de B2 , Λ1 = e1 , Λ2 = 12 (e1 + e2 ), ρ = 3e1 + e2 , racines positives
∆+ = {e1 , e2 , e1 ± e2 }, dim(Λ1 ) = 5, dim(Λ2 ) = 4, dim(2Λ2 ) = 10, ce sont les représentations vectorielle,
spinorielle et adjointe, respectivement, de SO(5). Noter que 2Λ2 = α1 + 2α2 est la plus haute racine.)
k. Dessiner sur un même dessin les racines et les premiers poids de so(5).
2. G2
Dans l’espace R2 , on considère trois vecteurs e1 , e2 , e3 de somme nulle, h ei , ej i = δij − 31 , puis on construit
les 12 vecteurs
a. Que peut-on dire alors de la dimension de l’algèbre G2 ? (Rép. Dimension de G2 = rang+ nombre total
de racines = 12+2=14.)
b. Montrer que α1 = e1 −e2 et α2 = −2e1 +e2 +e3 sont deux racines simples, en accord avec le diagramme de
Dynkin de G2 donné dans le cours. Calculer la matrice de Cartan. (Rép. On calcule h α1 , α1 i = 2,!h α2 , α2 i = 6,
2 −1
h α1 , α2 i = −3, en accord avec le diagramme de Dynkin et la matrice de Cartan C = .)
−3 2
c. Que sont les racines positives ? Calculer le vecteur ρ, demi-somme des racines positives. (Rép. ∆+ =
{α1 , α2 , α1 + α2 , 2α1 + α2 , 3α1 + α2 , 3α1 + 2α2 }. ρ = 5α1 + 3α2 )
d. Quel est le groupe d’invariance du diagramme des racines ? Montrer qu’il est d’ordre 12 et que c’est le
groupe de Weyl de G2 . Dessiner la première chambre de Weyl. (Rép. groupe diédral D6 d’ordre 12.)
e. Vérifier que les poids fondamentaux sont
f. Que sont les dimensions de représentations fondamentales ? (Rép. dim(Λ1 ) = 7, dim(Λ2 ) = 14. La
représentation (Λ2 ) est l’adjointe. Noter que là encore, Λ2 = 3α1 + 2α2 est la plus haute racine.)
g. Dans les deux cas de B2 et G2 , on constate que le poids le plus haut de la représentation adjointe est
donné par la racine la plus haute. Expliquer pourquoi cela est vrai en général. (Rép. Les racines sont les poids
de la représentation adjointe. Le poids le plus haut de la représentation adjointe est donc la racine la plus
haute.)
1. Montrer, en étudiant le produit de deux tenseurs de rang (p, 0) et (0, m) et en séparant les termes de trace
(contenant un δji entre des indices supérieur et inférieur) que (p, 0) ⊗ (0, m) = ((p − 1, 0) ⊗ (0, m − 1)) ⊕ (p, m)
et donc que
d(p, m) = d(p, 0)d(0, m) − d(p − 1)d(0, m − 1) .
[Les tenseurs de l’espace (p, 0) ⊗ (0, m) sont des tenseurs de rang (p, m) complètement symétriques dans
leurs p indices supérieurs, complètement symétriques dans leurs m indices inférieurs, mais a priori ayant des
i ···i
traces quelconques entre indices supérieurs et inférieurs. On veut montrer qu’on peut écrire tout tenseur tj11 ···jpm
de cet espace comme somme d’un tenseur de mêmes symétries et de trace nulle et d’un tenseur à trace, c’est-
i ···i Pm Pp i i ···ibq ···ip
à-dire de la forme vj11 ···jpm := n=1 q=1 δjqn u 1 c où le chapeau au dessus d’un indice veut dire qu’on
j1 ···jn ···jm
a omis l’indice et u est un tenseur à déterminer, complètement symétrique dans ses p − 1 indices supérieurs,
complètement symétrique dans ses m indices inférieurs, donc dans l’espace (p − 1, 0) ⊗ (0, m − 1). On veut donc
i ···i
écrire t = [t − v] + v et on va déterminer u en imposant que δij11 [t − v]j11 ···jpm = 0. (En raison des symétries de t et v
cela implique que toutes les traces entre un indice supérieur et un inférieur sont nulles.) Il est instructif de traiter
d’abord le cas p = m = 2. On trouve en prenant la trace de [t − v] avec δij11 que 0 = tii i2 i2 i
ij2 − (3 + 1 + 1)uj2 − δj2 ui ,
2
j2 ij
puis en prenant une nouvelle trace par δi2 que 8uii = tij ce qui, reporté dans l’équation précédente permet
de déterminer uij . Le cas général est un peu pénible à écrire, mais on voit bien qu’au bout d’un nombre fini
d’opérations (en nombre égal à inf(p, m)), on aura déterminé complètement u, ce qui achève la démonstration
de ce point. Le calcul de la relation entre les dimensions de ces espaces de tenseurs en découle alors. ]
2. Montrer par un calcul semblable à celui de SU(2) que
1
d(p, 0) = d(0, p) = (p + 1)(p + 2) .
2
3. En déduire l’expression de d(p, m) et comparer à(3.64).
et on convient d’ordonner les paires (ij) ou (kl) selon l’ordre lexicographique 11, 12, 21, 22.
(a) Montrer que le produit de deux telles matrices satisfait
(A ⊗ B) · (C ⊗ D) = (A · C) ⊗ (B · D) .
(Rép. ((A ⊗ B) · (C ⊗ D)ij;kl = Aim Bjn Cmk Dnl = (A.C)ik (BD)jl = ((AC) ⊗ (BD))ij;kl .)
(b) En déduire une expression du commutateur [A ⊗ B, C ⊗ D] en termes des commutateurs [A, C] et
[B, D] (avec des coefficients qui peuvent encore impliquer les matrices A, · · · , D.
(Rép. [A ⊗ B, C ⊗ D] = AC ⊗ BD − CA ⊗ DB = [A, C] ⊗ BD + CA ⊗ [B, D] = AC ⊗ [B, D] +
[A, C] ⊗ DB)
2. On considère alors les 3 matrices de Pauli σa , a = 1, 2, 3 et la matrice identité I en dimension 2. On
forme les 10 matrices
Aa = σa ⊗ I, Ba = σa ⊗ σ1 , Ca = σa ⊗ σ3 , D = I ⊗ σ2 .
La physique des particules va nous offrir un terrain de choix pour illustrer les différentes
manifestations de symétries en physique. Nous ne nous occuperons dans ce chapitre et le suivant
que de “symétries internes”, excluant les symétries d’espace-temps.
Nous allons examiner tour à tour différents types de symétries et leurs réalisations, comme
symétrie exacte ou brisée explicitement, spontanément ou par des anomalies quantiques. Nous
consacrerons pas mal d’attention au groupe de saveur SU(3).
Dans une théorie quantique, selon le théorème de Wigner, on suppose que cette transfor-
mation est aussi réalisée sur les états de l’espace de Hilbert par un opérateur unitaire U (g) ; en
tant qu’opérateur, φ(x) 7→ U (g)φ(x)U † (x).
Cette transformation peut être une symétrie de la dynamique, auquel cas U (g) commute
avec l’hamiltonien du système, ou dans le langage lagrangien, elle laisse le lagrangien invariant
et donne donc naissance à des courants de Noether jiµ de divergence nulle et à des charges
R
conservées Qi = dx ji0 (x, t), i = 1, · · · , dim G. Ces charges agissent sur les champs comme
générateurs infinitésimaux, classiquement au sens du crochet de Poisson, {Qi , φ(x)}δαi = δφ(x),
et si tout se passe bien dans la théorie quantique, comme opérateurs dans l’espace de Hilbert
dotés de relations de commutation avec les champs [Qi , φ(x)]δαi = −i~δφ(x) et entre eux
[Qi , Qj ] = iCijk Qk . Une question importante va en effet être de savoir si une symétrie apparente
au niveau classique, disons sur le lagrangien, est bien réalisée dans la théorie quantique.
• Un exemple de symétrie exacte est fourni par l’invariance de groupe U(1), associé à la conser-
vation de la charge électrique. Un champ portant une charge électrique q (fois |e|) est un champ
complexe, il se transforme sous l’action du groupe U(1) selon la représentation irréductible
indexée par l’entier q
φ(x) 7→ eiqα φ(x) ; φ† (x) 7→ e−iqα φ† (x) .
S’il y a invariance (du lagrangien) quand tous les champs se transforment ainsi, on a alors
un courant de Noether j µ (x), somme des contributions des différents champs chargés, de di-
vergence nulle, ∂µ j µ (x) = 0, et la charge associée Q est conservée. La théorie quantique est
l’électrodynamique quantique, et on y démontre que la symétrie classique par le groupe U(1)
ainsi que la conservation du courant (et l’invariance de jauge) sont bien préservées par la quan-
tification et en particulier par la renormalisation, par exemple que toutes les charges électriques
se renormalisent de la même façon, cf cours de Théorie Quantique des Champs.
D’autres invariances et lois de conservation de nature similaire sont celles associées aux
charges baryoniques ou leptoniques, conservées (jusqu’à plus ample informé . . .).
• Une symétrie peut aussi être brisée explicitement. Par exemple le lagrangien contient des
termes non invariants sous l’action de G. Dans ce cas, les courants de Noether ne sont pas
conservés, mais leur divergence s’écrit
∂L(x)
∂µ jiµ (x) =
. (4.2)
∂αi
Nous verrons plus bas avec SU(3) un exemple de symétrie brisée (ou approchée).
Certains types de brisures, dites “douces” (soft), sont telles que la symétrie est restaurée à courte distance
ou haute énergie. C’est par exemple le cas de l’invariance d’échelle (par dilatations d’espace-temps), brisée par
la présence de toute échelle de masse dans la théorie, mais restaurée –de façon un peu subtile– à courte distance,
cf. l’étude du groupe de renormalisation dans les cours de théorie des champs.
• Un mécanisme plus subtil de brisure de symétrie est celui de brisure spontanée de symétrie.
On appelle ainsi les situations où l’état fondamental du système ne possède pas une symétrie
apparente sur le lagrangien. L’exemple le plus simple présentant ce phénomène est celui d’un
système classique à un degré de liberté décrit par le potentiel “à double puits” de la Fig. 1(a).
Bien que le potentiel exhibe une symétrie Z2 manifeste par x → −x, le système choisit un état
fondamental dans l’un des deux minima du potentiel, ce qui brise la symétrie. Ce mécanisme
joue un rôle fondamental en physique, avec des manifestations dans des situations très variées,
de la matière condensée –ferromagnétisme, superfluidité, supraconductivité . . .– à la physique
des particules –symétrie chirale, phénomène de Higgs– et à la cosmologie.
. Exemple. Brisure spontanée du modèle O(n)
Le lagrangien du “modèle O(n)” bosonique (minkovskien, ici), pour un champ φ = {φi } réel à
V(x) V(x)
x x
!a a
(a) (b)
n composantes,
1 1 λ 2 2
L = (∂φ φ)2 − m2 φ2 − (φ φ) (4.3)
2 2 4
est invariant sous l’effet des rotations de O(n). Le courant de Noether jµa = ∂µ φi (T a )ij φj (avec
T a antisymétrique réelle) a une divergence nulle, ce qui implique la conservation d’une “charge”
etc. Le minimum du potentiel correspond à l’état fondamental, alias le vide, de la théorie. Si
le paramètre m2 est choisi négatif, le minimum du potentiel V = 12 m2φ2 + λ4 (φ φ2 )2 n’est plus en
φ2 = 0 mais en une certaine valeur v 2 de φ2 telle que −m2 = λv 2 , cf Fig. 1(b). Le champ φ
“choisit” spontanément une direction n̂ (n̂2 = 1) dans l’espace interne, dans laquelle sa valeur
moyenne dans le vide (“vev” dans le jargon franglais) est non nulle
h 0|φ
φ|0 i = vn̂ . (4.4)
Cette “vev” brise le groupe d’invariance G = O(n) de départ en son sous-groupe H qui laisse
invariant le vecteur h 0|φ φ|0 i = vn̂, soit un groupe isomorphe à O(n − 1). Que cette valeur
moyenne dans le vide d’un champ non invariant par le groupe soit non nulle, h 0|φ φ|0 i =
6 0, est le
signal que le vide n’est pas invariant : on est bien dans un cas de symétrie brisée spontanément.
C’est le mécanisme à l’œuvre dans un ferromagnétique à basse température, par exemple, où
l’aimantation non nulle signale la brisure spontanée de la symétrie d’isotropie spatiale.
Exercice (cf cours de F. David) : Posant φ = (v+σ)n̂+π π , où π désigne les n−1 composantes du
champ φ orthogonales à h φ i = vn̂, calculer les termes de V (σ, π ) linéaires et quadratiques dans
les champs σ et π ˜ ; vérifier que le terme linéaire en σ s’annule (minimum du potentiel), que σ
a un terme de masse non nul, mais que les π sont de masse nulle, ce sont les bosons de Nambu–
Goldstone de la symétrie brisée spontanément. Il s’agit là d’un phénomène général : toute
symétrie continue brisée spontanément s’accompagne de l’apparition d’excitations de masse
nulle en nombre égal à celui des générateurs de la symétrie brisée (théorème de Goldstone).
Plus précisément quand un groupe G se brise spontanément en un sous-groupe H (le groupe de
symétrie résiduelle, groupe d’invariance du fondamental), il apparaı̂t un nombre d(G) − d(H)
de bosons de Goldstone de masse nulle. Dans l’exemple précédent, G = O(n), H = O(n − 1),
d(G) − d(H) = n − 1.
Donnons une démonstration simple de ce théorème dans le cas d’une théorie lagrangienne des champs. On
écrit L = 21 (∂φ)2 − V (φ) avec des notations très génériques, φ désigne un ensemble de champs {φi } sur lequel
agit un groupe de transformations G. Le potentiel V est supposé invariant sous l’action de transformations
infinitésimales δ a φi , a = 1, · · · , dim G. Par exemple pour des transformations linéaires : δ a φi = Tija φj . On a
donc
∂V (φ(x)) a
δ φi (x) = 0 .
∂φi (x)
Dérivons cette équation par rapport à φj (x) (en omettant l’argument x partout)
∂V ∂δ a φi ∂2V a
+ δ φi = 0
∂φi ∂φj ∂φi ∂φj
1 ∂2V
V (φ) = V (v) + ϕi ϕj + · · ·
2 ∂φi ∂φj φ=v
et les masses des champs ϕ se lisent alors sur la forme quadratique. Or (4.5) nous apprend que la “matrice de
2
masse” ∂φ∂i ∂φV
j
|φ=v a autant de “modes zéros” (vecteurs propres de valeur propre nulle) qu’il y a de variations
indépendantes δ a vi 6= 0. Si H est le groupe d’invariance de v, δ a vi 6= 0 pour les générateurs de G qui ne sont
pas générateurs de H, et il y a donc bien dim G − dim H modes de masse nulle, cqfd.
où ψ = {ψα }α=1,··· ,N est un vecteur à N composantes qui sont des champs de 4-spineurs. Noter
l’absence de terme de masse ψ̄ψ. Ce lagrangien est invariant sous l’action des deux types de
transformations infinitésimales
1
2
(I− γ5 )ψ et de ψR := 12 (I + γ5 )ψ ; on se rappelle que (γ5 )2 = I, et que 21 (I ± γ5 ) sont donc
des projecteurs ; on a donc ψ̄L = 12 ψ̄(I + γ5 ), etc, et
type qu’on vient d’étudier : un courant axial de divergence classiquement nulle peut acquérir par un “effet à
une boucle” une divergence ∂µ J5µ 6= 0. Dans le cas où le courant “anormal” est le courant de Noether d’une
symétrie classique interne, cette symétrie est brisée par l’anomalie quantique, ce qui peut donner lieu à des
effets physiques intéressants (cf. discussion de la désintégration π 0 → γγ, par exemple dans [IZ] chap 11). Mais
dans une théorie comme une théorie de jauge où la conservation du courant axial est cruciale pour assurer la
cohérence –renormalisabilité, unitarité–, l’anomalie constitue un danger potentiel qu’il faut contrôler. C’est ce
qui se produit dans le Modèle Standard, et nous y reviendrons au chap. 5. Un autre exemple est fourni par
l’invariance par dilatation d’une théorie de masse nulle, cf l’étude du groupe de renormalisation dans le cours
de F. David.
Y Y
0 + *0 *+
K K K K
1 1
!
K K0 K *!
K *0
!1 !1
Ces lois de conservation et différentes propriétés des mésons et baryons découverts alors,
en particulier leur organisation en “octets”, ont conduit au début des années 60 Gell-Mann
et Ne’eman à postuler l’existence d’un groupe SU(3) de symétrie approchée des interactions
fortes. Les nombres quantiques conservés et simultanément mesurables Iz et Y sont interprétés
comme les valeurs propres de deux charges commutantes, c’est-à-dire de deux éléments d’une
algèbre de Cartan de rang 2, et c’est l’algèbre de SU(3) qui est le candidat naturel, puisque
possédant une représentation de dimension 8 (cf exercice C du chap. 3).
Dans la représentation 3 de définition de SU(3), on construit une base de l’algèbre de Lie
su(3), faite de 8 matrices hermitiennes λa qui jouent le rôle des matrices de Pauli σi pour su(2).
Ces matrices sont normalisées par
tr λa λb = 2δab . (4.13)
λ
1 et λ2 ,λ4et λ5 , λ
6 et λ
7 ont les
mêmes éléments de matrice que σ1 et σ2 en position
. ∗ . . . ∗ . . .
∗ . ., . . . et . . ∗ respectivement, où les points signifient des zéros. Les deux
. . . ∗ . . . ∗ .
générateurs de l’algèbre de Cartan sont
1 . . 1 . .
1
λ3 = . −1 . λ8 = √ . 1 . . (4.14)
3
. . . . . −2
Les charges Iz et Y sont alors les représentants dans la représentation considérée de 21 λ3 et de
√1 λ8 .
3
√
[Expliquer le 1/ 3] Voir l’exercice B pour le changement de coordonnées de (λ1 , λ2 ) (indices
de Dynkin d’une représentation, à ne pas confondre avec les matrices précédentes !) en (Iz , Y ).
Les matrices λa satisfont des relations de commutation
avec les constantes de structure (réelles, complètement antisymétriques) fabc de l’algèbre su(3). Il est utile de
considérer aussi les anticommutateurs
4
{λa , λb } = δab + 2dabc λc . (4.16)
3
Y
Y
" 0 + ++
' ' ' '
n p 1
1
#!" #!0 #!+ Iz
! 0 0 + !1 1 1 3
# % # # 0
Iz 2 2
!"
!1 0 1 1 $ $ !0
2 !1
$! $0 "
!1 &
1+ 3+
Figure 4.3 – L’octet (J P = 2
) et le décuplet (J P = 2
) de baryons.
Grâce à (4.13), (4.15) et (4.16) peuvent se récrire comme tr ([λa , λb ]λc ) = 4ifabc , tr ({λa , λb }λc ) = 4dabc . On
trouve ces nombres f et d tabulés dans la littérature . . . mais on les recalcule aisément ! Attention, au contraire
de (4.15), la relation (4.16) et les constantes dabc (réelles, complètement symétriques) sont propres à la repré-
sentation de dimension 3.
Les hadrons s’organisent en représentations de SU(3). Chaque multiplet regroupe des parti-
cules de même spin J et parité P . C’est ainsi que deux octets de mésons de J P égal à 0− ou 1−
et qu’un octet et un “décuplet” de baryons de charge baryonique B = 1 sont aisément identifiés.
Contrairement à la symétrie d’isospin, la symétrie SU(3) 1 n’est pas une symétrie exacte des
interactions fortes. Les règles de conservation ou de sélection auxquelles elle donne lieu ne sont
qu’approchées.
À ce point, on peut s’interroger sur l’absence d’autres représentations de trialité nulle, telle
la représentation 27, ou de celles de trialité non nulle, comme la 3 et la 3̄. On y reviendra au §
4.2.5.
Concentrons nous sur les deux octets de baryons N = (N, Σ, Ξ, Λ) et de mésons pseudoscalaires
P = (π, K, η). Au vu de ce que l’on a dit au Chap. 3, § 3.4.2, à savoir que la représentation
adjointe est faite de tenseurs de rang (1, 1) et de trace nulle, il est naturel de regrouper les 8
champs associés à ces particules sous forme d’une matrice de trace nulle.
√1 π 0 − √1 η π+ K+
2 6
π− − √12 π 0 − √1 η K0 ,
Φ=
6 q (4.17)
− 0 2
K K̄ 3
η
1. dite “de saveur”, selon la terminologie moderne, mais appelée “symétrie unitaire” ou “voie octuple” à
l’époque de Gell-Mann et Ne’eman. . .
et
√1 Σ0 − √1 Λ Σ+ p
2 6
Σ− − √12 Σ0 − √1 Λ
Ψ= 6
n . (4.18)
q
Ξ− Ξ0 2
3
Λ
Pour s’assurer que les assignements de champs/particules aux différents éléments de matrice
sont corrects, il suffit de vérifier leurs nombres quantiques de charge et d’hypercharge. Les
générateurs de charge Q et d’hypercharge Y
2 0 0 1 0 0
1 1 1
Q = Iz + Y = 0 −1 0 Y = 0 1 0 (4.19)
2 3 3
0 0 −1 0 0 −2
Exercice : (i) sans aucun calcul, que doit valoir [Iz , Φ] ? Vérifier.
(ii) Calculer tr Φ2 ; en quoi le résultat justifie-t-il le choix de normalisation dans (4.17) ? Voir
aussi le Problème 2.c.
[Le lecteur attentif aura noté l’apparition d’un signe devant le Ξ0 dans (4.18) en comparaison de celui devant
le K̄ 0 . Cela est dû à la conjugaison des spineurs portés par les champs de fermions Ξ− et Ξ0 . . . .]
8 ⊗ 8 = 1 ⊕ 8 ⊕ 8 ⊕ 10 ⊕ 10 ⊕ 27 . (4.20)
(cette écriture omet les indices des spineurs de Dirac, l’éventuelle matrice γ5 etc). On préfère
souvent récrire ces deux termes en termes de leurs somme et différence, donc de tr Ψ̄[Φ, Ψ] et
tr Ψ̄{Φ, Ψ}, appelés terme f et terme d, par référence à (4.15) et (4.16).
• Autre question de même nature : quel est a priori le nombre d’amplitudes invariantes par
SU(3) dans la diffusion de deux particules des octets N et P : Ni + Pi → Nf + Pf ˜ ? (On
ne prend en compte que l’invariance par SU(3), en ne considérant pas d’éventuelles symétries
discrètes.) Il s’agit donc de chercher le nombre d’invariants dans la 4ème puissance tensorielle
de la représentation 8. Ou encore de façon équivalente, le nombre de fois où l’on trouve la même
représentation dans les deux produits 8 ⊗ 8 et 8 ⊗ 8. Si mi sont les multiplicités apparaissant
dans 8 ⊗ 8, soit m1 = 1, m8 = 2, etc, cf (4.20), ce nombre est i m2i = 8. Il y a donc huit
P
amplitudes invariantes. Autrement dit on peut écrire a priori l’amplitude de diffusion sous la
forme
h Nf Pf |T |Ni Pi i = (4.22)
X8
Ar (s, t) h (I, Iz , Y )(Nf ) , (I, Iz , Y )(Pf ) |r, (I, Iz , Y )(r) ih r, (I, Iz , Y )(r) |(I, Iz , Y )(Ni ) , (I, Iz , Y )(Pi ) i
r=1
Moments magnétiques
où ū et u0 sont des spineurs de Dirac décrivant respectivement les baryons B et B 0 ; k est
la quadri-impulsion transférée de B 0 à B. Fe est le facteur de forme électrique, si B = B 0 ,
Fe (0) = qB , charge électrique de B, tandis que Fm est le facteur de forme magnétique et FmBB (0)
donne le moment magnétique du baryon B. On veut calculer ces facteurs au premier ordre
électromagnétique et à l’ordre zéro dans les autres termes brisant éventuellement la symétrie.
D’un point de vue groupiste, l’élément de matrice h B|jµ (x)|B 0 i relève du théorème de
Wigner-Eckart : il y a deux façons de projeter 8 × 8 sur 8 (cf l’équ. (4.2) du chap 3), (ou
encore, il y a deux façons de construire un invariant avec 8 ⊗ 8 ⊗ 8). Il y a donc deux “éléments
de matrice réduits”, donc deux amplitudes indépendantes pour chacun des deux facteurs de
forme, complétées par des coefficients de Clebsch-Gordan de SU(3). Par un argument similaire
à (4.21), on vérifie que l’on peut écrire
0
BB
Fe,m (k 2 ) = Fe,m
(1)
(k 2 ) tr B̄QB 0 + Fe,m
(2)
(k 2 ) tr B̄B 0 Q
0 0 − 31
et tr B̄QB 0 signifie le coefficient de B̄B 0 dans la trace matricielle tr Ψ̄QΨ, et de même pour
tr B̄B 0 Q. Par exemple, le moment magnétique du neutron µ(n) est proportionnel au terme
(1) (2) (1,2)
magnétique en n̄n, soit − 31 (Fm + Fm ). Les quatre fonctions Fe,m sont inconnues (leur calcul
ferait appel à la théorie des interactions fortes) mais on peut les éliminer et trouver des relations
∗ ∗ −Y
où les ∗ désignent des générateurs changeant l’étrangeté qui ne nous concernent pas. (Noter que G11 = Iz + 12 Y =
0 0 0
Q, la charge électrique, est invariante par l’action (par commutation avec G) des générateurs X = 0 ∗ ∗
0 ∗ ∗
qui préservent la charge électrique.) On cherche deux combinaisons des générateurs Iz et Y se transformant
comme l’élément (3, 3) de cette matrice. L’une est bien sûr Y lui-même, l’autre est fournie par l’élément (3, 3)
du cofacteur de G, cofG33 = 14 Y 2 − Iz2 − 2I+ I− = 14 Y 2 − I~2 .
On obtient ainsi, pour toute représentation (tout multiplet), une formule de masse
1
M = m1 + m2 Y + m3 (I(I + 1) − Y 2 ) (4.27)
4
ce qui laisse trois constantes indéterminées (dépendant du multiplet). Par exemple pour l’octet
de baryons, on a quatre particules N , Σ, Λ et Ξ pour lesquelles (Y, I, I(I + 1) − 41 Y 2 ) =
(1, 12 , 21 ), (0, 1, 2), (0, 0, 0), (−1, 12 , 12 ) respectivement, et satisfaisant donc
1
MN = m1 + m2 + m3 MΣ = m1 + 2m3 (4.28)
2
1
MΛ = m1 MΞ = m1 − m2 + m3 . (4.29)
2
En éliminant les trois paramètres m1 , m2 , m3 entre ces quatre relations, on est amené à la règle
de somme
MΞ + MN 3MΛ + MΣ
= (4.30)
2 4
bien vérifiée expérimentalement : on trouve 1128,5 MeV/c2 au membre de gauche, 1136 MeV/c2
à celui de droite 2 . Pour le décuplet, vérifier que cette même formule donne des écarts de masse
égaux entre les quatre particules ∆, Σ∗ , Ξ∗ et Ω− . Cela a permis de prédire avec justesse
l’existence et la masse de cette dernière particule, ce qui a été considéré comme un des grands
succès de SU(3). Pour l’octet de mésons pseudoscalaires, la formule de masse implique (empi-
riquement) les carrés de masses
2
3m2η + m2π
mK = .
4
Quarks u d s ū d¯ s̄
1
Isospin Iz 2
− 12 0 − 12 1
2
0
1 1 1
Baryonic charge B 3 3 3
− 13 − 31 − 13
Strangeness S 0 0 −1 0 0 1
1 1
Hypercharge Y 3 3
− 32 1
−3 −3 1 2
3
2 1
Electric charge Q 3
−3 − 31 −32 1
3
1
3
Y Y
s
d 1
u
1 1
3 Iz !2 2 Iz
!1
1
2 2
2 u d
s !3
Le modèle des quarks interprète le singulet qui apparaı̂t dans le produit 3 × 3̄ comme un état lié η1 =
¯
(uū+dd+ss̄)
√
3
.Les particules physiquement observées η (masse 548 MeV) et η 0 (958 MeV) résultent d’un “mélange”
(c’est-à-dire une combinaison linéaire) de ces η1 et η8 dû aux interactions brisant SU(3). Exercice : compléter
sur la Fig. 4.3 les interprétations des baryons comme états liés des quarks en s’aidant des charges et nombres
quantiques.
(Ce lagrangien d’interaction a le défaut majeur de ne pas être renormalisable, un défaut que
vient corriger la théorie de jauge du Modèle Standard. À basse énergie, LFermi fournit toutefois
une bonne description de la physique, d’où le qualificatif d’“effectif”.) Le courant Jρ est la
somme d’une contribution leptonique et d’une hadronique
Le courant leptonique
lρ (x) = ψ̄e (x)γρ (1 − γ5 )ψνe + ψ̄µ (x)γρ (1 − γ5 )ψνµ [+ψ̄τ (x)γρ (1 − γ5 )ψντ ]
est la somme des contributions des familles de leptons, e, µ (et τ que nous omettrons en première
analyse). Le courant hadronique si on se borne aux deux premières familles s’écrit
hρ = cos θC h(∆S=0)
ρ + sin θC h(∆S=1)
ρ (4.35)
(∆S=0) (∆S=1)
suivant.) Enfin chacun des courants hρ , hρ est de la forme “V − A”, selon l’idée de
Feynman et Gell-Mann, c’est-à-dire est une combinaison de courants vectoriel et axial,
h(∆S=0)
ρ = (Vρ1 − iVρ2 ) − (A1ρ − iA2ρ ) (4.36)
h(∆S=1)
ρ = (Vρ4 − iVρ5 ) − (A4ρ − iA5ρ ) . (4.37)
Les courants vectoriels Vρ1,2,3 sont les courants de Noether d’isospin, les autres composantes de
Vρ ceux de la symétrie SU(3). On montre que leur conservation (exacte pour l’isospin, approchée
(∆S=0)
pour les autres) implique que dans l’élément de matrice Gh p|hρ |n i = ūp γρ (GV (q 2 ) −
GA (q 2 )γ5 )un mesuré dans la désintégration beta à transfert d’impulsion quasi-nul, le facteur de
forme vectoriel GV (0) = G. Au contraire, les courants axiaux ne sont pas conservés et GA (0)
est “renormalisé” (c’est-à-dire habillé) par les interactions fortes, GA /GV ≈ 1.22. Le courant
électromagnétique n’est autre que la combinaison jρ = Vρ3 + √13 Vρ8 . Dans le modèle des quarks,
ces courants hadroniques sont de la forme
λa λa
Vρa (x) = q̄(x)
γρ q(x) Aaρ (x) = q̄(x) γρ γ5 q(x) . (4.38)
2 2
Nous les retrouverons dans le Modèle Standard. [In rep 3, Iz = 21 λ3 , Y = √13 λ8 , Q = Iz + 12 Y =
λ3 √1 λ8 √1 V8 .
2 + 3 2
and accordingly J = V3 + 3
]
+
0 Ds
+
D D
0 +
K K
C
Y !
" "0 "+
! !c
I
z !
K K0
!
D !
D0
Ds
ce qui réduit son utilité. On peut toutefois récrire (4.12) sous la forme
1
Q = Y + Iz Y =B+S+C +B+T
2
avec les différents nombres quantiques contribuant additivement à l’hypercharge. La convention
est que la saveur d’un quark est nulle ou du même signe que sa charge électrique Q, voir Table
1. Ainsi C(c) = 1, B(b) = −1 etc. La Table 1 est donc à compléter comme suit
Quarks u d s c b t
1
Isospin Iz 2
− 12 0 0 0 0
1 1 1 1 1 1
Charge baryonique B 3 3 3 3 3 3
Étrangeté S 0 0 −1 0 0 0
Charme C 0 0 0 1 0 0
Beauté B 0 0 0 0 −1 0
Vérité T 0 0 0 0 0 1
1 1
Hypercharge Y 3 3
− 32 4
3
− 32 4
3
2
Charge électrique Q 3
− 13 − 31 2
3
− 31 2
3
sa charge Q = 1 et Iz = 21 , conduit à une valeur en accord avec l’expérience. Les quarks (u, d, s) avec les valeurs
Q = ( 23 , 13 , − 31 ) et Iz = ( 12 , − 12 , 0) conduisant à un résultat trois fois trop petit, que la multiplicité de couleur
vient corriger. [ibidem pour R = (e+ e− → hadrons)/(e+ e− → µ+ µ− )]
Selon l’hypothèse de confinement des quarks, seuls les états de la représentation 1 de SU(3)c
sont observables. Les autres états, dits “colorés”, sont liés de façon permanente au sein des
hadrons. Cela s’applique aux quarks, mais aussi aux gluons, des particules vectorielles (spin
1) se transformant selon la représentation 8 de SU(3)c , dont l’existence est requise par la
construction de la théorie de jauge des interactions fortes, la chromodynamique quantique, voir
Chap. 5.
Pour être plus précis, l’hypothèse de confinement s’applique à température nulle ou faible, la libération des
quarks et gluons pouvant se produire dans la matière hadronique sous haute température ou pression (au sein
du “plasma de quarks et gluons”
Le modèle des quarks avec son groupe de couleur SU(3)c est maintenant considéré comme
partie intégrante de la chromodynamique quantique. Les six saveurs de quarks sont regroupées
en trois “générations”, (u, d), (c, s), (t, b), qui sont en correspondance avec trois générations
de leptons, (e− , νe ), (µ− , νµ ), (τ − , ντ ). Cette correspondance est importante pour la cohérence
du modèle standard (compensation des anomalies), voir chap. suivant.
1 λ
L = ψ̄R i/ ∂ ψL + g(ψ̄L W ψR + ψ̄R W † ψL ) + LK − m2 det W − (det W )2
∂ ψR + ψ̄L i/
2 4
où LK est le terme cinétique des champs (σ, π ). On peut donner à ce terme la forme LK = 12 (det ∂0 W −
P3
i=1 det ∂i W ) (d’allure un peu étrange, mais bel et bien invariant de Lorentz !).
2. Montrer que L est invariant par les transformations de SU(2) × SU(2) avec ψL → U ψL , ψR → V ψR , à
condition que W se transforme d’une façon qu’on précisera. Justifier l’assertion faite au § 4.1.2 : ψL , ψR et W
se transforment respectivement par les représentations ( 12 , 0), (0, 21 ) et ( 12 , 21 ).
3. Si le champ W acquiert une vev v, par exemple selon la direction de σ, h σ i = v, montrer que le champ
ψ acquiert une masse M = −gv
C. Formule de Gell-Mann–Okubo
Compléter et justifier tous les arguments esquissés aux § 4.2.2, 4.2.3 et 4.2.4. En particulier vérifier que la
formule (4.27) conduit bien pour l’octet de baryon à la règle (4.30), et pour le décuplet, à des écarts de masse
constants.
D. Comptage d’amplitudes
Combien d’amplitudes indépendantes sont nécessaires pour décrire la diffusion BD → BD, où B et D décrivent
l’octet et le décuplet de baryons ?
Problèmes
1. Couplages à quatre champs invariants par SU(3)
On considère une matrice A, hermitienne, 3 × 3 et de trace nulle.
a. Montrer que l’équation caractéristique
1
A3 − (tr A)A2 + (tr A)2 − tr A2 A − det A = 0
2
implique une relation entre tr A4 et (tr A2 )2 .
b. Si le groupe SU(3) agit sur A par A → U AU † , montrer que toute somme de produits de traces de
puissances de A est invariante. On appelle une telle somme “polynôme invariant en A”. Combien y-a-t-il de tels
polynômes invariants de degré 4 en A et linéairement indépendants ?
P4
c. On “polarise” alors l’identité trouvée en a., c’est-à-dire qu’on écrit A = i=1 xi Ai avec 4 matrices Ai du
type précédent et 4 coefficients xi arbitraires, et que l’on identifie le coefficient de x1 x2 x3 x4 . Montrer que l’on
obtient une identité de la forme (identité de Burgoyne)
X X
tr (AP 1 AP 2 AP 3 AP 4 ) = a tr (AP 1 AP 2 ) tr (AP 3 AP 4 ) (4.40)
P P
avec des sommes sur les permutations P de 4 éléments et un coefficient a qu’on déterminera. Combien de termes
distincts apparaissent dans chacun des membres de cette identité ?
d. Combien de polynômes de degré 4 quadrilinéaires en A1 , · · · , A4 , invariants par l’action de SU(3) Ai →
U Ai U † et linéairement indépendants peut-on écrire ? Pourquoi l’identité (4.40) est-elle utile ?
b. En utilisant les résultats du Problème 1., écrire la forme la plus générale du lagrangien de degré inférieur
ou égal à 4 et pair en Φ, invariant par SU(3).
c. On écrit alors chaque champ complexe en distinguant sa partie réelle et sa partie imaginaire, par exemple
K + = √12 (K1 − iK2 ), K − = √12 (K1 + iK2 ), et de même avec K 0 , K̄ 0 et avec π ± . Calculer tr Φ2 avec cette
paramétrisation et montrer qu’on obtient une forme quadratique simple dans les 8 composantes réelles. Quel
est le groupe d’invariance G de cette forme quadratique ? Ce groupe est-il un sous-groupe de SU(3) ?
d. En déduire que tout lagrangien de degré 4 en Φ invariant par SU(3) est en fait invariant par ce groupe
G.
Question préliminaire.
Étant donné un espace vectoriel E de dimension d, on note E ⊗ E l’espace des tenseurs de rang 2 et (E ⊗ E)S ,
resp. (E ⊗ E)A , l’espace des tenseurs de rang 2 symétriques, resp. antisymétriques, appelé encore produit
tensoriel (anti)symétrisé. Quelle est la dimension des espaces E ⊗ E, (E ⊗ E)S , (E ⊗ E)A ? (Rép. d2 , d(d + 1)/2,
d(d − 1)/2 )
On fait l’hypothèse que SU(3) est une symétrie exacte des interactions fortes, et on se propose d’étudier les
différences de masses dues aux effets électromagnétiques.
a. Combien y a-t-il de différences de masses indépendantes entre baryons de mêmes nombres quantiques I
+
et Y mais de charges Q (ou de composantes Iz ) différentes, dans l’octet de baryons J P = 12 ˜ ? (Rép. 4, par
ex Mn − Mp , MΣ− − Mσ0 , MΣ+ − Mσ0 , et MΞ− − MΞ0 . )
On admettra que ces effets électromagnétiques résultent de perturbations du second ordre dans le lagrangien
Lem (x) = −qj µ (x)Aµ (x). Si |B i est un état de baryon, il faudrait donc calculer
Z
δMB = h B|( d4 x Lem )2 |B i .
Faute de savoir calculer cet élément de matrice, on veut calculer le nombre d’amplitudes indépendantes y
contribuant.
b. Expliquer pourquoi ce calcul amène à compter les invariants apparaissant dans le produit tensoriel de
quatre représentations 8. Au vu des calculs effectués en cours, que devrait être ce nombre ? (Rép. Selon le
théorème de Wigner-Eckart, il y a autant d’amplitudes indépendantes que d’invariants dans le produit tensoriel
8⊗4 ; si mi sont les multiplicités apparaissant dans 8 ⊗ 8, soit m1 = 1, m8 = 2, etc, il semblerait que ce nombre
est i m2i = 8. )
P
R R
c. Mais attention ! le produit des deux lagrangiens est symétrique. En ce qui concerne le produit Lem Lem ,
il faut donc décomposer en représentations irréductibles le produit tensoriel symétrisé (8⊗8)S . Utiliser le résultat
de la Question préliminaire pour calculer le nombre de tenseurs indépendants symétriques de rang 2 dans la
représentation 8. Montrer que ce nombre est compatible avec la décomposition qu’on admettra
(8 ⊗ 8)S = 1 ⊕ 8 ⊕ 27 .
(Rép. Il y a 12 8 × 9 = 36 tenseurs de rang 2 symétriques dans leurs indices prenant 8 valeurs. Ce nombre
36 = 1 + 8 + 27, ok. )
d. i) Quel est alors le nombre d’amplitudes invariantes contribuant à δMB ? (Rép. Il y a m1 + m8 + m27 =
1 + 2 + 1 = 4 amplitudes indépendantes. )
d. ii) Quel est le nombre d’amplitudes invariantes contribuant à δMB − δMB 0 pour deux hadrons B et B 0
de mêmes nombres quantiques, comme discuté au a. ? (Rép. La représentation identité contribue également
à tous les δMB donc ne contribue pas aux écarts δMB − δMB 0 . Il n’y a que trois amplitudes indépendantes
contribuant à ces écarts. )
d. iii) Dans l’esprit de ce qui a été fait en cours sur les amplitudes contribuant aux moments magnétiques,
pouvez-vous écrire une base d’invariants en termes des matrices Ψ, Ψ̄ et Q ? (Rép. Les 4 amplitudes indépendantes
peuvent être écrites par exemple comme tr B̄Q2 B, tr B̄QBQ, tr B̄BQ2 et tr B̄B ; en fait 3 seulement contri-
buent aux écarts de masse puisque la représentation 1 ne contribue pas à un écart (ou encore B̄B est la forme
diagonale identité).)
e. i) Montrer a priori que le nombre d’amplitudes calculé à la question d. ii) implique une relation entre les
écarts de masse électromagnétiques. (Rép. Il y a trois amplitudes contribuant à quatre écarts, d’où une relation
entre ces écarts.)
e. ii) Calculer alors ∆em M = αtr B̄Q2 B + βtr B̄BQ2 + γtr B̄QBQ, (l’usage de Maple ou de Mathematica
peut aider. . .), identifier dans cette expression les coefficients ∆em Mp de p̄p, ∆em Mn de n̄n, etc, et vérifier la
relation
Les valeurs expérimentales sont Mn = 939, 56 MeV/c2 , Mp = 938, 27 MeV/c2 , MΞ− = 1321, 71 MeV/c2 , MΞ0 =
1314, 86 MeV/c2 , MΣ− = 1197, 45 MeV/c2 , MΣ0 = 1192, 64 MeV/c2 , MΣ+ = 1189, 37 MeV/c2 . Calculer les
valeurs des deux membres de la relation (R). Commenter. (Rép. Le membre de gauche vaut 1321, 71−1314, 86 =
6, 85 MeV/c2 , celui de droite 1197, 45 − 1189, 37 + 938, 27 − 939, 56 = 8, 08 − 1, 29 = 6, 79 MeV/c2 . On voit que
les prédictions de SU(3) sont vérifiées à 1% près, ce qui est très remarquable. )
f. Octet des mésons pseudoscalaires. Pourrait-on raisonner de façon analogue avec les mésons pseudosca-
laires ? (Rép. Dans ce cas on n’a que 3 amplitudes indépendantes, dont 2 seulement contribuent aux écarts,
tr Φ2 Q2 et tr (ΦQ)2 , mais seulement deux différences de masses électromagnétiques indépendantes mπ+ −mπ0 =
mπ− − mπ0 , mK + − mK 0 = mK − − mK 0 en utilisant l’égalité des masses d’une particule et de son antiparticule
(invariance CPT). On n’a plus de relation entre ces écarts. . .)
g. Quid des écarts électromagnétiques au sein du décuplet ( 23 )+ ? (Rép. Il faut calculer le nombre d’invariants
dans 10 ⊗ 10¯ ⊗ (8 ⊗ 8)S . Mais 10 ⊗ 10
¯ = 1 ⊕ 8 ⊕ 27 ⊕ 64 et (8 ⊗ 8)S comme ci-dessus, donc 3 amplitudes dont seules
celles de la 8 et de la 27 contribuent au mass splitting, et on connaı̂t deux invariants, Q et Q2 se transformant
ainsi. Donc ∆mem = αQ + βQ2 . Vérification sur les masses expérimentales. . .)
Robert
Brout
Nicola
Cabbibo
François
Englert
Enrico
Fermi
Richard
Feynman
1928-‐2011
1935-‐2010
1932-‐
1901-‐1954
1918-‐1988
Murray
Gell-‐Mann
Sheldon
Glashow
Jeffrey
Goldstone
David
Gross
Peter
Higgs
Gerard
‘t
Hooft
1929-‐
1932-‐
1933-‐
1941-‐
1929-‐
1946-‐
Jean
Iliopoulos
Maurice
Lévy
Makoto
Kobayashi
Luciano
Maiani
Toshihide
Maskawa
Yoichiro
Nambu
1940-‐
1922-‐
1944-‐
1941-‐
1940-‐
1921-‐
Yuval Ne’eman H. David Politzer Alexander Polyakov Carlo Rubbia Abdus Salam Simon van der Meer
1925-‐2006
1949-‐
1945-‐
1934-‐
1926-‐1996
1925-‐2011
Martin Veltman Steve Weinberg Frank Wilczek Kenneth Wilson Chen Ning Yang Hideki Yukawa
1931-‐
1933-‐
1951-‐
1936-‐2013
1922-‐
1907-‐1981
Quelques-‐uns
des
physiciens
mentionnés
dans
la
deuxième
partie
de
ces
notes
Dψ(x) := (i/∂ − e/
i/ A)ψ(x)
se transforme comme ψ. La forme finie de ces transformations est aussi aisée à écrire
Aµ (x) →
7 Aµ (x) − ∂µ α(x)
ψ(x) 7 eieα(x) ψ(x) ,
→ (5.3)
ce qui montre bien que les transformations sont celles d’une version locale (dépendant de x)
du groupe U(1) ou R (voir ci-dessous). Les transformations globales correspondantes sont
celles qui conduisent à un courant de Noether conservé, lié à la conservation de la charge
électrique. Le lagrangien met aussi en évidence le “couplage minimal” du champ ψ au champ
électromagnétique 1 . Tout autre champ chargé de charge q se couple au champ électromagnétique
par un terme impliquant la “dérivée covariante” i∂µ − qAµ (x).
C’est par exemple le cas d’un champ φ de boson chargé, donc complexe, dont la contribution
au lagrangien s’écrit
qui est bien invariant sous φ(x) 7→ eiqα(x) φ(x), Aµ (x) 7→ Aµ (x) − ∂µ α(x).
Noter que si le champ A est couplé à plusieurs champs de charges q1 , q2 ,. . ., demander que le groupe de jauge
est U(1) (plutôt que R), c’est-à-dire identifier α(x) et α(x) + 2πx (x un réel donné), impose que xq1 , xq2 , · · · ∈ Z
et donc que les charges q1 , q2 ,. . . sont commensurables. Cela peut donc expliquer la quantification de la charge
électrique observée dans la nature.
A(x) = Aµ (x)dxµ .
ou encore, en composantes
Cette dérivée se transforme bien comme ψ, à l’instar du cas abélien, à condition qu’on impose
à Aµ de se transformer selon
Au terme ∂µ δαa (x) près, on voit que {Aaµ } se transforme bien selon la représentation adjointe
(dont les matrices sont (tc )ab = −Cbc a ).). Enfin un tenseur de champ se transformant de façon
covariante (c’est-à-dire sans terme inhomogène en ∂δαa (x)) peut être construit
ou en composantes
a
Fµν = ∂µ Aaν − ∂ν Aaµ − Cbc a Abµ Acν . (5.12)
a
δFµν (x) = Cbc a δαb (x)Fµν
c
(x) , (5.13)
ψ(x) →7 D(g(x))ψ(x)
a
Aµ = Aµ Ta → 7 D(g(x))(−∂µ + Aµ (x))D(g −1 (x)) , (5.14)
où D est la représentation portée par ψ, et pour la dérivée covariante agissant sur ψ on a
ou encore 3
Dµ 7→ D(g(x))Dµ D(g −1 (x)) . (5.16)
a
[Dµ , Dν ] = −Fµν := −Fµν Ta (5.17)
d’où il découle que Fµν (x) 7→ D(g(x))Fµν D(g −1 (x)), et qu’en particulier, dans la représentation
a
adjointe, la transformation finie de Fµν = Fµν ta est
“Pure jauge”
Si le tenseur Fµν s’annule dans le voisinage d’un point x0 , on peut écrire localement (c’est-à-dire
dans ce voisinage) Aµ (x) comme une “pure jauge”, c’est-à-dire
L’appellation “pure jauge” se justifie par le fait qu’un tel Aµ (x) = (∂µ g(x)) g −1 (x) est le trans-
formé de jauge d’un champ de jauge . . . nul ! Le ⇐ se démontre au prix d’une ligne de calcul,
pour le ⇒, voir huit lignes plus bas. . . Insistons sur le caractère local de cette propriété.
Un autre objet intéressant est l’élément du groupe attaché à une courbe C allant de x0 à x
Z
µ
γ(C) := P exp dx Aµ (x) (5.20)
C
où A = Aa ta est pris dans la représentation adjointe et où le symbole P signifie qu’une pa-
ramétrisation x(s) de la courbe ayant été choisie, les termes dans le développement de l’ex-
ponentielle sont ordonnés de droite à gauche selon les s croissants (cf le T -produit en théorie
quantique des champs). On montre que sous l’effet de la transformation de jauge (5.14)
Aµ (x) → g(x)(−∂µ + Aµ (x))g −1 (x), montrer que γ(C) → g(x + dx)γ(C)g −1 (x). Le résultat
pour une courbe finie s’ensuit en combinant ces éléments de courbe infinitésimaux.
Étant donné un objet, tel le champ ψ, se transformant selon une représentation D, le rôle de
γD (C) est de “transporter” ψ(x0 ) en un objet noté t ψ(x) se transformant comme ψ(x). Montrer
que pour un trajet infinitésimal (x, x + dx) la différence t ψ(x + dx) − ψ(x + dx) fait apparaı̂tre
de façon naturelle la dérivée covariante. [t ψ(x + dx) = (1 + dxµ Aµ )ψ(x), ψ(x + dx) = (1 + dxµ ∂µ )ψ(x)
donc t ψ(x + dx) − ψ(x + dx) = −dxµ (∂µ − Aµ )ψ = −dxµ Dµ ψ(x).]
Considérons alors le cas où x = x0 . La boucle C est fermée et γ(C) se transforme de façon
covariante, γ(C) 7→ g(x0 )γ(C)g −1 (x0 ). Examinons à nouveau le cas d’une boucle infinitésimale.
On montre alors que Z
1
γ(C) ≈ exp dxµ ∧ dxν Fµν , (5.22)
2 S
où l’intégrale s’effectue sur une surface infinitésimale S s’appuyant sur C.
Exercice : Démontrer cette assertion en considérant un circuit carré élémentaire s’étendant à
partir de x le long des axes de coordonnées µ et ν : (x → x + dxµ → x + dxµ + dxν →
x + dxν → x), et développer au second ordre en dx pour obtenir γ(C) ≈ 1 + dxµ dxν Fµν (sans
sommation sur µ, ν). Indication : la formule du commutateur du Chap. 1, (1.20), simplifie
beaucoup le calcul ! [On a en effet à calculer Uν−1 Uµ−1 (dx)Uν (dx)Uµ . A la contribution du commutateur
Uν−1 Uµ−1 Uν Uµ = 1 + dxµ dxν [Aν , Aµ ] s’ajoute les contributions des dx dans les U , soit (∂µ Aν − ∂ν Aµ )dxµ dxν . ]
Cela a une conséquence immédiate : si F = 0, tout γ(C) de la forme(5.20) n’est pas sensible
à de petites variations du contour C à extrémités x0 et x fixées et ne dépend donc que de x0 et
x. Le g(x, x0 ) := γ(C) qui en résulte satisfait (∂µ − Aµ )g(x, x0 ) = 0, (vérifier !), ce qui achève
la démonstration de (5.19).
Boucle de Wilson
Revenons au cas d’une boucle fermée C dans (5.20). Comme on vient de le noter, γ(C) se
transforme de façon covariante, γ(C) 7→ g(x0 )γ(C)g −1 (x0 ). Sa trace
I
W (C) = tr γ(C) = tr P exp dxµ Aµ (x) (5.23)
est donc invariante. Toute quantité physique doit être “invariante de jauge”, c’est-à-dire in-
variante par une transformation de jauge. C’est le cas de tr Fµν F µν , ψ̄i/∂ − A)ψ
/ etc. L’intérêt
de W (C) est d’être une quantité invariante non locale, dépendant du contour C. Noter qu’elle
dépend de la représentation dans laquelle on évalue A = Aa Ta . Cette boucle de Wilson a été
proposée par Wilson et Polyakov comme permettant la mesure du potentiel d’interaction entre
les particules se propageant le long de C, et comme fournissant donc un bon indicateur du
confinement. Voir plus bas au § 5.3.1, et voir le Problème I à la fin de ce chapitre pour une
version discrétisée de cette quantité.
de jauge, fibré vectoriel pour chacun des champs de matière comme ψ, au dessus de l’espace de base qui est
l’espace-temps. Le champ de jauge est une connexion sur le fibré, qui permet de définir un transport parallèle
de point à point. Le tenseur Fµν en est la courbure, ce qu’exprime (5.17) ou (5.22). Toutes ces notions sont
définies localement, dans un système de coordonnées locales (une carte), et les changements de carte implique
des transformations de la forme (5.14). Ce langage devient particulièrement utile quand on s’intéresse aux
propriétés topologiques (instantons etc) ou globales (problème de Gribov) des théories de jauge. Pour la simple
introduction aux propriétés de symétrie locale et à la construction perturbative du modèle standard, nous n’en
aurons pas besoin.
a p b a p b
! µ ! µ
c c
" "
r r
a p a p
! !
q q
µ µ
b b
Figure 5.1 – Quelques diagrammes à une boucle dans une théorie de jauge
est dégénérée, donc non inversible, ce qui est un reflet de l’invariance de jauge ; en conséquence,
le propagateur du champ Aµ n’est a priori pas défini. Il faut donc “fixer la jauge”, en imposant
une condition non-invariante de jauge, et la procédure de Faddeev et Popov, justifiée par leur
étude générale de la quantification des systèmes contraints, conduit via l’introduction de champs
supplémentaires à des règles de Feynman explicites, (voir par exemple [IZ, chap. 12] et les cours
du second semestre).
On démontre, et cela a été une étape décisive dans la construction du Modèle Standard 4 , que
la théorie de jauge ainsi quantifiée est renormalisable : toutes les divergences ultraviolettes ap-
paraissant dans les calculs de diagrammes de Feynman, peuvent, à tout ordre fini de la série des
perturbations, être absorbées dans une redéfinition des paramètres –couplages, normalisation
des champs, masses– du lagrangien. Cette procédure de renormalisation préserve l’invariance
de jauge.
Ainsi à l’ordre à une boucle, les diagrammes de la Fig. 5.1 ont des divergences qui peuvent
être absorbées dans un changement de la normalisation du champ Aµ (“renormalisation de
σ ∼ const. G2 s
où s est le carré de l’énergie dans le centre de masse. Mais ce comportement est en conflit avec des résultats
généraux basés sur l’unitarité qui prévoient que σ doit décroı̂tre dans chaque onde partielle comme 1/s. Une
√ 1
violation de l’unitarité du terme de Born est donc attendue à une énergie de l’ordre de s ∼ G− 2 ∼ 300 GeV.
Et la non-renormalisabilité de la théorie empêche d’améliorer ce terme de Born par le calcul de “corrections
radiatives”, c’est-à-dire de termes plus élevés de la série des perturbations.
L’idée est alors de regarder LFermi comme l’approximation d’une théorie où le courant chargé
J est couplé à un champ vectoriel chargé W de masse M , dans la limite de grande masse M 5 .
ρ
reliant le nouveau couplage g au couplage de Fermi. La théorie (5.27) avec son “boson in-
termédiaire” W , vecteur des interactions faibles, est-elle la bonne théorie des interactions
faibles ? En fait le propagateur du champ massif W est
gµν − kM
µ kν
2
−i 2 2
(5.29)
k −M
qui se comporte mal pour k >> M et rend à nouveau la théorie non-renormalisable : on n’a
fait que déplacer le problème. La solution vient d’une manière douce et subtile ( !) d’introduire
la masse du champ W , via un mécanisme de brisure spontanée de symétrie.
Le groupe SU(3) est celui de la couleur (cf chap. 4, § 4.3.2). Les champs de jauge Aµ portent
des indices de la représentation adjointe (de dimension 8). Les particules associées, ou gluons,
sont des particules de spin 1 et de masse nulle, jamais observées directement jusqu’à présent.
Les champs de gluons sont couplés aux degrés de liberté de couleur des champs fermioniques
de quarks, ψAi , qui portent un indice A de la représentation 3 (ou 3̄ pour les ψ̄) (et aussi un
indice de saveur i = u, d, s, c, b, t, sur lequel SU(3)c n’agit pas). La théorie ainsi définie est
la Chromodynamique Quantique (QCD dans l’acronyme anglais). Elle décrit la physique de
toutes les interactions fortes. Son lagrangien est du type (5.24), avec des masses fermioniques
dépendant de la saveur, engendrées par le secteur faible.
Liberté asymptotique
trouve 7
g4
∂ 11 4
β(g ) = −Λ g2 (Λ)|g0 = −2
2
C2 − Tf + O(g6 ) (5.33)
∂Λ (4π)2 3 3
Il apparaı̂t donc que cette fonction beta est négative au voisinage de g = 0, tant que le coefficient
11
C − 43 Tf > 0 (pas trop de champs de matière !), autrement dit que g = 0 est un point fixe
3 2
2 (λ)
attractif ultraviolet du groupe de renormalisation : dg d log λ
< 0 ⇒ g2 (λ) ∼ (b log λ)−1 → 0 quand
λ → ∞, avec b = coefficient du terme −g4 dans (5.33).
C’est la liberté asymptotique, une propriété fondamentale des interactions fortes.
Exercice : combien de triplets de quarks sont compatibles avec la liberté asymptotique de la
QCD ?
Cette théorie de jauge non abélienne est la seule théorie des champs locale et renormalisable à 4 dimensions
à posséder cette propriété de liberté asymptotique. Comme telle, elle est la seule compatible avec les résultats
des expériences de diffusion profondément inélastique de leptons sur des hadrons, qui révèlent une structure
interne de ces derniers faite de constituents ponctuels quasi-libres à très courte distance (cf les cours du second
semestre sur la chromodynamique quantique).
Ce groupe de jauge SU(3) est non brisé, ni explicitement, ni spontanément. Ceci est essentiel
pour la cohérence du scenario imaginé pour expliquer le confinement des quarks et gluons (cf
chap. 4, § 4.3.2.) : les particules non singulets du groupe de jauge sont réputées inobservables,
car soumises à des interactions d’intensité croissant avec la distance quand on cherche à les
séparer.
Cette propriété d’“esclavage infra-rouge” (c’est-à-dire à grande distance) est le pendant de celle de “liberté
asymptotique”, à courte distance. Elle montre que le phénomène de confinement est un phénomène de couplage
fort, par essence non-perturbatif, c’est-à-dire inaccessible aux calculs de la théorie des perturbations.
Une approche non-perturbative qui a fourni de nombreux résultats qualitatifs et quantitatifs est la discré-
tisation de la chromodynamique en une théorie de jauge sur un réseau. Cela a ouvert la voie à l’utilisation
de méthodes empruntées à la Mécanique Statistique des modèles sur réseau, analytiques (calculs de couplage
fort ou de haute température, méthode de champ moyen, . . .) ou numériques (Monte-Carlo). Le scenario de
confinement semble confirmé dans cette approche par l’étude de la valeur moyenne de la boucle de Wilson
définie plus haut (§ 5.1.2). Selon l’idée de Wilson et Polyakov, pour une boucle rectangulaire C de dimensions
T × R, T >> R, et portant la représentation σ du groupe de jauge, W (σ) (C) décrit la propagation pendant le
temps T d’une paire de particules statiques (de masse très grande), figées à une distance relative R. On cherche
à calculer le potentiel entre ces charges statiques
1
Vσ (R) = − lim log W (σ) (C) .
T →∞ T
Si la boucle de Wilson a une “loi d’aire”, log W (C) ∼ −κRT , le potentiel entre les charges statiques croı̂t
linéairement, V ∼ κR, ce qui est en accord avec l’idée de confinement. C’est ce qui se passe en général dans
une théorie de jauge sur réseau en couplage fort, voir le Problème I en fin de chapitre. Les calculs de Monte-
Carlo confirment que ce comportement persiste aux couplages faibles pertinents pour la théorie continue (le
couplage de la théorie sur réseau est le couplage effectif à l’échelle de la maille du réseau a, donc selon la liberté
asymptotique, g02 = g2 (Λ = 1/a) → 0), et permettent même de déterminer numériquement le coefficient κ, ou
tension de corde.
La QCD est toujours un sujet d’étude très actif. Les interactions fortes sont en effet omni-
présentes et l’observation de toute autre interaction, de tout autre effet, présuppose une connais-
sance aussi précise que possible de la contribution forte. Dans l’analyse des données de LHC
les calculs des contributions de QCD gardent une importance fondamentale : la “nouvelle phy-
sique” ne pourra être identifiée que si le fonds du Modèle Standard est parfaitement connu. De
plus, l’étude de l’hadronisation des quarks et gluons, de la diffusion profondément inélastique et
d’autres phénomènes hadroniques demeure un sujet très “chaud” et un point-clé où la théorie
se confronte à l’expérience.
Le groupe U(1)em de l’électromagnétisme va maintenant être identifié par les charges des
champs. C’est un “mélange” du facteur U(1) initial et d’un sous-groupe U(1) de SU(2). Ce
8. S. Glashow, A. Salam, S. Weinberg, prix Nobel 1979
9. En lire l’histoire dans [Link]
mélange est caractérisé par un angle θW , dit angle de Weinberg : si on note Bµ et Wµ les
champs de jauge des groupes U(1) et SU(2) respectivement, le champ électromagnétique est
Aem
µ = cos θW Bµ + sin θW Wµ3 , la combinaison orthogonale correspondant à un autre champ
vectoriel nommé Z 0 .
Examinons les termes de “courant neutre” couplant par exemple l’électron et son neutrino aux bosons
neutres W 3 et B. On les lit sur les dérivées covariantes (5.34) avec les nombres quantiques de la Table 1
1
i ēL (−g2 Wµ3 − g1 Bµ )γ µ eL + ēR (−2g1 Bµ )γ µ eR + ν̄e (g2 Wµ3 − g1 Bµ )γ µ νe
2
La rotation W 3 = cos θW Z 0 + sin θW A, B = − sin θW Z 0 + cos θW A doit être telle que la charge électrique e
(couplage au A) est la même pour eL et eR et nulle pour νe . Il vient
que l’on accompagne d’une transformation de jauge, ce qui fait disparaı̂tre les champs ξj et donne pour les
champs W et B la forme quadratique (termes de masse)
1 2
v [(g1 B − g2 W 3 )2 + g22 ((W 1 )2 + (W 2 )2 )]
L(2) =
8
p
C’est bien comme attendu la composante Z 0 = (g1 B − g2 W 3 )/ g12 + g22 qui devient massive, ainsi que W 1,2 ,
p
tandis que la combinaison orthogonale A = (g2 B + g1 W 3 )/ g12 + g22 demeure de masse nulle. On trouve
1 1
q
MW ± = vg2 MZ 0 = v g12 + g22 (5.36)
2 2
G g22
et en utilisant (5.35), la relation √
2
= 8MW 2 qu’on lit sur le lagrangien et la valeur expérimentale de e et de
G = 10−5 m2p
38 MW 38
MW ± ≈ GeV MZ 0 = ≈ GeV .
sin θW cos θW sin θW cos θW
Ces expressions subissent ensuite de petites corrections perturbatives. Enfin la masse du fameux boson de Higgs
ϕ n’est pas prédite par la théorie. Des expériences successives ont progressivement exclu des domaines de masses
de plus en plus étendus, en réduisant la “fenêtre” possible de 100–200 GeV à 120–130 GeV. Les résultats de
l’été 2012 ont finalement identifié une particule de masse 125.9 ± 0.4 GeV, et les déterminations de son spin,
de ses modes de désintégration, etc, semblent confirmer qu’il s’agit bien de la particule de Higgs attendue. Voir
les cours de P. Binétruy et P. Fayet au second semestre pour plus de détails.
Les “bosons intermédiaires” associés aux champs vectoriels massifs W ± et Z 0 ont été
découverts expérimentalement dès la fin des années 70 10 ; ils ont des masses MW ± = 80.4 GeV
et MZ 0 = 91.2 GeV compatibles avec une valeur de l’angle de Weinberg donnée par
1 X
L = − Fµν Fµν + ψ̄γ µ Dµ ψ + |DΦ|2 − V (Φ) + Higgs − fermions couplings , (5.38)
4 lef t et right
quarks & leptons
où Fµν désigne les trois tenseurs de champs de jauge A, W et A. Noter que l’invariance
SU(2) × U(1) interdit les couplages entre fermions gauches et droits (qui se transforment sous
des représentations différentes), et donc interdit des termes de masse. La seule échelle de masse
se trouve dans V (Φ), et ce sont le mécanisme de Higgs et le couplage du champ Φ aux fermions
–leptons et quarks– qui donnent lieu à l’apparition des masses de fermions et de (certains)
bosons-vecteurs. Ce couplage, dit de Yukawa, est de la forme générale, (écrite ici pour les
quarks),
e † uRj + h.c. ,
LY = −Yijd ψ̄Li .Φ dRj − Yiju ψ̄Li .Φ (5.39)
avec des matrices a priori arbitraires Yijd , Yiju : i, j = 1, 2, 3 sont des indices de génération, le
!
0†
e† = φ
point dénote le produit scalaire des doublets d’isospin Φ et Φ avec les doublets
−φ+†
des quarks ! ! ! ! !
ui u c t
ψLi = = , , .
di d s b
L L L L
10. Carlo Rubbia et Simon van der Meer, prix Nobel 1984
à la base couplée aux champs de jauge dans (5.38) : si (uL , cL , tL ) et (dL , sL , bL ) désignent
maintenant les états propres de masse, le courant hadronique chargé couplé au champ W + est
d
Jµ = (ūc̄t̄)L γµ M s (5.40)
b L
Vtd Vts Vtb s12 s23 − c12 c23 s13 eiδ −c12 s23 − s12 c23 s13 eiδ c23 c13
avec 4 angles δ et θij , (cij = cos θij et sij = sin θij ), et θ12 = θC = angle de Cabibbo.
Expérimentalement 0 θ13 θ23 θ12 π/2. La mesure précise des éléments de matrice
de M est actuellement l’objet d’une activité intense, en relation avec l’étude de la violation de
la symétrie CP (due en grande partie à la phase eiδ ) et des “oscillations de saveurs”.
C’est tout un cours qui serait nécessaire pour rendre compte des détails et des succès du
modèle standard, cf les cours du 2ème semestre. . .
5.4 Compléments
5.4.1 Modèle standard et au delà.
Le modèle standard est à la fois remarquablement vérifié et peu satisfaisant. En dehors de
la présence de neutrinos massifs, dont on est maintenant convaincu et qui nécessite de petits
amendements au lagrangien (5.38), on n’a à ce jour observé aucun désaccord significatif entre les
résultats expérimentaux et les prédictions du modèle. Les aspects non satisfaisants du modèle
standard sont pourtant nombreux : le nombre jugé excessif (une vingtaine) de paramètres libres
dans le modèle, le manque de “naturel” de la façon dont certains termes doivent être ajustés
de façon extrêmement fine ; la question du mécanisme B-E-H qui semble être confirmé par la
découverte du boson de Higgs, mais que certains physiciens considèrent comme une construction
ad hoc ; etc.
Il faut mentionner les tentatives d’améliorer le modèle standard en fusionnant les 3 groupes
de jauge au sein d’un plus grand groupe d’une théorie “grand-unifiée” (GUT en anglais ;-). On
y consacre le paragraphe suivant.
Les extensions les plus en vogue du modèle standard sont en définitive celles basées sur la
supersymétrie. Le “MSSM”, (“Maximally Supersymmetric (extension of the) Standard Model”),
ou le “NMSSM” (“Next-to- . . .”), résolvent le problème de hiérarchie, prédisent une convergence
11. M. Kobayashi, T. Maskawa, prix Nobel 2008, avec Y. Nambu
effective
g1
couplings
g2
g1 g
Figure 5.2 – Évolutions schématisées des 3 couplages effectifs du modèle standard et de celui de la
théorie grand-unifiée.
des couplages électro-faibles et fort à haute énergie (voir ci-dessous), et prédisent aussi l’exis-
tence de partenaires supersymétriques pour toutes les particules connues. Les résultats à venir
prochainement du LHC pourraient valider ou contre-dire tel ou tel modèle. . .
5.4.3 Anomalies
(5)
On a mentionné au chapitre 4 l’existence des anomalies chirales, affectant le courant axial Jµ de la symétrie
classique U(1). Dans la théorie de jauge du Modèle Standard, les champs de jauge électro-faibles sont couplés
de façon différente aux fermions gauches et droits, autrement dit, ils sont couplés aux courants axiaux, cf le
lagrangien
(1 − γ5 )
L = iψ̄(/∂ − A)
/ ψ
2
qui contient un terme Aµa Jµa avec Jµa = ψ̄Ta (1−γ 2
5)
ψ. Classiquement ce courant Jµa devrait avoir une dérivée
covariante (dans la représentation adjointe) nulle si la masse des fermions s’annule. On peut à nouveau effectuer
le calcul de la divergence (covariante) de ce courant à l’ordre à une boucle, et on trouve que
i 1
Dµ J µ = 2
∂µ µνρσ tr Ta (Aν ∂ρ Aσ + Aν Aρ Aσ ) .
24π 2
Curieusement le membre de droite n’est pas invariant de jauge (mais sa forme ne doit rien au hasard et est
dictée par des considérations géométriques que nous ne discuterons pas). L’anomalie de ce courant “non-singlet”
(c’est-à-dire portant une représentation non triviale du groupe de jauge) brise donc l’invariance de jauge. Ce
faisant elle met en danger toute la cohérence, renormalisabilité et unitarité, de la construction de la théorie. On
conçoit que le contrôle de cette anomalie soit crucial pour la construction d’une théorie physique.
Or on constate que le coefficient “groupiste” de l’anomalie est proportionnel à
Pour une revue détaillée du Modèle Standard et une compilation de toutes les propriétés
connues des particules élémentaires, voir The Review of Particle Physics, sur http ://[Link]/
déjà cité au Chap. 4.
Rappeler quelle est la version abélienne de cette identité et son interprétation. [Cas abélien : la 2-forme
1 µ ν ~
2 Fµν dx ∧ dx est fermée, ce qui est équivalent aux équ de Maxwell divB = 0, rotE + ∂B/∂t = 0]
3. Soit l’opérateur D ∂ −A
/ =/ / agissant sur des fermions de Dirac dans la représentation R. On veut calculer
/ . En écrivant Dµ Dν γ γ = 21 Dµ Dν {γ µ , γ ν } + 12 [Dµ , Dν ]γ µ γ ν , montrer qu’on peut écrire D
D 2 µ ν
/ 2 comme
i
somme de D2 = Dµ Dµ et d’un terme de la forme aFµν σ µν , où σ µν = 2 [γ µ , γ ν ]. Calculer a.
B. Facteurs groupistes. . .
1. Opérateurs de Casimir
Soient G un groupe de Lie simple et compact de dimension d, R une de ses représentations, que l’on
suppose irréductible et unitaire. Soient ta une base de l’algèbre de Lie g de G, Ta ses représentants dans
la représentation R. Les ta et Ta sont choisis antihermitiens. On considère alors la forme bilinéaire sur
l’algèbre de Lie définie par
(X, Y )(R) = tr (Ta Tb )xa y b
[conséquence de la cyclicité de la trace] On rappelle que toute forme bilinéaire invariante sur une
algèbre de Lie simple est proportionnelle à la forme de Killing.
(b) Démontrer que l’on peut choisir une base des ta et donc des Ta telle que
(R)
X
C2 =− (Ta )2 .
α
(R)
(e) Rappeler pourquoi C2 est un multiple de l’identité dans l’espace de représentation de R
(R)
C2 = c2 (R) I .
(R)
[C2 commute avec tous les générateurs de g dans l’irrep R donc (lemme de Schur) c’est un
multiple de l’identité.]
(f) En quoi les hypothèses de simplicité de G et d’irréductibilité de R sont-elles importantes pour ce
(R)
résultat ? [Si R n’est pas irréductible, elle est complètement réductible (car unitaire) et C2 est
multiple de l’identité dans chaque sous-espace invariant. (Si G n’est pas un groupe de Lie simple
mais semi-simple, g = ⊕gi et la normalisation des générateurs est indépendante dans chaque ss-alg
gi . L’opérateur de Casimir quadratique n’est plus unique à un facteur près.)]
(R)
(g) Quel est le signe de c2 (R) ? Justifier. [Prenant la trace de la relation, on a tr C2 = c2 (R) dim R =
−tr a Ta2 = tr a Ta Ta† > 0 donc c2 (R) > 0.]
P P
(h) Montrer que TR est relié à la valeur de l’opérateur de Casimir quadratique c2 (R). Pour cela, on
pourra calculer de deux façons différentes la quantité
X
tr (Ta )2 .
a
(R)
Ta2 = −TR dim G =
P
[tr a −tr C2 = −c2 (R) dim R donc TR = c2 (R) dim R/ dim G.]
(i) À quoi se réduit cette relation pour la représentation adjointe de G ? [dim adj = dim G donc
T (adj) = c2 (adj). ]
(j) On normalise les générateurs (antihermitiens) de SU(N ) à être tels que dans la représentation de
définition tr Ta Tb = − 21 δab , soit Tf = 21 . Cela est-il bien vérifié par les générateurs infinitésimaux
i σ2a de SU(2) ? Quelle est alors la valeur de c2 dans cette représentation de définition ? [La repré-
sentation de définition est la représentation fondamentale f de dim N (qui sert à définir le groupe
2
SU(N ) de matrices N × N unitaires unimodulaires). Si Tf = 12 , dim(f ) = N , et c2 (f ) = N2N−1 ]
P i(N −j)
[petit calcul sans malice utilisant ρ = Λi et hΛi , Λj i = N si i ≤ j. ]
(b) Calculer cette expression pour la représentation de définition. La valeur obtenue est-elle en accord
avec celle trouvée à la question 1.(j) ci-dessus ? [La représentation de définition a pour poids le plus
haut Λ = Λ1, le premier poids fondamental. En faisant λi = δi1 dans la formule précédente, il vient
1
PN −1
c2 (f ) = 2N 3(N − 1) + 2 j=2 (N − j) = · · · = (N 2 − 1)/2N , en accord avec le 1.j). ]
(c) Rappeler pourquoi le poids le plus haut de la représentation adjointe est la plus haute racine (notée
θ dans l’appendice F du chap 3). Pourquoi l’expression θ = Λ1 + ΛN −1 est-elle en accord avec ce
qu’on sait de la représentation adjointe ? [θ est un poids dominant, c’est le plus haut poids d’une
irrep, dont on peut calculer la dimension par la formule (3.20) (corrigée !) ; on trouve dim = N 2 − 1,
en accord avec le fait que c’est la représentation adjointe. θ = Λ1 +ΛN −1 reflète le fait que l’adjointe
est engendrée par les tenseurs de f ⊗ f¯ de trace nulle, cf fin du §4.2 du chap 3.]
(d) Calculer la valeur de c2 (Λ) pour la représentation adjointe. [Avec θ = Λ1 + ΛN −1 , la formule du a)
donne
N −2
1 X X
c2 (θ) = 3(N − 1) × 2 + 2 (2 − 1)(N − j) + 2 (2 − 1)i + 2 × 3 = 2N 2 /2N = N
2N j=2 i=2
(a) Dans le calcul de certains diagrammes de Feynman dans une théorie de jauge sur le groupe G, on
rencontre le coefficient
dαβγ = tr (Tα (Tβ Tγ + Tγ Tβ )) .
Montrer que dαβγ est complètement symétrique dans ses trois indices. [par symétrie explicite en β
et γ, et cyclicité de la trace]
(b) On rappelle que la représentation est dite réelle ou pseudoréelle si elle est (unitairement) équivalente
à sa conjuguée, donc si dans la base où les Tα sont antihermitiens, on peut trouver une matrice
unitaire U telle que le complexe conjugué de chaque Tα vérifie
(Tα )∗ = U Tα U −1 .
Montrer que si cette condition est satisfaite, dαβγ est identiquement nul. Cette condition est im-
portante pour assurer la cohérence
de la théorie de
jauge, c’est la condition de compensation
∗ des
† † † † † T T T T T ∗
anomalies. [On a dαβγ = −tr Tα (Tβ Tγ + Tγ Tβ ) = −tr Tα (Tβ Tγ + Tγ Tβ ) = −dαβγ et si
les (Tα )∗ = U Tα U −1 , dαβγ = d∗αβγ , donc dαβγ = 0. ]
(c) La représentation de spin 12 de SU(2) est-elle pseudoréelle ? Celle de spin j ? Justifier votre réponse.
[La représentation de spin 21 est pseudoréelle. Celle de spin j l’est ssi j est demi-entier.]
(d) Donner deux exemples de représentations (pas nécessairement irréductibles) non triviales de SU(3)
qui sont pseudoréelles, et deux qui ne le sont pas. [Les représentations 3 et 3̄ ne sont pas réelles, ni
les 10 et 10 ; les représentations 3 ⊕ 3̄ ou 8 sont réelles ou pseudoréelles. ]
(e) Que vaut le coefficient d pour le groupe U(1) et une représentation de charge q ? [Le générateur
(hermitien) dans la représentation de charge q est égal à qI, donc d = 2q 3 ]
v
Décrire les champs et particules physiques après brisure de symétrie.
1. Montrer que les relations d’orthogonalité des D(ρ) impliquent les formules suivantes :
Z
dµ(g) (ρ) 1 (ρ)
χ (g.g1 .g −1 .g2 ) = χ (g1 )χ(ρ) (g2 ) , (5.41)
G v(G) nρ
et Z
dµ(g) (ρ) δρ,σ (ρ)
χ (g.g1 )χ(σ) (g −1 .g2 ) = χ (g1 .g2 ) . (5.42)
G v(G) nρ
Rappeler pourquoi une représentation de G peut toujours être considérée comme unitaire et montrer
qu’alors
χ(ρ) (g −1 ) = χ(ρ̄) (g) = (χ(ρ) (g))∗ , (5.43)
où ρ̄ est la représentation conjuguée de ρ. On fera un usage fréquent de ces trois relations dans la suite.
avec des fonctions bρ (β). Exprimer la fonction bρ (β) à l’aide d’une intégrale sur le groupe. En utilisant
(5.43), montrer que les fonctions bρ (β) sont réelles, bρ (β) = (bρ (β))∗ = bρ̄ (β).
b) Montrer que bρ est non nul pourvu que la représentation ρ apparaisse dans une puissance tensorielle
r⊗n .
c) Pour G = SU(2) et r = (j = 21 ), la représentation de spin 21 , la condition du b) est-elle satisfaite pour
tout ρ ? Pourquoi ?
Si r = (j = 1), quelles sont les représentations pour lesquelles bρ est a priori nul ?
d) Pour G =SU(3) et χ = χ(3) + χ(3̄) , montrer que bρ est non nul pour tout ρ.
Pour β → 0, quel est le comportement dominant de ba (β) si a désigne la représentation adjointe de
SU(3) ? Plus généralement quel est le comportement dominant de bρ (β) où ρ est la représentation de plus
haut poids Λ = (λ1 , λ2 ) ?
où χ est, comme à la question 2, le caractère d’une certaine représentation réelle du groupe. Le poids de
Boltzmann est donc Y 1
e−βE = eβχ(gp ) , β=
p
kT
a) Montrer que l’énergie E est invariante par redéfinition des gij selon gij 7→ gi .gij .gj−1 , où gi ∈ G,
L1
L2
(c’est une invariance locale, l’analogue dans ce formalisme discret de l’invariance de jauge étudiée dans
ce chapitre), et que E ne dépend pas de l’orientation des plaquettes.
b) On cherche à mieux comprendre la relation avec le formalisme du § 5.1. Les degrés de liberté gij
représentent les variables de chemin définies en (5.20), gij = g(j, i) le long de l’arête du site i au site j
Z
gij ≡ P exp Aµ dxµ
~
l=ij
– Pour une maille a du réseau petite, montrer en utilisant par exemple la formule de BCH et en
développant au premier ordre non nul que
où µ et ν désignent les directions du bord de la plaquette p. (On s’intéresse ici à une version euclidienne
de la théorie de jauge, et la position des indices µ, ν n’importe pas.) Montrer alors que l’énergie Ep
(5.44) s’écrit
Ep ∼ const. a4 (Fµν )2 + const.0
où on déterminera la première constante en fonction de la représentation choisie pour χ.
– Expliquer pourquoi le paramètre β s’identifie (à un facteur près) à l’inverse du couplage g2 de la théorie
de jauge continue. En fait il s’agit plutôt de la constante de couplage “nue” (ou non renormalisée),
pourquoi ?
On se restreint d’abord pour simplicité à d = 2 dimensions. Pour un réseau fini de N plaquettes, par
exemple un rectangle de taille L1 × L2 (voir Fig. 5.3), on désire calculer Z. On choisit des “conditions aux
bords libres”, autrement dit les variables g` des bords du rectangle sont indépendantes. On s’intéresse
aussi à la valeur moyenne W (σ) (C) de χ(σ) (gC ) où gC désigne le produit ordonné des g` le long d’une
courbe fermée orientée C pour une certaine représentation irréductible σ de G
Z Y
1 Y dµ(gl ) (σ) Y
W (σ) (C) := h χ(σ) (gC ) i = χ g` eβχ(gp ) . (5.46)
Z G v(G) p
liens ` `∈C
c) En utilisant les résultats de la question 2, montrer que l’on peut développer chaque exp βχ(gp ) sur
les caractères de représentations irréductibles de G selon
X
eβχ(gp ) = nρ bρ χ(ρ) (gp ) . (5.47)
ρ
d) On insère dans (5.45) ou (5.46) le développement (5.47) pour chaque plaquette. Montrer que si deux
plaquettes ont en commun un lien `, les formules de la question 1 permettent d’intégrer sur la variable
g` de ce lien et que les deux représentations portées par les plaquettes s’identifient alors.
En utilisant alors de façon répétée ces formules de la question 1, montrer que l’on peut intégrer sur toutes
les variables g` et que
A
N (σ) bσ
Z = b1 W (C) = nσ (5.48)
b1
où A désigne l’aire de la courbe C, c’est-à-dire le nombre de plaquettes qu’elle enserre, et l’indice 1 se
rapporte à la représentation identité.
e) On se place maintenant en dimension d = 3. Les variables g` sont attachées aux liens d’un réseau
cubique. L’énergie est toujours donnée par (5.44), où la somme court sur toutes les plaquettes de ce réseau
tridimensionnel. Comme précédemment, W (σ) (C) = h χ(σ) (gC ) i reçoit des contributions de configurations
de plaquettes formant une surface de bord C.
On va voir que peuvent contribuer aussi à W (σ) (C) des configurations de plaquettes formant un tube qui
s’appuie sur le contour C (Fig. 5.4).
– Montrer en effet que pour une telle configuration l’application répétée des formules (5.41) et (5.42) sur
toutes les variables g` conduit à l’expression suivante
X bρ P Z dµ(g)
(σ)
W (C) = χ(ρ) (g)χ(ρ) (g −1 )χ(σ) (g) (5.49)
tube
ρ
b 1 G v(G)
4. L’évaluation de la valeur moyenne de la “boucle de Wilson” W (σ) (C) dans la limite d’une grande boucle C
ayant la forme d’un rectangle R × T permet de calculer le potentiel Vσ (R) entre deux particules chargées
statiques séparées par la distance R, l’une portant la représentation σ du groupe et l’autre étant son
antiparticule. Plus précisément on admettra que
1
Vσ (R) = − lim log W (σ) (C) .
T →∞ T
Évaluer la dépendance de Vσ (R) en R qui découle soit de (5.48), soit de la contribution à (5.49) due à la
représentation ρ. Qu’en concluez-vous sur l’interaction entre les deux particules dans ces deux situations ?
Physiquement, ce type de considérations fournit un modèle discrétisé (sur réseau) et très simplifié ici (deux
ou trois dimensions, pas de quarks) de la chromodynamique quantique. On peut répéter ce calcul en dimension
plus élevée, où les résultats ci-dessus apparaissent comme le terme dominant dans un développement à β petit
(“haute température”). Le fait que la valeur moyenne ci-dessus décroisse comme xA (x = bσ /b1 < 1 pour β
assez petit) pour de grandes aires est un signal du “confinement des quarks” dans cette théorie, c’est-à-dire de
l’impossibilité de séparer une paire quark-antiquark à grande distance . . .
1. Combien de champs de jauge possède un tel modèle ? (Rép. il y a dim(SO(3))=3 champs de jauge )
2. Le triplet de Higgs Φ = (φ+ , φ0 , φ− ) est supposé acquérir une “vev”
hΦi = v(0, 1, 0) .
Quel est le groupe H de symétrie résiduel ? (Rép. SO(3)→ H = SO(2) qui est le groupe de rotation
laissant invariant hΦi.)
3. Que peut-on dire du spectre de masse de la théorie, après la brisure de symétrie SO(3)→ H ? Quelle
est son interprétation physique ? (Rép. Deux champs vectoriels deviennent massifs, ce sont les “bo-
sons intermédiaires” des interactions faibles ; un champ demeure de masse nulle, le champ de jauge de
l’électromagnétisme SO(2)∼
= U(1). Un boson de Higgs de masse non nulle subsiste.)
4. Quelle est la différence majeure entre ce modèle et ce qui est devenu le modèle standard, en ce qui
concerne les interactions faibles ? Pouvez-vous citer une découverte expérimentale qui a permis d’écarter
rapidement ce modèle ? (Rép. Le modèle de GG ne possède pas de courants neutres, ni de boson de
jauge neutre, (comme le Z 0 ). La découverte expérimentale des courants neutres (1973) puis celle du Z 0
(en 1983) a scellé le sort du modèle de GG. )
action d’un groupe dans un ensemble, 61 charge baryonique, 20, 144, 174
adjointe, application, 45 charme, 153
adjointe, représentation, 76, 99, 105, 116, 118, Chevalley, base de, 114
123, 127, 135 chirale, symétrie, 143
algèbre, 42 classe d’homotopie, 37
algèbre de Lie, 42 classe de conjugaison, 33
algèbres de Lie de dimension 3, 61 classe par rapport à un sous-groupe, 34
α-chaı̂ne, 110 Clebsch-Gordan, coefficients de, 16, 74
alterné, groupe, 34 Clebsch-Gordan, décomposition de, 15, 72
anomalies, 143, 176, 178 cocycle, 84
axial, courant, 142 coefficients de Clebsch-Gordan, 16
axiale, transformation, 142 cohomologie d’un groupe, 84
commutant, 33
Baker-Campbell-Hausdorff, formule de, 46
commutateur dans un groupe, 45
beauté, 153
compact, 21, 40, 57
boost, 21
compact, localement, 57
boson intermédiaire, 166
compacte, algèbre de Lie, 49
Bratteli, diagramme de, 101
compensation des anomalies, 176, 178
brisure spontanée de symétrie, 140, 167
complètement réductible, représentation, 67
Brout–Englert–Higgs, mécanisme de, 167
complexe, représentation, 101
Burgoyne, identité de, 156
complexifiée, algèbre de Lie, 49
Cabibbo, angle de, 152 confinement de la couleur, 154, 169, 182
Cabibbo-Kobayashi-Maskawa, matrice de, 172 conforme, transformation, 62
caractère, 67 conjuguée, représentation, 68, 119
caractère de SU(2), 92 connexe, groupe, 36
Cartan, critères de, 51 connexe, simplement, 37
Cartan, matrice de, 111 conservation, loi de, 86
Cartan, sous-algèbre de, 105 constantes de structure, 50
Cartan, tore de, 119 contragrédiente, représentation, 69, 102
Casimir, opérateur de, 8, 26, 53, 61, 100, 115, coracine, 115
118, 177 “coset”, 34
centralisateur, 33 couleur, 154, 168
centre d’un groupe, 33 couplage minimal, 160
chaı̂ne de poids, 116 covariante, dérivée, 160
chaı̂ne de racines, 110 Coxeter, exposants de, 115
U(n), 59
unitaire, représentation, 69
unitarisable, représentation, 69
V-A, 152
Vandermonde, déterminant de, 60, 129
variété, 57
variété riemannienne, 27, 57
vectorielle, transformation, 142
Virasoro, algèbre de, 48
voisinage, 56
vortex, 40
Yang–Mills, 160
Yang–Mills, lagrangien de, 164
Young, diagramme d’, 126, 128
Young, tableau standard, 128
Young, tableau d’, 128
Yukawa, couplage de, 147, 172