Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.
Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".
Exercices “Groupes d’isométries” (B)
Exercice 1
Problème: Soit E=ℓ2(Z) l’espace des suites de nombres complexes (xn)n∈Z de carré sommable, muni du produit hermitien canonique ⟨x,y⟩=∑n∈Zxnyn. On considère l’opérateur de décalage à droite (right shift) S:E→E défini par (Sx)n=xn−1.
Montrer que S est un opérateur unitaire (une isométrie) sur E.
Déterminer son adjoint S∗.
On considère l’opérateur de décalage à gauche (left shift) T:E→E défini par (Tx)n=xn+1. T est-il unitaire ?
Comparer ce résultat avec le cas d’un espace de dimension finie.
Solution
Méthode: Nous allons vérifier les propriétés de l’opérateur S en utilisant directement les définitions. Pour la première partie, nous montrerons que S préserve la norme. Pour la seconde, nous utiliserons la définition de l’adjoint ⟨S∗x,y⟩=⟨x,Sy⟩. Pour la troisième, nous vérifierons si T est unitaire en testant s’il est l’inverse de S. L’analyse de la situation en dimension infinie mettra en lumière les différences fondamentales avec la dimension finie.
Étapes:
Montrer que S est unitaire.
Soit x=(xn)n∈Z∈E. Calculons la norme de S(x).
∥S(x)∥2=∑n∈Z∣(Sx)n∣2=∑n∈Z∣xn−1∣2.
En posant k=n−1, l’indice k parcourt également Z. La somme devient ∑k∈Z∣xk∣2=∥x∥2.
Ainsi, ∥S(x)∥=∥x∥ pour tout x∈E. L’opérateur S est donc une isométrie. Pour montrer qu’il est unitaire, il faut qu’il soit surjectif. Soit y=(yn)∈E. Cherchons x∈E tel que Sx=y. Cela signifie (Sx)n=xn−1=yn pour tout n, donc xk=yk+1 pour tout k. La suite x=(yn+1)n∈Z est bien dans E car sa norme est ∥x∥2=∑n∣yn+1∣2=∑k∣yk∣2=∥y∥2<∞. Donc S est surjectif. Une isométrie surjective est un opérateur unitaire.
Déterminer l’adjoint S∗.
Pour tous x,y∈E, nous devons avoir ⟨S∗x,y⟩=⟨x,Sy⟩.
⟨x,Sy⟩=∑n∈Zxn(Sy)n=∑n∈Zxnyn−1.
Posons k=n−1, donc n=k+1. La somme devient ∑k∈Zxk+1yk.
Cette somme doit être égale à ⟨S∗x,y⟩=∑k∈Z(S∗x)kyk.
Par identification, on a (S∗x)k=xk+1, donc (S∗x)k=xk+1.
L’opérateur adjoint est donc S∗=T, l’opérateur de décalage à gauche.
L’opérateur T est-il unitaire ?
D’après le point 2, T=S∗. Puisque S est unitaire, on a S−1=S∗. Donc T=S−1. L’inverse d’un opérateur unitaire est unitaire. Vérifions-le directement :
Donc T préserve la norme. Pour la surjectivité, soit y∈E. Tx=y donne xn+1=yn, donc xk=yk−1. Cette suite x est dans E et a la même norme que y. Donc T est surjectif.
Ainsi, T est unitaire.
Comparaison avec la dimension finie.
En dimension finie, un endomorphisme f est une isométrie si et seulement si f∗f=Id. Cela implique que f est injectif. Par le théorème du rang, f est alors automatiquement surjectif, donc f est un automorphisme et f−1=f∗.
En dimension infinie, ce n’est plus vrai. Un opérateur peut être une isométrie (et donc injectif) sans être surjectif. L’exemple classique est l’opérateur de décalage à droite sur ℓ2(N), S:(x0,x1,...)↦(0,x0,x1,...). Il est isométrique mais non surjectif (l’image ne contient pas les suites dont le premier terme est non nul). Sur ℓ2(Z), le “trou” n’est pas créé, et la surjectivité est conservée. Cet exercice illustre que sur ℓ2(Z), la situation reste proche de la dimension finie, mais il faut prouver la surjectivité séparément.
Réponse:
S est unitaire car il préserve la norme et il est surjectif.
L’adjoint est S∗=T, l’opérateur de décalage à gauche.
Oui, T est unitaire.
En dimension infinie, une isométrie n’est pas nécessairement surjective, contrairement au cas de la dimension finie. Cependant, dans le cas de ℓ2(Z), l’opérateur de décalage reste surjectif.
Exercice 2
Problème: Soit n≥2. Montrer que le groupe spécial orthogonal SOn(R) est connexe par arcs.
Solution
Méthode: Nous allons procéder par récurrence sur la dimension n. L’idée est de montrer que toute matrice M∈SOn(R) peut être connectée à l’identité In par un chemin continu contenu dans SOn(R). Pour l’étape de récurrence, nous utiliserons la structure des isométries pour ramener une matrice M∈SOn(R) à une forme plus simple via un chemin continu, puis appliquer l’hypothèse de récurrence.
Étapes:
Cas de base (n=2):
Toute matrice de SO2(R) est une matrice de rotation R(θ)=(cosθsinθ−sinθcosθ).
Soit M=R(θ0)∈SO2(R). Le chemin γ:[0,1]→SO2(R) défini par γ(t)=R(tθ0) est un chemin continu.
On a γ(0)=R(0)=I2 et γ(1)=R(θ0)=M.
Le chemin est bien dans SO2(R) car det(R(tθ0))=1 pour tout t.
Donc SO2(R) est connexe par arcs.
Hypothèse de récurrence:
Supposons que SOn−1(R) est connexe par arcs pour un n≥3.
Étape de récurrence:
Soit M∈SOn(R). Soit e1 le premier vecteur de la base canonique de Rn. Considérons le vecteur v=Me1. On a ∥v∥=∥Me1∥=∥e1∥=1.
Nous voulons trouver un chemin continu de rotations R(t) tel que R(0)=In et R(1)v=e1.
Si v=e1, on peut prendre R(t)=In pour tout t.
Si v=e1, v et e1 sont deux vecteurs unitaires distincts. Ils engendrent un plan P=Vect(e1,v). Si v=−e1, on peut choisir n’importe quel plan contenant e1.
Soit RP(θ) la rotation d’angle θ dans le plan P qui amène e1 vers v, et qui est l’identité sur P⊥. Soit θ0 cet angle.
Le chemin t↦RP(tθ0) est un chemin dans SOn(R) qui relie In à RP(θ0). Soit R1=RP(θ0). On a R1e1=v.
Considérons le chemin γ1(t) de In à R1−1. Alors le chemin t↦γ1(t)M relie M à M′=R1−1M.
Calculons l’action de M′ sur e1: M′e1=R1−1Me1=R1−1v=e1.
La matrice M′ fixe donc le vecteur e1. Sa première colonne est (1,0,...,0)t. Comme M′ est orthogonale, les autres colonnes sont orthogonales à la première, donc la première ligne est (1,0,...,0).
La matrice M′ a donc la forme :
M′=(100Mn−1), où Mn−1∈Mn−1(R).
Comme M′∈SOn(R), on a t(M′)(M′)=In, ce qui implique tMn−1Mn−1=In−1, donc Mn−1∈On−1(R).
De plus, det(M′)=1⋅det(Mn−1)=1, donc Mn−1∈SOn−1(R).
Conclusion de la récurrence:
Par l’hypothèse de récurrence, SOn−1(R) est connexe par arcs. Il existe donc un chemin continu δ(t) dans SOn−1(R) tel que δ(0)=In−1 et δ(1)=Mn−1.
Construisons le chemin γ2(t)=(100δ(t)). C’est un chemin continu dans SOn(R) qui relie (100In−1)=In à M′.
Ainsi, M′ est connectée à In. Puisque M est connectée à M′, par transitivité, M est connectée à In.
Ceci étant vrai pour toute matrice M∈SOn(R), le groupe SOn(R) est connexe par arcs.
Réponse: Le groupe SOn(R) est connexe par arcs pour tout n≥2. La preuve se fait par récurrence sur n.
Exercice 3
Problème: Soient les rotations R1 et R2 dans R3 définies par leurs matrices dans la base canonique :
R1 est la rotation d’angle π/2 autour de l’axe (1,0,0).
R2 est la rotation d’angle π/2 autour de l’axe (0,1,0).
Déterminer l’axe et l’angle de la rotation composée R=R2∘R1.
Solution
Méthode: Nous allons d’abord construire les matrices M1 et M2 de R1 et R2 respectivement. Nous pouvons utiliser la formule de Rodrigues ou une approche géométrique directe. Ensuite, nous calculerons la matrice du composé M=M2M1. Enfin, nous extrairons l’axe et l’angle de la rotation correspondante à M. L’axe est le vecteur propre associé à la valeur propre 1. L’angle θ peut être trouvé via la formule Tr(M)=1+2cosθ.
Étapes:
Matrice de R1:
Rotation d’angle θ1=π/2 autour de N1=(1,0,0).
Cette rotation fixe e1, envoie e2 sur e3, et e3 sur −e2.
La matrice est M1=1000cos(π/2)sin(π/2)0−sin(π/2)cos(π/2)=1000010−10.
Matrice de R2:
Rotation d’angle θ2=π/2 autour de N2=(0,1,0).
Cette rotation fixe e2, envoie e3 sur e1, et e1 sur −e3.
La matrice est M2=cos(π/2)0−sin(π/2)010sin(π/2)0cos(π/2)=00−1010100.
L’axe est le sous-espace propre associé à la valeur propre 1. On résout MU=U, soit (M−I3)U=0.
M−I3=−10−11−100−1−1.
On résout le système :
⎩⎨⎧−x+y=0−y−z=0−x−z=0⟹⎩⎨⎧x=yz=−y−y−(−y)=0.
La troisième équation est 0=0. Le système est de rang 2. Les solutions sont de la forme (y,y,−y)=y(1,1,−1).
L’axe est donc la droite dirigée par le vecteur N′=(1,1,−1).
Un vecteur directeur unitaire est N=31(1,1,−1).
Détermination du signe de l’angle:
Le signe de θ dépend de l’orientation de l’axe. Choisissons N=31(1,1,−1).
On utilise la formule sinθ=21⟨u,N∧Mu⟩ pour un vecteur u non colinéaire à N.
Prenons u=e1=(1,0,0). Mu=(0,0,−1).
N∧Mu=31(1,1,−1)∧(0,0,−1)=31(−1,1,0).
sinθ=2∥u∥2Tr(Mantisym)1Trace((M−tM)opu,N). Une méthode plus simple :
sinθ(Nx,Ny,Nz) a pour composantes (M32−M23)/2,(M13−M31)/2,(M21−M12)/2.
M−tM=0−1−11011−10.
Les composantes du vecteur v tel que M−tM=2sinθKN sont: v1=(M32−M23)/2=(0−(−1))/2=1/2.
v2=(M13−M31)/2=(0−(−1))/2=1/2.
v3=(M21−M12)/2=(0−1)/2=−1/2.
Le vecteur est (1/2,1/2,−1/2). C’est bien la direction de N.
On a (1/2,1/2,−1/2)=sinθ⋅N=sinθ⋅31(1,1,−1).
21=3sinθ⟹sinθ=3/2.
Puisque cosθ=−1/2 et sinθ=3/2, l’angle est θ=2π/3.
Réponse: La rotation composée R=R2∘R1 est une rotation d’angle θ=32π autour de l’axe dirigé par le vecteur N=(1,1,−1).
Exercice 4
Problème: Soit (R3,∧) l’espace euclidien orienté de dimension 3 muni du produit vectoriel.
Démontrer l’identité de Jacobi :
∀U,V,W∈R3,U∧(V∧W)+V∧(W∧U)+W∧(U∧V)=0
Montrer que l’espace vectoriel R3 muni du crochet de Lie [U,V]=U∧V est une algèbre de Lie.
Expliquer la signification de cette identité dans le contexte de l’algèbre de Lie so(3) des matrices antisymétriques d’ordre 3.
Solution
Méthode: Pour la première partie, nous utiliserons la formule du double produit vectoriel (formule “BAC-CAB”) A∧(B∧C)=⟨A,C⟩B−⟨A,B⟩C. Pour la deuxième partie, nous vérifierons les axiomes d’une algèbre de Lie. Pour la troisième, nous rappellerons l’isomorphisme entre (R3,∧) et (so(3),[,]) et montrerons que l’identité de Jacobi pour le produit vectoriel est l’expression de l’identité de Jacobi pour le commutateur de matrices.
Étapes:
Démonstration de l’identité de Jacobi:
Utilisons la formule du double produit vectoriel:
U∧(V∧W)=⟨U,W⟩V−⟨U,V⟩W
V∧(W∧U)=⟨V,U⟩W−⟨V,W⟩U
W∧(U∧V)=⟨W,V⟩U−⟨W,U⟩V
Sommons ces trois expressions. Les produits scalaires sont symétriques (⟨A,B⟩=⟨B,A⟩).
Une algèbre de Lie est un espace vectoriel G muni d’une application bilinéaire [⋅,⋅]:G×G→G (le crochet de Lie) qui vérifie :
a) L’antisymétrie : [X,Y]=−[Y,X] pour tous X,Y∈G.
b) L’identité de Jacobi : [X,[Y,Z]]+[Y,[Z,X]]+[Z,[X,Y]]=0 pour tous X,Y,Z∈G.
Ici, G=R3 et [U,V]=U∧V.
La bilinéarité du produit vectoriel est une propriété de base.
a) L’antisymétrie U∧V=−V∧U est aussi une propriété fondamentale du produit vectoriel.
b) L’identité de Jacobi est exactement ce que nous avons prouvé à la question 1.
Donc, (R3,+,⋅R,∧) est une algèbre de Lie.
Signification pour so(3):
L’algèbre de Lie so(3) est l’ensemble des matrices antisymétriques de taille 3, munie du commutateur [A,B]=AB−BA.
On peut définir un isomorphisme d’espaces vectoriels ϕ:R3→so(3) par :
ϕ(U)=KU=0u3−u2−u30u1u2−u10 pour U=(u1,u2,u3).
Cette application a la propriété que pour tous U,V∈R3, ϕ(U∧V)=[ϕ(U),ϕ(V)]. C’est un isomorphisme d’algèbres de Lie.
L’identité de Jacobi pour le commutateur de matrices est toujours vraie dans n’importe quelle algèbre associative :
[A,[B,C]]+[B,[C,A]]+[C,[A,B]]=0.
En appliquant ϕ−1 à cette identité avec A=ϕ(U), B=ϕ(V), C=ϕ(W), on obtient :
ϕ−1([ϕ(U),[ϕ(V),ϕ(W)]])+⋯=0.
Puisque ϕ est un isomorphisme d’algèbres de Lie :
ϕ−1([ϕ(U),ϕ(V∧W)])+⋯=0.
U∧(V∧W)+⋯=0.
Ainsi, l’identité de Jacobi pour le produit vectoriel est la “traduction” de l’identité de Jacobi fondamentale pour le commutateur de matrices via l’isomorphisme entre (R3,∧) et (so(3),[,]).
Réponse:
L’identité de Jacobi se démontre en appliquant trois fois la formule du double produit vectoriel et en sommant les résultats.
(R3,∧) est une algèbre de Lie car le produit vectoriel est bilinéaire, antisymétrique et satisfait l’identité de Jacobi.
Cette identité est la manifestation, dans R3, de l’identité de Jacobi universelle pour les commutateurs de matrices, via l’isomorphisme d’algèbres de Lie so(3)≅R3.
Exercice 5
Problème: Soit une rotation R dans R3 d’axe dirigé par le vecteur unitaire N et d’angle θ∈]0,2π[. Prouver que pour tout vecteur U∈R3, on a la relation suivante, qui exprime le produit vectoriel en termes de la rotation et de son adjointe:
N∧U=2sinθ1(R(U)−R−1(U))
Solution
Méthode: Nous allons utiliser la formule de Rodrigues pour exprimer R(U) et R−1(U). R−1 est la rotation d’axe N et d’angle −θ. En calculant la différence R(U)−R−1(U) et en simplifiant, nous devrions obtenir une expression proportionnelle à N∧U.
Étapes:
Expression de R(U) via la formule de Rodrigues:
La rotation d’axe N et d’angle θ est donnée par:
RN,θ(U)=cos(θ)U+(1−cos(θ))⟨U,N⟩N+sin(θ)(N∧U)
Expression de R−1(U):
L’inverse R−1 est la rotation d’axe N et d’angle −θ. On remplace θ par −θ dans la formule de Rodrigues.
On utilise les propriétés cos(−θ)=cos(θ) et sin(−θ)=−sin(θ).
RN,−θ(U)=cos(θ)U+(1−cos(θ))⟨U,N⟩N−sin(θ)(N∧U)
Calcul de la différence:
On soustrait la deuxième expression de la première:
Si θ∈]0,π[∪]π,2π[, alors sinθ=0. On peut diviser par 2sinθ:
N∧U=2sinθ1(R(U)−R−1(U))
Si θ=π, R est un demi-tour. R(U)=−U+2⟨U,N⟩N.
Dans ce cas, R=R−1, donc R(U)−R−1(U)=0. Le membre de droite de la formule n’est pas défini.
Cependant, la relation 2sin(θ)(N∧U)=R(U)−R−1(U) reste vraie pour θ=π, car les deux côtés sont nuls. L’énoncé est donc à interpréter pour sinθ=0.
Réponse: Pour θ∈]0,π[∪]π,2π[, la formule est:
N∧U=2sinθ1(R(U)−R−1(U))
Elle découle directement de la soustraction de la formule de Rodrigues pour l’angle −θ à celle pour l’angle θ.
Exercice 6
Problème: Soit l’isomorphisme d’algèbres de Lie ϕ:(R3,∧)→(so(3),[,]) où [A,B]=AB−BA et ϕ(V) est la matrice KV telle que KVU=V∧U pour tout U∈R3.
Soit R∈SO(3) une rotation. Démontrer la relation suivante, qui lie la rotation, son algèbre de Lie, et la représentation adjointe :
∀V∈R3,ϕ(R(V))=Rϕ(V)R−1
Solution
Méthode: L’identité à prouver est ∀V,U∈R3,KR(V)U=RKVR−1U. Nous allons partir du membre de droite et utiliser les propriétés des rotations et du produit vectoriel. L’astuce clé est de montrer qu’une rotation préserve le produit vectoriel, c’est-à-dire R(A∧B)=R(A)∧R(B) pour R∈SO(3).
Étapes:
Propriété de conservation du produit vectoriel par les rotations:
Soit R∈SO(3). Soient A,B∈R3. Par définition du produit vectoriel A∧B, il est l’unique vecteur tel que ∀W∈R3,⟨A∧B,W⟩=det(A,B,W).
Considérons le vecteur R(A)∧R(B). Pour tout Z∈R3:
⟨R(A)∧R(B),Z⟩=det(R(A),R(B),Z).
Posons Z=R(W). Comme R est surjective, cela couvre tout R3.
⟨R(A)∧R(B),R(W)⟩=det(R(A),R(B),R(W)).
Puisque R est une isométrie, elle préserve le produit scalaire: ⟨R(X),R(Y)⟩=⟨X,Y⟩.
Donc, le membre de gauche est ⟨A∧B,W⟩.
Le membre de droite est det(R)det(A,B,W).
Comme R∈SO(3), det(R)=1.
On a donc l’égalité : ⟨A∧B,W⟩=det(A,B,W)=det(R(A),R(B),R(W))=⟨R(A)∧R(B),R(W)⟩.
En appliquant la conservation du produit scalaire par R, ceci est ⟨A∧B,W⟩.
On a donc montré ⟨R(A)∧R(B),R(W)⟩=⟨R(A∧B),R(W)⟩.
Comme R est un isomorphisme, on peut conclure que R(A)∧R(B)=R(A∧B).
Démonstration de la relation principale:
On veut montrer KR(V)U=RKVR−1U.
Calculons le membre de droite : RKVR−1U=R(V∧(R−1U)).
Utilisons la propriété de conservation du produit vectoriel démontrée à l’étape 1:
R(V∧(R−1U))=R(V)∧R(R−1U)=R(V)∧U.
Le membre de gauche est par définition KR(V)U=R(V)∧U.
Les deux membres sont égaux. La relation est donc démontrée pour tout U,V∈R3.
Interprétation:
La relation ϕ(R(V))=Rϕ(V)R−1 s’écrit aussi KR(V)=RKVR−1.
L’action de SO(3) sur son algèbre de Lie so(3) par conjugaison A↦RAR−1 est appelée la représentation adjointe du groupe sur son algèbre, notée AdR(A).
L’action naturelle de SO(3) sur R3 est l’action de rotation V↦R(V).
La formule démontrée montre que l’isomorphisme ϕ “entrelace” ces deux actions. C’est un isomorphisme de “modules” sur le groupe SO(3). Cette compatibilité est une propriété fondamentale qui lie un groupe de Lie et son algèbre de Lie.
Réponse: La relation ϕ(R(V))=Rϕ(V)R−1 est démontrée en montrant d’abord que les rotations directes préservent le produit vectoriel, i.e., R(A∧B)=R(A)∧R(B), puis en appliquant cette propriété à la définition de l’opérateur ϕ(V)=KV.
Exercice 7
Problème: Démontrer la surjectivité du morphisme de groupes J:SU(2)→SO(3) défini par J(U)=AdU, où AdU(M)=UMU∗ pour M dans l’espace V des matrices hermitiennes de trace nulle.
Solution
Méthode: Pour prouver la surjectivité, il suffit de montrer que l’image de J contient un ensemble de générateurs de SO(3). Un tel ensemble est constitué des rotations autour des axes de la base canonique. Nous allons construire explicitement des matrices U∈SU(2) dont les images par J sont les rotations d’angle arbitraire autour des axes correspondant à la base (T1,T2,T3) de V.
Étapes:
Rappel de la base de V:
On utilise la base (proportionnelle aux matrices de Pauli) de V≅R3:
T1=(0i−i0),T2=(0110),T3=(100−1).
Cette base est orthonormée pour le produit scalaire ⟨A,B⟩=21Tr(AB).
Rotation autour de l’axe T3:
Considérons la matrice U3(θ)=(e−iθ/200eiθ/2)∈SU(2).
Calculons AdU3(θ)(M)=U3(θ)MU3(θ)∗.
Pour M=T3: AdU3(θ)(T3)=U3(θ)T3U3(θ)−1=T3 car U3 et T3 sont diagonales et commutent. L’axe T3 est fixe.
Pour M=T2: AdU3(θ)(T2)=(e−iθ/200eiθ/2)(0110)(eiθ/200e−iθ/2)=(0eiθe−iθ0).
Ceci se décompose en: (0cosθ+isinθcosθ−isinθ0)=cosθ(0110)−sinθ(0i−i0)=cosθT2−sinθT1.
Pour M=T1: un calcul similaire donne AdU3(θ)(T1)=sinθT2+cosθT1.
Dans la base (T1,T2,T3), la matrice de AdU3(θ) est cosθsinθ0−sinθcosθ0001, qui est la rotation d’angle θ autour de T3.
Rotation autour des autres axes:
Par un argument de symétrie, les rotations autour des axes T1 et T2 sont aussi dans l’image de J. Par exemple, U2(θ)=(cos(θ/2)sin(θ/2)sin(θ/2)cos(θ/2)) est proportionnelle à exp(θ/2T2) et génère une rotation d’angle θ autour de T2.
Plus généralement, soit N un vecteur unitaire dans R3, correspondant à MN∈V avec 21Tr(MN2)=1.
La matrice UN(θ)=cos(θ/2)I2−isin(θ/2)MN est dans SU(2). On peut montrer que J(UN(θ)) est la rotation d’angle θ autour de l’axe N.
Conclusion de surjectivité:
Toute rotation de SO(3) peut s’écrire comme une rotation d’un certain angle θ autour d’un certain axe N. D’après l’étape 3, pour tout couple (N,θ), on peut construire un antécédent UN(θ)∈SU(2). Donc toute rotation de SO(3) est dans l’image de J. Le morphisme est surjectif.
Réponse: Le morphisme J:SU(2)→SO(3) est surjectif. Ceci est prouvé en montrant que toutes les rotations, qui engendrent SO(3), sont dans l’image de J. On construit explicitement les préimages dans SU(2) des rotations autour des axes de base.
Exercice 8
Problème: Prouver le théorème de la décomposition polaire : toute matrice inversible M∈GLn(R) peut s’écrire de manière unique sous la forme M=OS, où O∈On(R) est une matrice orthogonale et S∈Sn++(R) est une matrice symétrique définie positive.
Solution
Méthode: La preuve se fait en deux temps : existence et unicité.
Pour l’existence, nous construisons S à partir de M et montrons qu’elle a les propriétés requises. Ensuite, nous définissons O et montrons qu’elle est orthogonale.
Pour l’unicité, nous supposons deux décompositions et montrons qu’elles doivent être identiques.
Étapes:
Construction de S (Existence):
Considérons la matrice A=tMM. C’est une matrice symétrique : tA=t(tMM)=tM(ttM)=tMM=A.
Elle est définie positive : pour tout X∈Rn∖{0}, tXAX=tXtMMX=t(MX)(MX)=∥MX∥2.
Comme M est inversible, X=0⟹MX=0, donc ∥MX∥2>0.
A est donc symétrique définie positive.
D’après le théorème spectral, il existe une unique racine carrée symétrique définie positive de A, que nous notons S. On a S2=A=tMM et S∈Sn++(R).
Construction de O (Existence):
Définissons O=MS−1. Nous devons montrer que O est orthogonale.
Calculons tOO:
tOO=t(MS−1)(MS−1)=(tS−1)(tM)MS−1.
Comme S est symétrique, S−1 l’est aussi, donc tS−1=S−1.
Puisque S1 et S2 sont des matrices symétriques définies positives, elles sont les racines carrées uniques de la matrice tMM. Par conséquent, S1=S2.
Ensuite, de O1S1=O2S1 et comme S1 est inversible (car définie positive), on peut multiplier par S1−1 à droite pour obtenir O1=O2.
La décomposition est donc unique.
Interprétation géométrique:
L’endomorphisme associé à M peut être vu comme la composition d’une isométrie (donnée par O) et d’une “dilatation” le long d’axes orthogonaux (donnée par S). La matrice S déforme la sphère unité en un ellipsoïde, et la matrice O fait ensuite tourner (et/ou réfléchit) cet ellipsoïde.
Réponse: Le théorème de la décomposition polaire est vrai. L’existence est constructive : on pose S=tMM (l’unique racine carrée symétrique définie positive) et O=MS−1. L’unicité découle de l’unicité de la racine carrée symétrique définie positive d’une matrice.
Exercice 9
Problème: Soit E un espace euclidien de dimension n. Démontrer le théorème de Cartan-Dieudonné en dimension n: tout automorphisme orthogonal f∈O(E) se décompose en un produit d’au plus n réflexions hyperplanes.
Solution
Méthode: Nous allons procéder par récurrence sur la dimension n de l’espace. La stratégie consiste à trouver une réflexion s telle que s∘f fixe au moins un vecteur non nul, ce qui permet de se ramener à un problème de dimension n−1.
Étapes:
Cas de base (n=1):
L’espace est une droite. O(E)={Id,−Id}.
Id est le produit de 0 réflexions (ou s∘s pour une réflexion s). 0≤1.
−Id est la réflexion par rapport à l’hyperplan {0}. C’est 1 réflexion. 1≤1.
Le théorème est vrai pour n=1.
Hypothèse de récurrence:
Supposons que le théorème est vrai pour tout espace euclidien de dimension k<n.
Étape de récurrence (n):
Soit f∈O(E).
Cas 1 : f admet un vecteur fixe non nul.
Soit x∈E, x=0, tel que f(x)=x. Soit H=(Vect(x))⊥. H est un hyperplan de dimension n−1.
Pour tout y∈H, ⟨f(y),x⟩=⟨f(y),f(x)⟩=⟨y,x⟩=0. Donc f(y)∈H.
La restriction de f à H, notée fH, est un automorphisme orthogonal de H.
Par hypothèse de récurrence, fH est le produit de k≤n−1 réflexions hyperplanes s1′,…,sk′ de H.
Chaque réflexion si′ par rapport à un hyperplan Hi′⊂H peut être étendue à une réflexion si de E par rapport à l’hyperplan Hi′⊕Vect(x).
La composée g=s1∘⋯∘sk coïncide avec f sur H. De plus, g(x)=x car x est dans chaque hyperplan de réflexion.
Donc f=g, et f est une composition de k≤n−1≤n réflexions.
Cas 2 : f n’a pas de vecteur fixe non nul (sauf 0).
Soit x∈E un vecteur unitaire. Comme f(x)=x, le vecteur u=f(x)−x est non nul.
Soit s la réflexion par rapport à l’hyperplan H=u⊥.
Donc la composée g=s∘f admet x comme vecteur fixe.
D’après le cas 1, g est un produit de k≤n−1 réflexions s1,…,sk.
Alors s∘f=s1∘⋯∘sk.
Puisque s∘s=Id, on a f=s∘s1∘⋯∘sk.
f est donc une composition de k+1≤(n−1)+1=n réflexions.
Conclusion: Dans tous les cas, f est une composition d’au plus n réflexions. Par le principe de récurrence, le théorème est vrai pour tout n≥1.
Réponse: Le théorème de Cartan-Dieudonné est démontré par récurrence sur la dimension n. Si f a un point fixe, on applique l’hypothèse de récurrence sur son hyperplan orthogonal. Sinon, on compose f avec une réflexion bien choisie s pour que s∘f ait un point fixe, ce qui ramène au premier cas.
Exercice 10
Problème: Soit f∈SO(4) un automorphisme orthogonal direct de l’espace euclidien R4. Montrer que f est une double rotation, c’est-à-dire qu’il existe une base orthonormée de R4 dans laquelle la matrice de f est de la forme :
Discuter les cas particuliers pour les angles θ et ϕ.
Solution
Méthode: L’analyse repose sur l’étude des valeurs propres du polynôme caractéristique de f. Les valeurs propres d’une isométrie sont de module 1. Comme la matrice est réelle, les valeurs propres complexes apparaissent par paires conjuguées.
Étapes:
Analyse des valeurs propres:
Soit M la matrice de f dans une base orthonormée. M∈SO(4). Le polynôme caractéristique χM(λ) est de degré 4 à coefficients réels.
Ses racines (les valeurs propres) sont de module 1. Les possibilités pour les racines sont :
a) Quatre racines réelles : Puisqu’elles sont de module 1, elles valent ±1. Comme det(M)=1, le nombre de valeurs propres égales à −1 doit être pair. Les possibilités sont (1,1,1,1) ou (1,1,−1,−1) ou (−1,−1,−1,−1).
b) Deux racines réelles et deux complexes conjuguées : Les réelles sont ±1. Les complexes sont eiθ,e−iθ avec θ∈]0,π[. Le produit des valeurs propres étant 1, les réelles doivent être (1,1) ou (−1,−1).
c) Quatre racines complexes : Elles viennent par paires conjuguées, (eiθ,e−iθ) et (eiϕ,e−iϕ) avec θ,ϕ∈]0,π[.
Construction de la base (Cas c):
Supposons que les valeurs propres sont e±iθ et e±iϕ avec θ,ϕ∈]0,π[.
Soit u1+iu2 un vecteur propre (normalisé) dans l’extension complexifiée E⊗C pour la valeur propre eiθ. Alors f(u1+iu2)=eiθ(u1+iu2)=(cosθ+isinθ)(u1+iu2).
En identifiant parties réelles et imaginaires, on obtient f(u1)=cosθu1−sinθu2 et f(u2)=sinθu1+cosθu2.
On peut montrer que u1 et u2 sont orthogonaux et de même norme. On peut les choisir orthonormés.
Le plan P1=Vect(u1,u2) est stable par f, et la restriction de f à P1 est une rotation d’angle θ.
De même, en partant d’un vecteur propre pour eiϕ, on trouve un plan P2=Vect(u3,u4) stable par f, où la restriction est une rotation d’angle ϕ.
Le sous-espace P1⊥ est stable par f (car f est une isométrie). P2 doit être inclus dans P1⊥. Par dimension, P2=P1⊥.
Dans la base orthonormée (u1,u2,u3,u4), la matrice de f a la forme voulue.
Analyse des autres cas:
Les autres cas de valeurs propres correspondent à des cas particuliers de la forme générale où un ou plusieurs angles sont nuls ou égaux à π.
Cas (a) (1,1,1,1): f=Id. θ=ϕ=0.
Cas (a) (1,1,−1,−1): θ=0,ϕ=π. Une rotation d’angle π (demi-tour) dans un plan et l’identité dans le plan orthogonal.
Cas (a) (−1,−1,−1,−1): θ=ϕ=π. C’est la composée de deux demi-tours dans des plans orthogonaux. Note : −I4∈SO(4).
Cas (b) (1,1,eiθ,e−iθ): ϕ=0. C’est une rotation simple d’angle θ dans un plan P, et l’identité sur P⊥. L’axe de rotation est un plan (le plan des points fixes).
Cas (b) (−1,−1,eiθ,e−iθ): ϕ=π. C’est une rotation d’angle θ dans un plan, et un demi-tour dans le plan orthogonal.
Conclusion:
Dans tous les cas, il existe une décomposition de R4 en somme directe orthogonale de deux plans stables P1⊕P2 telle que la restriction de f à chaque plan est une rotation (éventuellement triviale ou un demi-tour). Ceci prouve l’existence de la base et de la matrice annoncée.
Réponse: Toute isométrie directe de R4 admet une base orthonormée dans laquelle sa matrice est M=diag(R(θ),R(ϕ)). Cela se démontre en analysant la structure des valeurs propres de f, qui conduit à une décomposition de l’espace en une somme directe orthogonale de deux plans stables sur lesquels f agit comme une rotation plane.