Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Exercices “Groupes d’isométries” (B)


Exercice 1

Problème: Soit E=2(Z)E = \ell^2(\mathbb{Z}) l’espace des suites de nombres complexes (xn)nZ(x_n)_{n \in \mathbb{Z}} de carré sommable, muni du produit hermitien canonique x,y=nZxnyn\langle x, y \rangle = \sum_{n \in \mathbb{Z}} \overline{x_n} y_n. On considère l’opérateur de décalage à droite (right shift) S:EES: E \to E défini par (Sx)n=xn1(Sx)_n = x_{n-1}.

  1. Montrer que SS est un opérateur unitaire (une isométrie) sur EE.
  2. Déterminer son adjoint SS^*.
  3. On considère l’opérateur de décalage à gauche (left shift) T:EET: E \to E défini par (Tx)n=xn+1(Tx)_n = x_{n+1}. TT est-il unitaire ?
  4. Comparer ce résultat avec le cas d’un espace de dimension finie.
Solution

Méthode: Nous allons vérifier les propriétés de l’opérateur SS en utilisant directement les définitions. Pour la première partie, nous montrerons que SS préserve la norme. Pour la seconde, nous utiliserons la définition de l’adjoint Sx,y=x,Sy\langle S^*x, y \rangle = \langle x, Sy \rangle. Pour la troisième, nous vérifierons si TT est unitaire en testant s’il est l’inverse de SS. L’analyse de la situation en dimension infinie mettra en lumière les différences fondamentales avec la dimension finie.

Étapes:

  1. Montrer que SS est unitaire.

    Soit x=(xn)nZEx = (x_n)_{n \in \mathbb{Z}} \in E. Calculons la norme de S(x)S(x).

    S(x)2=nZ(Sx)n2=nZxn12\|S(x)\|^2 = \sum_{n \in \mathbb{Z}} |(Sx)_n|^2 = \sum_{n \in \mathbb{Z}} |x_{n-1}|^2.

    En posant k=n1k = n-1, l’indice kk parcourt également Z\mathbb{Z}. La somme devient kZxk2=x2\sum_{k \in \mathbb{Z}} |x_k|^2 = \|x\|^2.

    Ainsi, S(x)=x\|S(x)\| = \|x\| pour tout xEx \in E. L’opérateur SS est donc une isométrie. Pour montrer qu’il est unitaire, il faut qu’il soit surjectif. Soit y=(yn)Ey=(y_n) \in E. Cherchons xEx \in E tel que Sx=ySx=y. Cela signifie (Sx)n=xn1=yn(Sx)_n = x_{n-1} = y_n pour tout nn, donc xk=yk+1x_k = y_{k+1} pour tout kk. La suite x=(yn+1)nZx = (y_{n+1})_{n \in \mathbb{Z}} est bien dans EE car sa norme est x2=nyn+12=kyk2=y2<\|x\|^2 = \sum_n |y_{n+1}|^2 = \sum_k |y_k|^2 = \|y\|^2 < \infty. Donc SS est surjectif. Une isométrie surjective est un opérateur unitaire.

  2. Déterminer l’adjoint SS^*.

    Pour tous x,yEx, y \in E, nous devons avoir Sx,y=x,Sy\langle S^*x, y \rangle = \langle x, Sy \rangle.

    x,Sy=nZxn(Sy)n=nZxnyn1\langle x, Sy \rangle = \sum_{n \in \mathbb{Z}} \overline{x_n} (Sy)_n = \sum_{n \in \mathbb{Z}} \overline{x_n} y_{n-1}.

    Posons k=n1k=n-1, donc n=k+1n=k+1. La somme devient kZxk+1yk\sum_{k \in \mathbb{Z}} \overline{x_{k+1}} y_k.

    Cette somme doit être égale à Sx,y=kZ(Sx)kyk\langle S^*x, y \rangle = \sum_{k \in \mathbb{Z}} \overline{(S^*x)_k} y_k.

    Par identification, on a (Sx)k=xk+1\overline{(S^*x)_k} = \overline{x_{k+1}}, donc (Sx)k=xk+1(S^*x)_k = x_{k+1}.

    L’opérateur adjoint est donc S=TS^*=T, l’opérateur de décalage à gauche.

  3. L’opérateur TT est-il unitaire ?

    D’après le point 2, T=ST=S^*. Puisque SS est unitaire, on a S1=SS^{-1}=S^*. Donc T=S1T=S^{-1}. L’inverse d’un opérateur unitaire est unitaire. Vérifions-le directement :

    T(x)2=nZ(Tx)n2=nZxn+12=kZxk2=x2\|T(x)\|^2 = \sum_{n \in \mathbb{Z}} |(Tx)_n|^2 = \sum_{n \in \mathbb{Z}} |x_{n+1}|^2 = \sum_{k \in \mathbb{Z}} |x_k|^2 = \|x\|^2.

    Donc TT préserve la norme. Pour la surjectivité, soit yEy \in E. Tx=yTx=y donne xn+1=ynx_{n+1}=y_n, donc xk=yk1x_k = y_{k-1}. Cette suite xx est dans EE et a la même norme que yy. Donc TT est surjectif.

    Ainsi, TT est unitaire.

  4. Comparaison avec la dimension finie.

    En dimension finie, un endomorphisme ff est une isométrie si et seulement si ff=Idf^*f = \text{Id}. Cela implique que ff est injectif. Par le théorème du rang, ff est alors automatiquement surjectif, donc ff est un automorphisme et f1=ff^{-1}=f^*.

    En dimension infinie, ce n’est plus vrai. Un opérateur peut être une isométrie (et donc injectif) sans être surjectif. L’exemple classique est l’opérateur de décalage à droite sur 2(N)\ell^2(\mathbb{N}), S:(x0,x1,...)(0,x0,x1,...)S: (x_0, x_1, ...) \mapsto (0, x_0, x_1, ...). Il est isométrique mais non surjectif (l’image ne contient pas les suites dont le premier terme est non nul). Sur 2(Z)\ell^2(\mathbb{Z}), le “trou” n’est pas créé, et la surjectivité est conservée. Cet exercice illustre que sur 2(Z)\ell^2(\mathbb{Z}), la situation reste proche de la dimension finie, mais il faut prouver la surjectivité séparément.

Réponse:

  1. SS est unitaire car il préserve la norme et il est surjectif.
  2. L’adjoint est S=TS^*=T, l’opérateur de décalage à gauche.
  3. Oui, TT est unitaire.
  4. En dimension infinie, une isométrie n’est pas nécessairement surjective, contrairement au cas de la dimension finie. Cependant, dans le cas de 2(Z)\ell^2(\mathbb{Z}), l’opérateur de décalage reste surjectif.

Exercice 2

Problème: Soit n2n \ge 2. Montrer que le groupe spécial orthogonal SOn(R)SO_n(\mathbb{R}) est connexe par arcs.

Solution

Méthode: Nous allons procéder par récurrence sur la dimension nn. L’idée est de montrer que toute matrice MSOn(R)M \in SO_n(\mathbb{R}) peut être connectée à l’identité InI_n par un chemin continu contenu dans SOn(R)SO_n(\mathbb{R}). Pour l’étape de récurrence, nous utiliserons la structure des isométries pour ramener une matrice MSOn(R)M \in SO_n(\mathbb{R}) à une forme plus simple via un chemin continu, puis appliquer l’hypothèse de récurrence.

Étapes:

  1. Cas de base (n=2n=2):

    Toute matrice de SO2(R)SO_2(\mathbb{R}) est une matrice de rotation R(θ)=(cosθsinθsinθcosθ)R(\theta) = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}.

    Soit M=R(θ0)SO2(R)M = R(\theta_0) \in SO_2(\mathbb{R}). Le chemin γ:[0,1]SO2(R)\gamma: [0,1] \to SO_2(\mathbb{R}) défini par γ(t)=R(tθ0)\gamma(t) = R(t\theta_0) est un chemin continu.

    On a γ(0)=R(0)=I2\gamma(0) = R(0) = I_2 et γ(1)=R(θ0)=M\gamma(1) = R(\theta_0) = M.

    Le chemin est bien dans SO2(R)SO_2(\mathbb{R}) car det(R(tθ0))=1\det(R(t\theta_0))=1 pour tout tt.

    Donc SO2(R)SO_2(\mathbb{R}) est connexe par arcs.

  2. Hypothèse de récurrence:

    Supposons que SOn1(R)SO_{n-1}(\mathbb{R}) est connexe par arcs pour un n3n \ge 3.

  3. Étape de récurrence:

    Soit MSOn(R)M \in SO_n(\mathbb{R}). Soit e1e_1 le premier vecteur de la base canonique de Rn\mathbb{R}^n. Considérons le vecteur v=Me1v = M e_1. On a v=Me1=e1=1\|v\| = \|M e_1\| = \|e_1\| = 1.

    Nous voulons trouver un chemin continu de rotations R(t)R(t) tel que R(0)=InR(0)=I_n et R(1)v=e1R(1)v = e_1.

    Si v=e1v = e_1, on peut prendre R(t)=InR(t)=I_n pour tout tt.

    Si ve1v \neq e_1, vv et e1e_1 sont deux vecteurs unitaires distincts. Ils engendrent un plan P=Vect(e1,v)P = \text{Vect}(e_1, v). Si v=e1v=-e_1, on peut choisir n’importe quel plan contenant e1e_1.

    Soit RP(θ)R_P(\theta) la rotation d’angle θ\theta dans le plan PP qui amène e1e_1 vers vv, et qui est l’identité sur PP^\perp. Soit θ0\theta_0 cet angle.

    Le chemin tRP(tθ0)t \mapsto R_P(t\theta_0) est un chemin dans SOn(R)SO_n(\mathbb{R}) qui relie InI_n à RP(θ0)R_P(\theta_0). Soit R1=RP(θ0)R_1 = R_P(\theta_0). On a R1e1=vR_1 e_1 = v.

    Considérons le chemin γ1(t)\gamma_1(t) de InI_n à R11R_1^{-1}. Alors le chemin tγ1(t)Mt \mapsto \gamma_1(t)M relie MM à M=R11MM' = R_1^{-1}M.

    Calculons l’action de MM' sur e1e_1: Me1=R11Me1=R11v=e1M'e_1 = R_1^{-1}M e_1 = R_1^{-1}v = e_1.

    La matrice MM' fixe donc le vecteur e1e_1. Sa première colonne est (1,0,...,0)t(1,0,...,0)^t. Comme MM' est orthogonale, les autres colonnes sont orthogonales à la première, donc la première ligne est (1,0,...,0)(1,0,...,0).

    La matrice MM' a donc la forme :

    M=(100Mn1)M' = \begin{pmatrix} 1 & 0 \\ 0 & M_{n-1} \end{pmatrix}, où Mn1Mn1(R)M_{n-1} \in M_{n-1}(\mathbb{R}).

    Comme MSOn(R)M' \in SO_n(\mathbb{R}), on a t(M)(M)=In{}^t(M')(M')=I_n, ce qui implique tMn1Mn1=In1{}^tM_{n-1}M_{n-1}=I_{n-1}, donc Mn1On1(R)M_{n-1} \in O_{n-1}(\mathbb{R}).

    De plus, det(M)=1det(Mn1)=1\det(M')=1 \cdot \det(M_{n-1})=1, donc Mn1SOn1(R)M_{n-1} \in SO_{n-1}(\mathbb{R}).

  4. Conclusion de la récurrence:

    Par l’hypothèse de récurrence, SOn1(R)SO_{n-1}(\mathbb{R}) est connexe par arcs. Il existe donc un chemin continu δ(t)\delta(t) dans SOn1(R)SO_{n-1}(\mathbb{R}) tel que δ(0)=In1\delta(0) = I_{n-1} et δ(1)=Mn1\delta(1) = M_{n-1}.

    Construisons le chemin γ2(t)=(100δ(t))\gamma_2(t) = \begin{pmatrix} 1 & 0 \\ 0 & \delta(t) \end{pmatrix}. C’est un chemin continu dans SOn(R)SO_n(\mathbb{R}) qui relie (100In1)=In\begin{pmatrix} 1 & 0 \\ 0 & I_{n-1} \end{pmatrix} = I_n à MM'.

    Ainsi, MM' est connectée à InI_n. Puisque MM est connectée à MM', par transitivité, MM est connectée à InI_n.

    Ceci étant vrai pour toute matrice MSOn(R)M \in SO_n(\mathbb{R}), le groupe SOn(R)SO_n(\mathbb{R}) est connexe par arcs.

Réponse: Le groupe SOn(R)SO_n(\mathbb{R}) est connexe par arcs pour tout n2n \ge 2. La preuve se fait par récurrence sur nn.


Exercice 3

Problème: Soient les rotations R1R_1 et R2R_2 dans R3\mathbb{R}^3 définies par leurs matrices dans la base canonique :

R1R_1 est la rotation d’angle π/2\pi/2 autour de l’axe (1,0,0)(1,0,0).

R2R_2 est la rotation d’angle π/2\pi/2 autour de l’axe (0,1,0)(0,1,0).

Déterminer l’axe et l’angle de la rotation composée R=R2R1R = R_2 \circ R_1.

Solution

Méthode: Nous allons d’abord construire les matrices M1M_1 et M2M_2 de R1R_1 et R2R_2 respectivement. Nous pouvons utiliser la formule de Rodrigues ou une approche géométrique directe. Ensuite, nous calculerons la matrice du composé M=M2M1M = M_2 M_1. Enfin, nous extrairons l’axe et l’angle de la rotation correspondante à MM. L’axe est le vecteur propre associé à la valeur propre 1. L’angle θ\theta peut être trouvé via la formule Tr(M)=1+2cosθ\text{Tr}(M) = 1 + 2\cos\theta.

Étapes:

  1. Matrice de R1R_1:

    Rotation d’angle θ1=π/2\theta_1=\pi/2 autour de N1=(1,0,0)N_1=(1,0,0).

    Cette rotation fixe e1e_1, envoie e2e_2 sur e3e_3, et e3e_3 sur e2-e_2.

    La matrice est M1=(1000cos(π/2)sin(π/2)0sin(π/2)cos(π/2))=(100001010)M_1 = \begin{pmatrix} 1 & 0 & 0 \\ 0 & \cos(\pi/2) & -\sin(\pi/2) \\ 0 & \sin(\pi/2) & \cos(\pi/2) \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix}.

  2. Matrice de R2R_2:

    Rotation d’angle θ2=π/2\theta_2=\pi/2 autour de N2=(0,1,0)N_2=(0,1,0).

    Cette rotation fixe e2e_2, envoie e3e_3 sur e1e_1, et e1e_1 sur e3-e_3.

    La matrice est M2=(cos(π/2)0sin(π/2)010sin(π/2)0cos(π/2))=(001010100)M_2 = \begin{pmatrix} \cos(\pi/2) & 0 & \sin(\pi/2) \\ 0 & 1 & 0 \\ -\sin(\pi/2) & 0 & \cos(\pi/2) \end{pmatrix} = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ -1 & 0 & 0 \end{pmatrix}.

  3. Matrice de la composition R=R2R1R = R_2 \circ R_1:

    M=M2M1=(001010100)(100001010)=(010001100)M = M_2 M_1 = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ -1 & 0 & 0 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & -1 \\ -1 & 0 & 0 \end{pmatrix}.

    On vérifie que MSO3(R)M \in SO_3(\mathbb{R}): tMM=I3{}^tMM=I_3 et det(M)=1\det(M)=1.

  4. Détermination de l’angle de rotation θ\theta:

    La trace de MM est Tr(M)=0+0+0=0\text{Tr}(M) = 0+0+0=0.

    On a la relation Tr(M)=1+2cosθ\text{Tr}(M) = 1 + 2\cos\theta.

    0=1+2cosθ    cosθ=1/20 = 1 + 2\cos\theta \implies \cos\theta = -1/2.

    L’angle est donc θ=±2π/3\theta = \pm 2\pi/3.

  5. Détermination de l’axe de rotation NN:

    L’axe est le sous-espace propre associé à la valeur propre 1. On résout MU=UMU=U, soit (MI3)U=0(M-I_3)U=0.

    MI3=(110011101)M-I_3 = \begin{pmatrix} -1 & 1 & 0 \\ 0 & -1 & -1 \\ -1 & 0 & -1 \end{pmatrix}.

    On résout le système :

    {x+y=0yz=0xz=0    {x=yz=yy(y)=0\begin{cases} -x+y=0 \\ -y-z=0 \\ -x-z=0 \end{cases} \implies \begin{cases} x=y \\ z=-y \\ -y-(-y)=0 \end{cases}.

    La troisième équation est 0=00=0. Le système est de rang 2. Les solutions sont de la forme (y,y,y)=y(1,1,1)(y, y, -y) = y(1, 1, -1).

    L’axe est donc la droite dirigée par le vecteur N=(1,1,1)N'=(1,1,-1).

    Un vecteur directeur unitaire est N=13(1,1,1)N = \frac{1}{\sqrt{3}}(1,1,-1).

  6. Détermination du signe de l’angle:

    Le signe de θ\theta dépend de l’orientation de l’axe. Choisissons N=13(1,1,1)N=\frac{1}{\sqrt{3}}(1,1,-1).

    On utilise la formule sinθ=12u,NMu\sin\theta = \frac{1}{2} \langle u, N \wedge Mu \rangle pour un vecteur uu non colinéaire à NN.

    Prenons u=e1=(1,0,0)u=e_1=(1,0,0). Mu=(0,0,1)Mu = (0,0,-1).

    NMu=13(1,1,1)(0,0,1)=13(1,1,0)N \wedge Mu = \frac{1}{\sqrt{3}}(1,1,-1) \wedge (0,0,-1) = \frac{1}{\sqrt{3}}(-1, 1, 0).

    sinθ=12u2Tr(Mantisym)Trace((MtM)opu,N)\sin\theta = \frac{1}{2\|u\|^2\text{Tr}(M_{antisym})} \text{Trace}( (M - {}^tM) \text{op}_{u,N} ). Une méthode plus simple :

    sinθ(Nx,Ny,Nz)\sin\theta (N_x, N_y, N_z) a pour composantes (M32M23)/2,(M13M31)/2,(M21M12)/2(M_{32}-M_{23})/2, (M_{13}-M_{31})/2, (M_{21}-M_{12})/2.

    MtM=(011101110)M - {}^tM = \begin{pmatrix} 0 & 1 & 1 \\ -1 & 0 & -1 \\ -1 & 1 & 0 \end{pmatrix}.

    Les composantes du vecteur vv tel que MtM=2sinθKNM-^t M = 2\sin\theta K_N sont: v1=(M32M23)/2=(0(1))/2=1/2v_1 = (M_{32}-M_{23})/2 = (0-(-1))/2 = 1/2.

    v2=(M13M31)/2=(0(1))/2=1/2v_2 = (M_{13}-M_{31})/2 = (0-(-1))/2 = 1/2.

    v3=(M21M12)/2=(01)/2=1/2v_3 = (M_{21}-M_{12})/2 = (0-1)/2 = -1/2.

    Le vecteur est (1/2,1/2,1/2)(1/2, 1/2, -1/2). C’est bien la direction de NN.

    On a (1/2,1/2,1/2)=sinθN=sinθ13(1,1,1)(1/2, 1/2, -1/2) = \sin\theta \cdot N = \sin\theta \cdot \frac{1}{\sqrt{3}}(1,1,-1).

    12=sinθ3    sinθ=3/2\frac{1}{2} = \frac{\sin\theta}{\sqrt{3}} \implies \sin\theta = \sqrt{3}/2.

    Puisque cosθ=1/2\cos\theta=-1/2 et sinθ=3/2\sin\theta=\sqrt{3}/2, l’angle est θ=2π/3\theta=2\pi/3.

Réponse: La rotation composée R=R2R1R = R_2 \circ R_1 est une rotation d’angle θ=2π3\theta = \frac{2\pi}{3} autour de l’axe dirigé par le vecteur N=(1,1,1)N=(1,1,-1).


Exercice 4

Problème: Soit (R3,)(\mathbb{R}^3, \wedge) l’espace euclidien orienté de dimension 3 muni du produit vectoriel.

  1. Démontrer l’identité de Jacobi :

    U,V,WR3,U(VW)+V(WU)+W(UV)=0\forall U, V, W \in \mathbb{R}^3, \quad U \wedge (V \wedge W) + V \wedge (W \wedge U) + W \wedge (U \wedge V) = 0

  2. Montrer que l’espace vectoriel R3\mathbb{R}^3 muni du crochet de Lie [U,V]=UV[U, V] = U \wedge V est une algèbre de Lie.

  3. Expliquer la signification de cette identité dans le contexte de l’algèbre de Lie so(3)\mathfrak{so}(3) des matrices antisymétriques d’ordre 3.

Solution

Méthode: Pour la première partie, nous utiliserons la formule du double produit vectoriel (formule “BAC-CAB”) A(BC)=A,CBA,BCA \wedge (B \wedge C) = \langle A, C \rangle B - \langle A, B \rangle C. Pour la deuxième partie, nous vérifierons les axiomes d’une algèbre de Lie. Pour la troisième, nous rappellerons l’isomorphisme entre (R3,)(\mathbb{R}^3, \wedge) et (so(3),[,])(\mathfrak{so}(3), [,]) et montrerons que l’identité de Jacobi pour le produit vectoriel est l’expression de l’identité de Jacobi pour le commutateur de matrices.

Étapes:

  1. Démonstration de l’identité de Jacobi:

    Utilisons la formule du double produit vectoriel:

    U(VW)=U,WVU,VWU \wedge (V \wedge W) = \langle U, W \rangle V - \langle U, V \rangle W

    V(WU)=V,UWV,WUV \wedge (W \wedge U) = \langle V, U \rangle W - \langle V, W \rangle U

    W(UV)=W,VUW,UVW \wedge (U \wedge V) = \langle W, V \rangle U - \langle W, U \rangle V

    Sommons ces trois expressions. Les produits scalaires sont symétriques (A,B=B,A\langle A, B \rangle = \langle B, A \rangle).

    Somme =(U,WVW,UV)+(U,VW+V,UW)+(V,WU+W,VU)= (\langle U, W \rangle V - \langle W, U \rangle V) + (-\langle U, V \rangle W + \langle V, U \rangle W) + (-\langle V, W \rangle U + \langle W, V \rangle U)

    =0V+0W+0U=0= 0 \cdot V + 0 \cdot W + 0 \cdot U = 0.

    L’identité est donc démontrée.

  2. Vérification de la structure d’algèbre de Lie:

    Une algèbre de Lie est un espace vectoriel G\mathcal{G} muni d’une application bilinéaire [,]:G×GG[\cdot, \cdot]: \mathcal{G} \times \mathcal{G} \to \mathcal{G} (le crochet de Lie) qui vérifie :

    a) L’antisymétrie : [X,Y]=[Y,X][X, Y] = -[Y, X] pour tous X,YGX, Y \in \mathcal{G}.

    b) L’identité de Jacobi : [X,[Y,Z]]+[Y,[Z,X]]+[Z,[X,Y]]=0[X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y]] = 0 pour tous X,Y,ZGX, Y, Z \in \mathcal{G}.

    Ici, G=R3\mathcal{G} = \mathbb{R}^3 et [U,V]=UV[U, V] = U \wedge V.

    • La bilinéarité du produit vectoriel est une propriété de base.
    • a) L’antisymétrie UV=VUU \wedge V = -V \wedge U est aussi une propriété fondamentale du produit vectoriel.
    • b) L’identité de Jacobi est exactement ce que nous avons prouvé à la question 1.

    Donc, (R3,+,R,)(\mathbb{R}^3, +, \cdot_{\mathbb{R}}, \wedge) est une algèbre de Lie.

  3. Signification pour so(3)\mathfrak{so}(3):

    L’algèbre de Lie so(3)\mathfrak{so}(3) est l’ensemble des matrices antisymétriques de taille 3, munie du commutateur [A,B]=ABBA[A,B]=AB-BA.

    On peut définir un isomorphisme d’espaces vectoriels ϕ:R3so(3)\phi: \mathbb{R}^3 \to \mathfrak{so}(3) par :

    ϕ(U)=KU=(0u3u2u30u1u2u10)\phi(U) = K_U = \begin{pmatrix} 0 & -u_3 & u_2 \\ u_3 & 0 & -u_1 \\ -u_2 & u_1 & 0 \end{pmatrix} pour U=(u1,u2,u3)U=(u_1, u_2, u_3).

    Cette application a la propriété que pour tous U,VR3U, V \in \mathbb{R}^3, ϕ(UV)=[ϕ(U),ϕ(V)]\phi(U \wedge V) = [\phi(U), \phi(V)]. C’est un isomorphisme d’algèbres de Lie.

    L’identité de Jacobi pour le commutateur de matrices est toujours vraie dans n’importe quelle algèbre associative :

    [A,[B,C]]+[B,[C,A]]+[C,[A,B]]=0[A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0.

    En appliquant ϕ1\phi^{-1} à cette identité avec A=ϕ(U)A=\phi(U), B=ϕ(V)B=\phi(V), C=ϕ(W)C=\phi(W), on obtient :

    ϕ1([ϕ(U),[ϕ(V),ϕ(W)]])+=0\phi^{-1}([\phi(U), [\phi(V), \phi(W)]]) + \dots = 0.

    Puisque ϕ\phi est un isomorphisme d’algèbres de Lie :

    ϕ1([ϕ(U),ϕ(VW)])+=0\phi^{-1}([\phi(U), \phi(V \wedge W)]) + \dots = 0.

    U(VW)+=0U \wedge (V \wedge W) + \dots = 0.

    Ainsi, l’identité de Jacobi pour le produit vectoriel est la “traduction” de l’identité de Jacobi fondamentale pour le commutateur de matrices via l’isomorphisme entre (R3,)(\mathbb{R}^3, \wedge) et (so(3),[,])(\mathfrak{so}(3), [,]).

Réponse:

  1. L’identité de Jacobi se démontre en appliquant trois fois la formule du double produit vectoriel et en sommant les résultats.
  2. (R3,)(\mathbb{R}^3, \wedge) est une algèbre de Lie car le produit vectoriel est bilinéaire, antisymétrique et satisfait l’identité de Jacobi.
  3. Cette identité est la manifestation, dans R3\mathbb{R}^3, de l’identité de Jacobi universelle pour les commutateurs de matrices, via l’isomorphisme d’algèbres de Lie so(3)R3\mathfrak{so}(3) \cong \mathbb{R}^3.

Exercice 5

Problème: Soit une rotation R\mathcal{R} dans R3\mathbb{R}^3 d’axe dirigé par le vecteur unitaire NN et d’angle θ]0,2π[\theta \in ]0, 2\pi[. Prouver que pour tout vecteur UR3U \in \mathbb{R}^3, on a la relation suivante, qui exprime le produit vectoriel en termes de la rotation et de son adjointe:

NU=12sinθ(R(U)R1(U))N \wedge U = \frac{1}{2\sin\theta}(\mathcal{R}(U) - \mathcal{R}^{-1}(U))

Solution

Méthode: Nous allons utiliser la formule de Rodrigues pour exprimer R(U)\mathcal{R}(U) et R1(U)\mathcal{R}^{-1}(U). R1\mathcal{R}^{-1} est la rotation d’axe NN et d’angle θ-\theta. En calculant la différence R(U)R1(U)\mathcal{R}(U) - \mathcal{R}^{-1}(U) et en simplifiant, nous devrions obtenir une expression proportionnelle à NUN \wedge U.

Étapes:

  1. Expression de R(U)\mathcal{R}(U) via la formule de Rodrigues:

    La rotation d’axe NN et d’angle θ\theta est donnée par:

    RN,θ(U)=cos(θ)U+(1cos(θ))U,NN+sin(θ)(NU)\mathcal{R}_{N,\theta}(U) = \cos(\theta)U + (1-\cos(\theta))\langle U,N \rangle N + \sin(\theta) (N \wedge U)

  2. Expression de R1(U)\mathcal{R}^{-1}(U):

    L’inverse R1\mathcal{R}^{-1} est la rotation d’axe NN et d’angle θ-\theta. On remplace θ\theta par θ-\theta dans la formule de Rodrigues.

    On utilise les propriétés cos(θ)=cos(θ)\cos(-\theta) = \cos(\theta) et sin(θ)=sin(θ)\sin(-\theta) = -\sin(\theta).

    RN,θ(U)=cos(θ)U+(1cos(θ))U,NNsin(θ)(NU)\mathcal{R}_{N,-\theta}(U) = \cos(\theta)U + (1-\cos(\theta))\langle U,N \rangle N - \sin(\theta) (N \wedge U)

  3. Calcul de la différence:

    On soustrait la deuxième expression de la première:

    R(U)R1(U)=(cos(θ)U+(1cos(θ))U,NN+sin(θ)(NU))(cos(θ)U+(1cos(θ))U,NNsin(θ)(NU))\mathcal{R}(U) - \mathcal{R}^{-1}(U) = \left( \cos(\theta)U + (1-\cos(\theta))\langle U,N \rangle N + \sin(\theta) (N \wedge U) \right) - \left( \cos(\theta)U + (1-\cos(\theta))\langle U,N \rangle N - \sin(\theta) (N \wedge U) \right)

    Les termes en UU et en NN s’annulent:

    R(U)R1(U)=sin(θ)(NU)(sin(θ)(NU))\mathcal{R}(U) - \mathcal{R}^{-1}(U) = \sin(\theta) (N \wedge U) - (-\sin(\theta) (N \wedge U))

    R(U)R1(U)=2sin(θ)(NU)\mathcal{R}(U) - \mathcal{R}^{-1}(U) = 2\sin(\theta) (N \wedge U)

  4. Conclusion:

    Puisque θ]0,2π[\theta \in ]0, 2\pi[, on peut avoir sinθ=0\sin\theta=0 si θ=π\theta=\pi.

    Si θ]0,π[]π,2π[\theta \in ]0, \pi[ \cup ]\pi, 2\pi[, alors sinθ0\sin\theta \neq 0. On peut diviser par 2sinθ2\sin\theta:

    NU=12sinθ(R(U)R1(U))N \wedge U = \frac{1}{2\sin\theta}(\mathcal{R}(U) - \mathcal{R}^{-1}(U))

    Si θ=π\theta=\pi, R\mathcal{R} est un demi-tour. R(U)=U+2U,NN\mathcal{R}(U) = -U + 2\langle U,N \rangle N.

    Dans ce cas, R=R1\mathcal{R} = \mathcal{R}^{-1}, donc R(U)R1(U)=0\mathcal{R}(U) - \mathcal{R}^{-1}(U) = 0. Le membre de droite de la formule n’est pas défini.

    Cependant, la relation 2sin(θ)(NU)=R(U)R1(U)2\sin(\theta) (N \wedge U) = \mathcal{R}(U) - \mathcal{R}^{-1}(U) reste vraie pour θ=π\theta=\pi, car les deux côtés sont nuls. L’énoncé est donc à interpréter pour sinθ0\sin\theta \neq 0.

Réponse: Pour θ]0,π[]π,2π[\theta \in ]0, \pi[ \cup ]\pi, 2\pi[, la formule est:

NU=12sinθ(R(U)R1(U))N \wedge U = \frac{1}{2\sin\theta}(\mathcal{R}(U) - \mathcal{R}^{-1}(U))

Elle découle directement de la soustraction de la formule de Rodrigues pour l’angle θ-\theta à celle pour l’angle θ\theta.


Exercice 6

Problème: Soit l’isomorphisme d’algèbres de Lie ϕ:(R3,)(so(3),[,])\phi: (\mathbb{R}^3, \wedge) \to (\mathfrak{so}(3), [,])[A,B]=ABBA[A,B]=AB-BA et ϕ(V)\phi(V) est la matrice KVK_V telle que KVU=VUK_V U = V \wedge U pour tout UR3U \in \mathbb{R}^3.

Soit RSO(3)R \in SO(3) une rotation. Démontrer la relation suivante, qui lie la rotation, son algèbre de Lie, et la représentation adjointe :

VR3,ϕ(R(V))=Rϕ(V)R1\forall V \in \mathbb{R}^3, \quad \phi(R(V)) = R \phi(V) R^{-1}

Solution

Méthode: L’identité à prouver est V,UR3,KR(V)U=RKVR1U\forall V, U \in \mathbb{R}^3, K_{R(V)} U = R K_V R^{-1} U. Nous allons partir du membre de droite et utiliser les propriétés des rotations et du produit vectoriel. L’astuce clé est de montrer qu’une rotation préserve le produit vectoriel, c’est-à-dire R(AB)=R(A)R(B)R(A \wedge B) = R(A) \wedge R(B) pour RSO(3)R \in SO(3).

Étapes:

  1. Propriété de conservation du produit vectoriel par les rotations:

    Soit RSO(3)R \in SO(3). Soient A,BR3A, B \in \mathbb{R}^3. Par définition du produit vectoriel ABA \wedge B, il est l’unique vecteur tel que WR3,AB,W=det(A,B,W)\forall W \in \mathbb{R}^3, \langle A \wedge B, W \rangle = \det(A, B, W).

    Considérons le vecteur R(A)R(B)R(A) \wedge R(B). Pour tout ZR3Z \in \mathbb{R}^3:

    R(A)R(B),Z=det(R(A),R(B),Z)\langle R(A) \wedge R(B), Z \rangle = \det(R(A), R(B), Z).

    Posons Z=R(W)Z=R(W). Comme RR est surjective, cela couvre tout R3\mathbb{R}^3.

    R(A)R(B),R(W)=det(R(A),R(B),R(W))\langle R(A) \wedge R(B), R(W) \rangle = \det(R(A), R(B), R(W)).

    Puisque RR est une isométrie, elle préserve le produit scalaire: R(X),R(Y)=X,Y\langle R(X), R(Y) \rangle = \langle X, Y \rangle.

    Donc, le membre de gauche est AB,W\langle A \wedge B, W \rangle.

    Le membre de droite est det(R)det(A,B,W)\det(R) \det(A, B, W).

    Comme RSO(3)R \in SO(3), det(R)=1\det(R)=1.

    On a donc l’égalité : AB,W=det(A,B,W)=det(R(A),R(B),R(W))=R(A)R(B),R(W)\langle A \wedge B, W \rangle = \det(A,B,W) = \det(R(A), R(B), R(W)) = \langle R(A) \wedge R(B), R(W) \rangle.

    En appliquant la conservation du produit scalaire par RR, ceci est AB,W\langle A \wedge B, W \rangle.

    On a donc montré R(A)R(B),R(W)=R(AB),R(W)\langle R(A) \wedge R(B), R(W) \rangle = \langle R(A \wedge B), R(W) \rangle.

    Comme RR est un isomorphisme, on peut conclure que R(A)R(B)=R(AB)R(A) \wedge R(B) = R(A \wedge B).

  2. Démonstration de la relation principale:

    On veut montrer KR(V)U=RKVR1UK_{R(V)} U = R K_V R^{-1} U.

    Calculons le membre de droite : RKVR1U=R(V(R1U))R K_V R^{-1} U = R (V \wedge (R^{-1}U)).

    Utilisons la propriété de conservation du produit vectoriel démontrée à l’étape 1:

    R(V(R1U))=R(V)R(R1U)=R(V)UR (V \wedge (R^{-1}U)) = R(V) \wedge R(R^{-1}U) = R(V) \wedge U.

    Le membre de gauche est par définition KR(V)U=R(V)UK_{R(V)} U = R(V) \wedge U.

    Les deux membres sont égaux. La relation est donc démontrée pour tout U,VR3U, V \in \mathbb{R}^3.

  3. Interprétation:

    La relation ϕ(R(V))=Rϕ(V)R1\phi(R(V)) = R \phi(V) R^{-1} s’écrit aussi KR(V)=RKVR1K_{R(V)} = R K_V R^{-1}.

    L’action de SO(3)SO(3) sur son algèbre de Lie so(3)\mathfrak{so}(3) par conjugaison ARAR1A \mapsto R A R^{-1} est appelée la représentation adjointe du groupe sur son algèbre, notée AdR(A)\text{Ad}_R(A).

    L’action naturelle de SO(3)SO(3) sur R3\mathbb{R}^3 est l’action de rotation VR(V)V \mapsto R(V).

    La formule démontrée montre que l’isomorphisme ϕ\phi “entrelace” ces deux actions. C’est un isomorphisme de “modules” sur le groupe SO(3)SO(3). Cette compatibilité est une propriété fondamentale qui lie un groupe de Lie et son algèbre de Lie.

Réponse: La relation ϕ(R(V))=Rϕ(V)R1\phi(R(V)) = R \phi(V) R^{-1} est démontrée en montrant d’abord que les rotations directes préservent le produit vectoriel, i.e., R(AB)=R(A)R(B)R(A \wedge B) = R(A) \wedge R(B), puis en appliquant cette propriété à la définition de l’opérateur ϕ(V)=KV\phi(V) = K_V.


Exercice 7

Problème: Démontrer la surjectivité du morphisme de groupes J:SU(2)SO(3)\mathcal{J}: SU(2) \to SO(3) défini par J(U)=AdU\mathcal{J}(U) = \text{Ad}_U, où AdU(M)=UMU\text{Ad}_U(M) = UMU^* pour MM dans l’espace V\mathcal{V} des matrices hermitiennes de trace nulle.

Solution

Méthode: Pour prouver la surjectivité, il suffit de montrer que l’image de J\mathcal{J} contient un ensemble de générateurs de SO(3)SO(3). Un tel ensemble est constitué des rotations autour des axes de la base canonique. Nous allons construire explicitement des matrices USU(2)U \in SU(2) dont les images par J\mathcal{J} sont les rotations d’angle arbitraire autour des axes correspondant à la base (T1,T2,T3)(T_1, T_2, T_3) de V\mathcal{V}.

Étapes:

  1. Rappel de la base de V\mathcal{V}:

    On utilise la base (proportionnelle aux matrices de Pauli) de VR3\mathcal{V} \cong \mathbb{R}^3:

    T1=(0ii0),T2=(0110),T3=(1001)T_1 = \begin{pmatrix} 0 & -i \\ i & 0 \end{pmatrix}, T_2 = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}, T_3 = \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}.

    Cette base est orthonormée pour le produit scalaire A,B=12Tr(AB)\langle A, B \rangle = \frac{1}{2}\text{Tr}(AB).

  2. Rotation autour de l’axe T3T_3:

    Considérons la matrice U3(θ)=(eiθ/200eiθ/2)SU(2)U_3(\theta) = \begin{pmatrix} e^{-i\theta/2} & 0 \\ 0 & e^{i\theta/2} \end{pmatrix} \in SU(2).

    Calculons AdU3(θ)(M)=U3(θ)MU3(θ)\text{Ad}_{U_3(\theta)}(M) = U_3(\theta) M U_3(\theta)^*.

    • Pour M=T3M=T_3: AdU3(θ)(T3)=U3(θ)T3U3(θ)1=T3\text{Ad}_{U_3(\theta)}(T_3) = U_3(\theta) T_3 U_3(\theta)^{-1} = T_3 car U3U_3 et T3T_3 sont diagonales et commutent. L’axe T3T_3 est fixe.
    • Pour M=T2M=T_2: AdU3(θ)(T2)=(eiθ/200eiθ/2)(0110)(eiθ/200eiθ/2)=(0eiθeiθ0)\text{Ad}_{U_3(\theta)}(T_2) = \begin{pmatrix} e^{-i\theta/2} & 0 \\ 0 & e^{i\theta/2} \end{pmatrix} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} e^{i\theta/2} & 0 \\ 0 & e^{-i\theta/2} \end{pmatrix} = \begin{pmatrix} 0 & e^{-i\theta} \\ e^{i\theta} & 0 \end{pmatrix}.

    Ceci se décompose en: (0cosθisinθcosθ+isinθ0)=cosθ(0110)sinθ(0ii0)=cosθT2sinθT1\begin{pmatrix} 0 & \cos\theta - i\sin\theta \\ \cos\theta + i\sin\theta & 0 \end{pmatrix} = \cos\theta \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} - \sin\theta \begin{pmatrix} 0 & -i \\ i & 0 \end{pmatrix} = \cos\theta T_2 - \sin\theta T_1.

    • Pour M=T1M=T_1: un calcul similaire donne AdU3(θ)(T1)=sinθT2+cosθT1\text{Ad}_{U_3(\theta)}(T_1) = \sin\theta T_2 + \cos\theta T_1.

    Dans la base (T1,T2,T3)(T_1, T_2, T_3), la matrice de AdU3(θ)\text{Ad}_{U_3(\theta)} est (cosθsinθ0sinθcosθ0001)\begin{pmatrix} \cos\theta & -\sin\theta & 0 \\ \sin\theta & \cos\theta & 0 \\ 0 & 0 & 1 \end{pmatrix}, qui est la rotation d’angle θ\theta autour de T3T_3.

  3. Rotation autour des autres axes:

    Par un argument de symétrie, les rotations autour des axes T1T_1 et T2T_2 sont aussi dans l’image de J\mathcal{J}. Par exemple, U2(θ)=(cos(θ/2)sin(θ/2)sin(θ/2)cos(θ/2))U_2(\theta) = \begin{pmatrix} \cos(\theta/2) & \sin(\theta/2) \\ \sin(\theta/2) & \cos(\theta/2) \end{pmatrix} est proportionnelle à exp(θ/2T2)\exp(\theta/2 T_2) et génère une rotation d’angle θ\theta autour de T2T_2.

    Plus généralement, soit NN un vecteur unitaire dans R3\mathbb{R}^3, correspondant à MNVM_N \in \mathcal{V} avec 12Tr(MN2)=1\frac{1}{2}\text{Tr}(M_N^2)=1.

    La matrice UN(θ)=cos(θ/2)I2isin(θ/2)MNU_N(\theta) = \cos(\theta/2) I_2 - i\sin(\theta/2) M_N est dans SU(2)SU(2). On peut montrer que J(UN(θ))\mathcal{J}(U_N(\theta)) est la rotation d’angle θ\theta autour de l’axe NN.

  4. Conclusion de surjectivité:

    Toute rotation de SO(3)SO(3) peut s’écrire comme une rotation d’un certain angle θ\theta autour d’un certain axe NN. D’après l’étape 3, pour tout couple (N,θ)(N, \theta), on peut construire un antécédent UN(θ)SU(2)U_N(\theta) \in SU(2). Donc toute rotation de SO(3)SO(3) est dans l’image de J\mathcal{J}. Le morphisme est surjectif.

Réponse: Le morphisme J:SU(2)SO(3)\mathcal{J}: SU(2) \to SO(3) est surjectif. Ceci est prouvé en montrant que toutes les rotations, qui engendrent SO(3)SO(3), sont dans l’image de J\mathcal{J}. On construit explicitement les préimages dans SU(2)SU(2) des rotations autour des axes de base.


Exercice 8

Problème: Prouver le théorème de la décomposition polaire : toute matrice inversible MGLn(R)M \in GL_n(\mathbb{R}) peut s’écrire de manière unique sous la forme M=OSM=OS, où OOn(R)O \in O_n(\mathbb{R}) est une matrice orthogonale et SSn++(R)S \in S_n^{++}(\mathbb{R}) est une matrice symétrique définie positive.

Solution

Méthode: La preuve se fait en deux temps : existence et unicité.

Pour l’existence, nous construisons SS à partir de MM et montrons qu’elle a les propriétés requises. Ensuite, nous définissons OO et montrons qu’elle est orthogonale.

Pour l’unicité, nous supposons deux décompositions et montrons qu’elles doivent être identiques.

Étapes:

  1. Construction de S (Existence):

    Considérons la matrice A=tMMA = {}^tMM. C’est une matrice symétrique : tA=t(tMM)=tM(ttM)=tMM=A{}^tA = {}^t({}^tMM) = {}^tM({}^t{}^tM) = {}^tMM = A.

    Elle est définie positive : pour tout XRn{0}X \in \mathbb{R}^n \setminus \{0\}, tXAX=tXtMMX=t(MX)(MX)=MX2{}^tX A X = {}^tX{}^tMMX = {}^t(MX)(MX) = \|MX\|^2.

    Comme MM est inversible, X0    MX0X \neq 0 \implies MX \neq 0, donc MX2>0\|MX\|^2 > 0.

    AA est donc symétrique définie positive.

    D’après le théorème spectral, il existe une unique racine carrée symétrique définie positive de AA, que nous notons SS. On a S2=A=tMMS^2 = A = {}^tMM et SSn++(R)S \in S_n^{++}(\mathbb{R}).

  2. Construction de O (Existence):

    Définissons O=MS1O = MS^{-1}. Nous devons montrer que OO est orthogonale.

    Calculons tOO{}^tOO:

    tOO=t(MS1)(MS1)=(tS1)(tM)MS1{}^tOO = {}^t(MS^{-1})(MS^{-1}) = ({}^tS^{-1})({}^tM) M S^{-1}.

    Comme SS est symétrique, S1S^{-1} l’est aussi, donc tS1=S1{}^tS^{-1} = S^{-1}.

    tOO=S1(tMM)S1=S1(S2)S1=(S1S)(SS1)=InIn=In{}^tOO = S^{-1} ({}^tMM) S^{-1} = S^{-1} (S^2) S^{-1} = (S^{-1}S)(S S^{-1}) = I_n I_n = I_n.

    Donc OO est bien une matrice orthogonale.

    Nous avons M=OSM = OS avec OOn(R)O \in O_n(\mathbb{R}) et SSn++(R)S \in S_n^{++}(\mathbb{R}). L’existence est prouvée.

  3. Unicité:

    Supposons qu’il existe deux décompositions : M=O1S1=O2S2M = O_1 S_1 = O_2 S_2, avec O1,O2On(R)O_1, O_2 \in O_n(\mathbb{R}) et S1,S2Sn++(R)S_1, S_2 \in S_n^{++}(\mathbb{R}).

    Calculons tMM{}^tMM:

    tMM=t(O1S1)(O1S1)=tS1tO1O1S1=S1InS1=S12{}^tMM = {}^t(O_1 S_1)(O_1 S_1) = {}^tS_1 {}^tO_1 O_1 S_1 = S_1 I_n S_1 = S_1^2.

    De même, tMM=t(O2S2)(O2S2)=S22{}^tMM = {}^t(O_2 S_2)(O_2 S_2) = S_2^2.

    On a donc S12=S22S_1^2 = S_2^2.

    Puisque S1S_1 et S2S_2 sont des matrices symétriques définies positives, elles sont les racines carrées uniques de la matrice tMM{}^tMM. Par conséquent, S1=S2S_1=S_2.

    Ensuite, de O1S1=O2S1O_1 S_1 = O_2 S_1 et comme S1S_1 est inversible (car définie positive), on peut multiplier par S11S_1^{-1} à droite pour obtenir O1=O2O_1=O_2.

    La décomposition est donc unique.

  4. Interprétation géométrique:

    L’endomorphisme associé à MM peut être vu comme la composition d’une isométrie (donnée par OO) et d’une “dilatation” le long d’axes orthogonaux (donnée par SS). La matrice SS déforme la sphère unité en un ellipsoïde, et la matrice OO fait ensuite tourner (et/ou réfléchit) cet ellipsoïde.

Réponse: Le théorème de la décomposition polaire est vrai. L’existence est constructive : on pose S=tMMS = \sqrt{{}^tMM} (l’unique racine carrée symétrique définie positive) et O=MS1O=MS^{-1}. L’unicité découle de l’unicité de la racine carrée symétrique définie positive d’une matrice.


Exercice 9

Problème: Soit EE un espace euclidien de dimension nn. Démontrer le théorème de Cartan-Dieudonné en dimension nn: tout automorphisme orthogonal fO(E)f \in O(E) se décompose en un produit d’au plus nn réflexions hyperplanes.

Solution

Méthode: Nous allons procéder par récurrence sur la dimension nn de l’espace. La stratégie consiste à trouver une réflexion ss telle que sfs \circ f fixe au moins un vecteur non nul, ce qui permet de se ramener à un problème de dimension n1n-1.

Étapes:

  1. Cas de base (n=1n=1):

    L’espace est une droite. O(E)={Id,Id}O(E) = \{\text{Id}, -\text{Id}\}.

    Id\text{Id} est le produit de 0 réflexions (ou sss \circ s pour une réflexion ss). 010 \le 1.

    Id-\text{Id} est la réflexion par rapport à l’hyperplan {0}\{0\}. C’est 1 réflexion. 111 \le 1.

    Le théorème est vrai pour n=1n=1.

  2. Hypothèse de récurrence:

    Supposons que le théorème est vrai pour tout espace euclidien de dimension k<nk < n.

  3. Étape de récurrence (nn):

    Soit fO(E)f \in O(E).

    Cas 1 : ff admet un vecteur fixe non nul.

    Soit xEx \in E, x0x \neq 0, tel que f(x)=xf(x)=x. Soit H=(Vect(x))H = (\text{Vect}(x))^\perp. HH est un hyperplan de dimension n1n-1.

    Pour tout yHy \in H, f(y),x=f(y),f(x)=y,x=0\langle f(y), x \rangle = \langle f(y), f(x) \rangle = \langle y, x \rangle = 0. Donc f(y)Hf(y) \in H.

    La restriction de ff à HH, notée fHf_H, est un automorphisme orthogonal de HH.

    Par hypothèse de récurrence, fHf_H est le produit de kn1k \le n-1 réflexions hyperplanes s1,,sks'_1, \dots, s'_k de HH.

    Chaque réflexion sis'_i par rapport à un hyperplan HiHH'_i \subset H peut être étendue à une réflexion sis_i de EE par rapport à l’hyperplan HiVect(x)H'_i \oplus \text{Vect}(x).

    La composée g=s1skg = s_1 \circ \dots \circ s_k coïncide avec ff sur HH. De plus, g(x)=xg(x)=x car xx est dans chaque hyperplan de réflexion.

    Donc f=gf=g, et ff est une composition de kn1nk \le n-1 \le n réflexions.

  4. Cas 2 : ff n’a pas de vecteur fixe non nul (sauf 0).

    Soit xEx \in E un vecteur unitaire. Comme f(x)xf(x) \neq x, le vecteur u=f(x)xu = f(x)-x est non nul.

    Soit ss la réflexion par rapport à l’hyperplan H=uH=u^\perp.

    Par définition, s(u)=us(u)=-u.

    On a s(y)=y2y,uu2us(y) = y - 2 \frac{\langle y, u \rangle}{\|u\|^2} u.

    Calculons s(f(x))s(f(x)):

    f(x)x2=f(x)22f(x),x+x2=12f(x),x+1=2(1f(x),x)\|f(x)-x\|^2 = \|f(x)\|^2 - 2\langle f(x), x \rangle + \|x\|^2 = 1 - 2\langle f(x), x \rangle + 1 = 2(1-\langle f(x), x \rangle).

    f(x),u=f(x),f(x)x=f(x)2f(x),x=1f(x),x\langle f(x), u \rangle = \langle f(x), f(x)-x \rangle = \|f(x)\|^2 - \langle f(x), x \rangle = 1 - \langle f(x), x \rangle.

    Donc f(x),u=12u2\langle f(x), u \rangle = \frac{1}{2}\|u\|^2.

    s(f(x))=f(x)2f(x),uu2u=f(x)212u2u2u=f(x)u=f(x)(f(x)x)=xs(f(x)) = f(x) - 2 \frac{\langle f(x), u \rangle}{\|u\|^2} u = f(x) - 2 \frac{\frac{1}{2}\|u\|^2}{\|u\|^2} u = f(x)-u = f(x) - (f(x)-x) = x.

    Donc la composée g=sfg = s \circ f admet xx comme vecteur fixe.

    D’après le cas 1, gg est un produit de kn1k \le n-1 réflexions s1,,sks_1, \dots, s_k.

    Alors sf=s1sks \circ f = s_1 \circ \dots \circ s_k.

    Puisque ss=Ids \circ s = \text{Id}, on a f=ss1skf = s \circ s_1 \circ \dots \circ s_k.

    ff est donc une composition de k+1(n1)+1=nk+1 \le (n-1)+1=n réflexions.

  5. Conclusion: Dans tous les cas, ff est une composition d’au plus nn réflexions. Par le principe de récurrence, le théorème est vrai pour tout n1n \ge 1.

Réponse: Le théorème de Cartan-Dieudonné est démontré par récurrence sur la dimension nn. Si ff a un point fixe, on applique l’hypothèse de récurrence sur son hyperplan orthogonal. Sinon, on compose ff avec une réflexion bien choisie ss pour que sfs \circ f ait un point fixe, ce qui ramène au premier cas.


Exercice 10

Problème: Soit fSO(4)f \in SO(4) un automorphisme orthogonal direct de l’espace euclidien R4\mathbb{R}^4. Montrer que ff est une double rotation, c’est-à-dire qu’il existe une base orthonormée de R4\mathbb{R}^4 dans laquelle la matrice de ff est de la forme :

M=(cosθsinθ00sinθcosθ0000cosϕsinϕ00sinϕcosϕ)M = \begin{pmatrix} \cos\theta & -\sin\theta & 0 & 0 \\ \sin\theta & \cos\theta & 0 & 0 \\ 0 & 0 & \cos\phi & -\sin\phi \\ 0 & 0 & \sin\phi & \cos\phi \end{pmatrix}

Discuter les cas particuliers pour les angles θ\theta et ϕ\phi.

Solution

Méthode: L’analyse repose sur l’étude des valeurs propres du polynôme caractéristique de ff. Les valeurs propres d’une isométrie sont de module 1. Comme la matrice est réelle, les valeurs propres complexes apparaissent par paires conjuguées.

Étapes:

  1. Analyse des valeurs propres:

    Soit MM la matrice de ff dans une base orthonormée. MSO(4)M \in SO(4). Le polynôme caractéristique χM(λ)\chi_M(\lambda) est de degré 4 à coefficients réels.

    Ses racines (les valeurs propres) sont de module 1. Les possibilités pour les racines sont :

    a) Quatre racines réelles : Puisqu’elles sont de module 1, elles valent ±1\pm 1. Comme det(M)=1\det(M)=1, le nombre de valeurs propres égales à 1-1 doit être pair. Les possibilités sont (1,1,1,1)(1,1,1,1) ou (1,1,1,1)(1,1,-1,-1) ou (1,1,1,1)(-1,-1,-1,-1).

    b) Deux racines réelles et deux complexes conjuguées : Les réelles sont ±1\pm 1. Les complexes sont eiθ,eiθe^{i\theta}, e^{-i\theta} avec θ]0,π[\theta \in ]0, \pi[. Le produit des valeurs propres étant 1, les réelles doivent être (1,1)(1,1) ou (1,1)(-1,-1).

    c) Quatre racines complexes : Elles viennent par paires conjuguées, (eiθ,eiθ)(e^{i\theta}, e^{-i\theta}) et (eiϕ,eiϕ)(e^{i\phi}, e^{-i\phi}) avec θ,ϕ]0,π[\theta, \phi \in ]0, \pi[.

  2. Construction de la base (Cas c):

    Supposons que les valeurs propres sont e±iθe^{\pm i\theta} et e±iϕe^{\pm i\phi} avec θ,ϕ]0,π[\theta, \phi \in ]0, \pi[.

    Soit u1+iu2u_1 + i u_2 un vecteur propre (normalisé) dans l’extension complexifiée ECE \otimes \mathbb{C} pour la valeur propre eiθe^{i\theta}. Alors f(u1+iu2)=eiθ(u1+iu2)=(cosθ+isinθ)(u1+iu2)f(u_1+iu_2) = e^{i\theta}(u_1+iu_2) = (\cos\theta+i\sin\theta)(u_1+iu_2).

    En identifiant parties réelles et imaginaires, on obtient f(u1)=cosθu1sinθu2f(u_1) = \cos\theta u_1 - \sin\theta u_2 et f(u2)=sinθu1+cosθu2f(u_2) = \sin\theta u_1 + \cos\theta u_2.

    On peut montrer que u1u_1 et u2u_2 sont orthogonaux et de même norme. On peut les choisir orthonormés.

    Le plan P1=Vect(u1,u2)P_1 = \text{Vect}(u_1, u_2) est stable par ff, et la restriction de ff à P1P_1 est une rotation d’angle θ\theta.

    De même, en partant d’un vecteur propre pour eiϕe^{i\phi}, on trouve un plan P2=Vect(u3,u4)P_2 = \text{Vect}(u_3, u_4) stable par ff, où la restriction est une rotation d’angle ϕ\phi.

    Le sous-espace P1P_1^\perp est stable par ff (car ff est une isométrie). P2P_2 doit être inclus dans P1P_1^\perp. Par dimension, P2=P1P_2 = P_1^\perp.

    Dans la base orthonormée (u1,u2,u3,u4)(u_1, u_2, u_3, u_4), la matrice de ff a la forme voulue.

  3. Analyse des autres cas:

    Les autres cas de valeurs propres correspondent à des cas particuliers de la forme générale où un ou plusieurs angles sont nuls ou égaux à π\pi.

    • Cas (a) (1,1,1,1)(1,1,1,1): f=Idf = \text{Id}. θ=ϕ=0\theta=\phi=0.
    • Cas (a) (1,1,1,1)(1,1,-1,-1): θ=0,ϕ=π\theta=0, \phi=\pi. Une rotation d’angle π\pi (demi-tour) dans un plan et l’identité dans le plan orthogonal.
    • Cas (a) (1,1,1,1)(-1,-1,-1,-1): θ=ϕ=π\theta=\phi=\pi. C’est la composée de deux demi-tours dans des plans orthogonaux. Note : I4SO(4)-I_4 \in SO(4).
    • Cas (b) (1,1,eiθ,eiθ)(1,1,e^{i\theta},e^{-i\theta}): ϕ=0\phi=0. C’est une rotation simple d’angle θ\theta dans un plan PP, et l’identité sur PP^\perp. L’axe de rotation est un plan (le plan des points fixes).
    • Cas (b) (1,1,eiθ,eiθ)(-1,-1,e^{i\theta},e^{-i\theta}): ϕ=π\phi=\pi. C’est une rotation d’angle θ\theta dans un plan, et un demi-tour dans le plan orthogonal.
  4. Conclusion:

    Dans tous les cas, il existe une décomposition de R4\mathbb{R}^4 en somme directe orthogonale de deux plans stables P1P2P_1 \oplus P_2 telle que la restriction de ff à chaque plan est une rotation (éventuellement triviale ou un demi-tour). Ceci prouve l’existence de la base et de la matrice annoncée.

Réponse: Toute isométrie directe de R4\mathbb{R}^4 admet une base orthonormée dans laquelle sa matrice est M=diag(R(θ),R(ϕ))M = \text{diag}(R(\theta), R(\phi)). Cela se démontre en analysant la structure des valeurs propres de ff, qui conduit à une décomposition de l’espace en une somme directe orthogonale de deux plans stables sur lesquels ff agit comme une rotation plane.