Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Groupes d'isométries - preuves (A)

Équivalence entre la préservation de la norme et du produit scalaire

Prouver que pour un endomorphisme ff d'un espace euclidien EE, ff est une isométrie (préserve la norme) si et seulement si ff préserve le produit scalaire.

Indice

Pour montrer que la préservation de la norme implique la préservation du produit scalaire, utilisez une des identités de polarisation, qui exprime le produit scalaire en termes de la norme. Par exemple, φ(x,y)=12(x+y2x2y2)\varphi(x, y) = \frac{1}{2}(\|x+y\|^2 - \|x\|^2 - \|y\|^2).

L'implication inverse est plus directe.

Solution

Soit ff un endomorphisme de l'espace euclidien (E,φ)(E, \varphi). Nous devons prouver l'équivalence :

(xE,f(x)=x)    (x,yE,φ(f(x),f(y))=φ(x,y))(\forall x \in E, \|f(x)\| = \|x\|) \iff (\forall x, y \in E, \varphi(f(x), f(y)) = \varphi(x, y))

Étape 1 : (Préservation du produit scalaire     \implies Préservation de la norme)

Supposons que ff préserve le produit scalaire. Pour tout x,yEx, y \in E, on a φ(f(x),f(y))=φ(x,y)\varphi(f(x), f(y)) = \varphi(x, y).

Prenons y=xy=x. On a alors φ(f(x),f(x))=φ(x,x)\varphi(f(x), f(x)) = \varphi(x, x).

Par définition de la norme associée au produit scalaire, v2=φ(v,v)\|v\|^2 = \varphi(v,v).

Donc, l'équation devient f(x)2=x2\|f(x)\|^2 = \|x\|^2.

Puisque les normes sont des réels positifs, on peut prendre la racine carrée des deux côtés, ce qui donne f(x)=x\|f(x)\| = \|x\|.

Ainsi, ff préserve la norme.

Étape 2 : (Préservation de la norme     \implies Préservation du produit scalaire)

Supposons que ff préserve la norme. Pour tout vEv \in E, on a f(v)=v\|f(v)\| = \|v\|.

Nous utilisons l'identité de polarisation : φ(x,y)=12(x+y2x2y2)\varphi(x, y) = \frac{1}{2}(\|x+y\|^2 - \|x\|^2 - \|y\|^2).

Appliquons cette identité aux vecteurs images f(x)f(x) et f(y)f(y) :

φ(f(x),f(y))=12(f(x)+f(y)2f(x)2f(y)2)\varphi(f(x), f(y)) = \frac{1}{2}(\|f(x)+f(y)\|^2 - \|f(x)\|^2 - \|f(y)\|^2)

Puisque ff est un endomorphisme (linéaire), f(x)+f(y)=f(x+y)f(x)+f(y) = f(x+y).

φ(f(x),f(y))=12(f(x+y)2f(x)2f(y)2)\varphi(f(x), f(y)) = \frac{1}{2}(\|f(x+y)\|^2 - \|f(x)\|^2 - \|f(y)\|^2)

Nous savons par hypothèse que ff préserve la norme, donc f(v)=v\|f(v)\| = \|v\| pour tout vEv \in E. Appliquons ceci pour v=x+yv=x+y, v=xv=x, et v=yv=y :

φ(f(x),f(y))=12(x+y2x2y2)\varphi(f(x), f(y)) = \frac{1}{2}(\|x+y\|^2 - \|x\|^2 - \|y\|^2)

On reconnaît dans le membre de droite l'identité de polarisation pour φ(x,y)\varphi(x, y).

φ(f(x),f(y))=φ(x,y)\varphi(f(x), f(y)) = \varphi(x, y)

Ainsi, ff préserve le produit scalaire.

Conclusion : Les deux propriétés sont bien équivalentes.

Caractérisation d'une isométrie par son adjoint

Prouver qu'un endomorphisme ff d'un espace euclidien ou hermitien EE est une isométrie si et seulement si ff=IdEf^* \circ f = \text{Id}_E, où ff^* est l'endomorphisme adjoint de ff.

Indice

Utilisez la définition de l'application adjointe ff^*, qui est : x,yE,φ(f(x),y)=φ(x,f(y))\forall x, y \in E, \varphi(f(x), y) = \varphi(x, f^*(y)).

Montrez l'équivalence entre la condition ff=IdEf^* \circ f = \text{Id}_E et la condition de préservation du produit scalaire φ(f(x),f(y))=φ(x,y)\varphi(f(x), f(y)) = \varphi(x, y).

Solution

Soit ff un endomorphisme de EE. Nous allons prouver l'équivalence en montrant les deux implications.

Étape 1 : (ff=IdE    ff^* \circ f = \text{Id}_E \implies f est une isométrie)

Supposons que ff=IdEf^* \circ f = \text{Id}_E. Cela signifie que pour tout xEx \in E, f(f(x))=xf^*(f(x)) = x.

Considérons le produit scalaire φ(f(x),f(y))\varphi(f(x), f(y)) pour x,yEx, y \in E quelconques. Par définition de l'adjoint ff^*, on peut écrire :

φ(f(x),f(y))=φ(x,f(f(y)))\varphi(f(x), f(y)) = \varphi(x, f^*(f(y)))

En utilisant notre hypothèse f(f(y))=yf^*(f(y)) = y, on obtient :

φ(f(x),f(y))=φ(x,y)\varphi(f(x), f(y)) = \varphi(x, y)

Ceci montre que ff préserve le produit scalaire. D'après la propriété démontrée précédemment, un endomorphisme qui préserve le produit scalaire préserve aussi la norme, donc ff est une isométrie.

Étape 2 : (ff est une isométrie     ff=IdE\implies f^* \circ f = \text{Id}_E)

Supposons que ff est une isométrie. Cela signifie que ff préserve le produit scalaire, donc x,yE,φ(f(x),f(y))=φ(x,y)\forall x, y \in E, \varphi(f(x), f(y)) = \varphi(x, y).

Par définition de l'adjoint, on a aussi φ(f(x),f(y))=φ(x,f(f(y)))\varphi(f(x), f(y)) = \varphi(x, f^*(f(y))).

En combinant ces deux égalités, on obtient :

φ(x,y)=φ(x,f(f(y)))\varphi(x, y) = \varphi(x, f^*(f(y)))

φ(x,y)φ(x,f(f(y)))=0\varphi(x, y) - \varphi(x, f^*(f(y))) = 0

Par linéarité du produit scalaire par rapport à la deuxième variable (ou sesquilinéarité dans le cas hermitien) :

φ(x,yf(f(y)))=0\varphi(x, y - f^*(f(y))) = 0

Cette égalité est vraie pour tout xEx \in E. Le seul vecteur de EE qui est orthogonal à tous les vecteurs de EE est le vecteur nul (car le produit scalaire est non dégénéré). Donc, pour un yy fixé, on doit avoir :

yf(f(y))=0y - f^*(f(y)) = 0

y=f(f(y))y = f^*(f(y))

Ceci étant vrai pour tout yEy \in E, on conclut que l'application fff^* \circ f est l'application identité IdE\text{Id}_E.

Conclusion : Un endomorphisme ff est une isométrie si et seulement si ff=IdEf^* \circ f = \text{Id}_E. Cela implique aussi que toute isométrie en dimension finie est un isomorphisme (car elle est injective), et que son inverse est son adjoint : f1=ff^{-1} = f^*.

Image d'une base orthonormée par une isométrie

Prouver qu'un endomorphisme ff est une isométrie si et seulement si l'image par ff d'une base orthonormée est une base orthonormée.

Indice

Soit B=(e1,,en)\mathcal{B} = (e_1, \dots, e_n) une base orthonormée. Pour prouver que son image B=(f(e1),,f(en))\mathcal{B}' = (f(e_1), \dots, f(e_n)) est orthonormée, il faut montrer que φ(f(ei),f(ej))=δij\varphi(f(e_i), f(e_j)) = \delta_{ij} (symbole de Kronecker).

Pour la réciproque, exprimez un vecteur xx quelconque dans la base B\mathcal{B}, x=i=1nxieix = \sum_{i=1}^n x_i e_i. Calculez x2\|x\|^2 puis f(x)2\|f(x)\|^2 et montrez qu'ils sont égaux.

Solution

Soit ff un endomorphisme de EE, et B=(e1,,en)\mathcal{B} = (e_1, \dots, e_n) une base orthonormée de EE.

Étape 1 : (Si ff est une isométrie, alors l'image de B\mathcal{B} est une base orthonormée)

Supposons que ff est une isométrie. Alors ff préserve le produit scalaire.

Soit B=(f(e1),,f(en))\mathcal{B}' = (f(e_1), \dots, f(e_n)) l'image de la base B\mathcal{B} par ff. Pour montrer que B\mathcal{B}' est une base orthonormée, nous devons vérifier que φ(f(ei),f(ej))=δij\varphi(f(e_i), f(e_j)) = \delta_{ij} pour tous i,j{1,,n}i, j \in \{1, \dots, n\}.

Puisque ff préserve le produit scalaire, on a :

φ(f(ei),f(ej))=φ(ei,ej)\varphi(f(e_i), f(e_j)) = \varphi(e_i, e_j)

Comme B\mathcal{B} est une base orthonormée, on sait que φ(ei,ej)=δij\varphi(e_i, e_j) = \delta_{ij}.

Donc, φ(f(ei),f(ej))=δij\varphi(f(e_i), f(e_j)) = \delta_{ij}.

Ceci prouve que la famille B\mathcal{B}' est une famille orthonormée. Une famille orthonormée de nn vecteurs dans un espace de dimension nn est toujours une base. Donc B\mathcal{B}' est une base orthonormée.

Étape 2 : (Si l'image d'une base orthonormée est une base orthonormée, alors ff est une isométrie)

Supposons qu'il existe une base orthonormée B=(e1,,en)\mathcal{B}=(e_1, \dots, e_n) telle que son image B=(f(e1),,f(en))\mathcal{B}' = (f(e_1), \dots, f(e_n)) soit aussi une base orthonormée.

On a donc φ(f(ei),f(ej))=δij\varphi(f(e_i), f(e_j)) = \delta_{ij}.

Soit xx un vecteur quelconque de EE. On peut le décomposer dans la base B\mathcal{B} : x=i=1nxieix = \sum_{i=1}^n x_i e_i.

La norme au carré de xx est donnée par (puisque B\mathcal{B} est orthonormée) :

x2=φ(i=1nxiei,j=1nxjej)=i,jxixjφ(ei,ej)=i,jxixjδij=i=1nxi2\|x\|^2 = \varphi\left(\sum_{i=1}^n x_i e_i, \sum_{j=1}^n x_j e_j\right) = \sum_{i,j} x_i x_j \varphi(e_i, e_j) = \sum_{i,j} x_i x_j \delta_{ij} = \sum_{i=1}^n x_i^2

Maintenant, calculons l'image de xx par ff. Par linéarité de ff :

f(x)=f(i=1nxiei)=i=1nxif(ei)f(x) = f\left(\sum_{i=1}^n x_i e_i\right) = \sum_{i=1}^n x_i f(e_i)

Calculons la norme au carré de f(x)f(x). Comme la base (f(e1),,f(en))(f(e_1), \dots, f(e_n)) est orthonormée par hypothèse, le calcul est similaire :

f(x)2=φ(i=1nxif(ei),j=1nxjf(ej))=i,jxixjφ(f(ei),f(ej))=i,jxixjδij=i=1nxi2\|f(x)\|^2 = \varphi\left(\sum_{i=1}^n x_i f(e_i), \sum_{j=1}^n x_j f(e_j)\right) = \sum_{i,j} x_i x_j \varphi(f(e_i), f(e_j)) = \sum_{i,j} x_i x_j \delta_{ij} = \sum_{i=1}^n x_i^2

Nous avons donc x2=i=1nxi2\|x\|^2 = \sum_{i=1}^n x_i^2 et f(x)2=i=1nxi2\|f(x)\|^2 = \sum_{i=1}^n x_i^2.

Il s'ensuit que f(x)2=x2\|f(x)\|^2 = \|x\|^2, et donc f(x)=x\|f(x)\| = \|x\|.

Ceci étant vrai pour tout xEx \in E, ff est une isométrie.

Le groupe des isométries O(E)O(E)

Prouver que l'ensemble des isométries d'un espace euclidien EE, noté O(E)O(E), muni de la composition d'applications ()(\circ), forme un groupe.

Indice

Pour prouver qu'un ensemble muni d'une loi de composition est un groupe, il faut vérifier trois axiomes :

  1. Stabilité : Si f,gO(E)f, g \in O(E), est-ce que fgO(E)f \circ g \in O(E) ?
  2. Élément neutre : L'application identité est-elle une isométrie ?
  3. Inverse : Si fO(E)f \in O(E), son inverse f1f^{-1} existe-t-il et est-il aussi une isométrie ? (Rappel : en dimension finie, une application linéaire injective est bijective).
Solution

Pour montrer que (O(E),)(O(E), \circ) est un groupe, nous devons vérifier les trois axiomes de la structure de groupe.

1. Stabilité (ou loi de composition interne)

Soient ff et gg deux isométries de EE. Nous devons montrer que leur composée fgf \circ g est aussi une isométrie.

Pour tout xEx \in E, nous devons vérifier que (fg)(x)=x\|(f \circ g)(x)\| = \|x\|.

(fg)(x)=f(g(x))\|(f \circ g)(x)\| = \|f(g(x))\|

Puisque ff est une isométrie, f(y)=y\|f(y)\| = \|y\| pour tout yEy \in E. Appliquons ceci avec y=g(x)y=g(x):

f(g(x))=g(x)\|f(g(x))\| = \|g(x)\|

Puisque gg est une isométrie, g(x)=x\|g(x)\| = \|x\|.

En combinant les deux, on obtient (fg)(x)=x\|(f \circ g)(x)\| = \|x\|.

La composition est donc bien une loi interne sur O(E)O(E).

2. Élément neutre

L'élément neutre pour la composition d'applications est l'application identité, IdE\text{Id}_E, définie par IdE(x)=x\text{Id}_E(x) = x pour tout xEx \in E.

Vérifions si IdE\text{Id}_E est une isométrie :

IdE(x)=x\|\text{Id}_E(x)\| = \|x\|

Ceci est vrai par définition. Donc, IdEO(E)\text{Id}_E \in O(E).

3. Existence de l'inverse

Soit fO(E)f \in O(E). Nous devons montrer que ff est bijective et que son inverse f1f^{-1} est aussi une isométrie.

  • Bijectivité : Pour montrer que ff est bijective, il suffit de montrer qu'elle est injective, car ff est un endomorphisme en dimension finie. Pour montrer l'injectivité, on montre que son noyau est réduit au vecteur nul. Soit xker(f)x \in \ker(f), alors f(x)=0f(x) = 0. On a f(x)=0=0\|f(x)\| = \|0\| = 0. Comme ff est une isométrie, f(x)=x\|f(x)\| = \|x\|. Donc x=0\|x\|=0, ce qui implique x=0x=0. Le noyau est donc ker(f)={0}\ker(f) = \{0\}, et ff est injective, donc bijective. L'inverse f1f^{-1} existe.
  • f1f^{-1} est une isométrie : Nous devons montrer que f1(y)=y\|f^{-1}(y)\| = \|y\| pour tout yEy \in E.

Soit yEy \in E. Puisque ff est surjective, il existe un xEx \in E tel que y=f(x)y = f(x). Alors, par définition de l'inverse, x=f1(y)x = f^{-1}(y).

On a y=f(x)\|y\| = \|f(x)\|.

Puisque ff est une isométrie, f(x)=x\|f(x)\| = \|x\|.

Donc y=x\|y\| = \|x\|.

En substituant x=f1(y)x = f^{-1}(y), on obtient y=f1(y)\|y\| = \|f^{-1}(y)\|.

Ceci montre que f1f^{-1} est une isométrie. Donc f1O(E)f^{-1} \in O(E).

Conclusion : Les trois axiomes étant vérifiés, (O(E),)(O(E), \circ) est un groupe.

Structure de groupe de On(R)O_n(\mathbb{R})

Prouver que l'ensemble des matrices orthogonales On(R)={MMn(R)tMM=In}O_n(\mathbb{R}) = \{ M \in M_n(\mathbb{R}) \mid {}^tMM = I_n \} est un groupe pour la multiplication matricielle.

Indice

Vérifiez les trois axiomes de groupe :

  1. Stabilité : Si A,BOn(R)A, B \in O_n(\mathbb{R}), est-ce que ABOn(R)AB \in O_n(\mathbb{R}) ? Calculez t(AB)(AB){}^t(AB)(AB) et utilisez la propriété t(AB)=tBtA{}^t(AB) = {}^tB{}^tA.
  2. Élément neutre : La matrice identité InI_n est-elle dans On(R)O_n(\mathbb{R}) ?
  3. Inverse : Si AOn(R)A \in O_n(\mathbb{R}), son inverse A1A^{-1} existe-t-il et est-il dans On(R)O_n(\mathbb{R}) ? La définition tAA=In{}^tAA=I_n donne une expression simple pour A1A^{-1}.
Solution

Pour montrer que (On(R),×)(O_n(\mathbb{R}), \times) est un groupe, nous vérifions les trois axiomes.

1. Stabilité par multiplication

Soient A,BOn(R)A, B \in O_n(\mathbb{R}). Par définition, nous avons tAA=In{}^tAA = I_n et tBB=In{}^tBB = I_n.

Nous devons montrer que le produit ABAB est aussi dans On(R)O_n(\mathbb{R}), c'est-à-dire que t(AB)(AB)=In{}^t(AB)(AB) = I_n.

t(AB)(AB)=(tBtA)(AB){}^t(AB)(AB) = ({}^tB{}^tA)(AB)

Par associativité de la multiplication matricielle :

tB(tAA)B{}^tB({}^tA A)B

Puisque AOn(R)A \in O_n(\mathbb{R}), on a tAA=In{}^tAA = I_n.

tB(In)B=tBB{}^tB(I_n)B = {}^tBB

Et puisque BOn(R)B \in O_n(\mathbb{R}), on a tBB=In{}^tBB = I_n.

Donc, t(AB)(AB)=In{}^t(AB)(AB) = I_n, ce qui prouve que ABOn(R)AB \in O_n(\mathbb{R}).

2. Élément neutre

L'élément neutre pour la multiplication matricielle est la matrice identité InI_n.

Nous devons vérifier si InOn(R)I_n \in O_n(\mathbb{R}). On calcule :

tInIn=InIn=In{}^tI_n I_n = I_n I_n = I_n

La condition est vérifiée, donc InOn(R)I_n \in O_n(\mathbb{R}).

3. Existence de l'inverse

Soit AOn(R)A \in O_n(\mathbb{R}). Par définition, tAA=In{}^tAA = I_n.

Cette relation montre que AA est inversible et que son inverse est A1=tAA^{-1} = {}^tA.

Il nous reste à vérifier que cet inverse A1A^{-1} est bien dans On(R)O_n(\mathbb{R}).

Nous devons donc montrer que t(A1)(A1)=In{}^t(A^{-1})(A^{-1}) = I_n.

Substituons A1A^{-1} par tA{}^tA :

t(tA)(tA)=A(tA){}^t({}^tA)({}^tA) = A({}^tA)

Nous savons que tAA=In{}^tAA = I_n. En multipliant à droite par A1A^{-1} (qui est tA{}^tA), on obtient tA=A1{}^tA = A^{-1}. Et en multipliant tAA=In{}^tAA=I_n à gauche par AA, on obtient A(tAA)=AInA({}^tA A) = A I_n, donc (AtA)A=A(A{}^tA)A=A. Comme A est inversible, on peut multiplier par A1A^{-1} à droite pour obtenir AtA=InA{}^tA = I_n.

Ainsi, t(A1)(A1)=In{}^t(A^{-1})(A^{-1}) = I_n, et donc A1On(R)A^{-1} \in O_n(\mathbb{R}).

Conclusion : Les trois axiomes étant satisfaits, On(R)O_n(\mathbb{R}) est un groupe pour la multiplication matricielle.

Déterminant d'une matrice orthogonale

Prouver que si MOn(R)M \in O_n(\mathbb{R}), alors det(M)=±1\det(M) = \pm 1.

Indice

Partez de l'équation qui définit une matrice orthogonale : tMM=In{}^tMM = I_n.

Appliquez la fonction déterminant à chaque côté de l'équation. Utilisez ensuite deux propriétés fondamentales du déterminant : det(AB)=det(A)det(B)\det(AB) = \det(A)\det(B) et det(tM)=det(M)\det({}^tM) = \det(M).

Solution

Soit MM une matrice appartenant au groupe orthogonal On(R)O_n(\mathbb{R}).

Étape 1 : Utiliser la définition de On(R)O_n(\mathbb{R})

Par définition, MM satisfait la relation :

tMM=In{}^tMM = I_n

InI_n est la matrice identité d'ordre nn.

Étape 2 : Appliquer le déterminant

Appliquons la fonction déterminant aux deux membres de cette équation :

det(tMM)=det(In)\det({}^tMM) = \det(I_n)

Étape 3 : Utiliser les propriétés du déterminant

Nous utilisons deux propriétés du déterminant :

  1. Le déterminant d'un produit de matrices est le produit de leurs déterminants : det(AB)=det(A)det(B)\det(AB) = \det(A)\det(B).
  2. Le déterminant d'une matrice transposée est égal au déterminant de la matrice originale : det(tM)=det(M)\det({}^tM) = \det(M).

Appliquons la première propriété au membre de gauche :

det(tM)det(M)=det(In)\det({}^tM)\det(M) = \det(I_n)

Appliquons la seconde propriété :

det(M)det(M)=det(In)\det(M)\det(M) = \det(I_n)

(det(M))2=det(In)(\det(M))^2 = \det(I_n)

Étape 4 : Calculer le déterminant de l'identité et résoudre

Le déterminant de la matrice identité est 1.

(det(M))2=1(\det(M))^2 = 1

L'équation x2=1x^2 = 1 pour une variable réelle x=det(M)x = \det(M) a exactement deux solutions : x=1x=1 et x=1x=-1.

Conclusion :

Le déterminant d'une matrice orthogonale MM ne peut prendre que les valeurs 1 ou -1.

det(M){1,1}\det(M) \in \{-1, 1\}

Caractérisation des matrices orthogonales par leurs colonnes

Prouver qu'une matrice MMn(R)M \in M_n(\mathbb{R}) est orthogonale si et seulement si ses vecteurs colonnes forment une base orthonormée de Rn\mathbb{R}^n pour le produit scalaire canonique.

Indice

Notez C1,C2,,CnC_1, C_2, \dots, C_n les vecteurs colonnes de MM. La matrice transposée tM{}^tM a pour lignes les transposées de ces vecteurs, c'est-à-dire tC1,tC2,,tCn{}^tC_1, {}^tC_2, \dots, {}^tC_n.

Calculez le produit matriciel P=tMMP = {}^tMM. Exprimez l'élément PijP_{ij} (à la ligne ii et colonne jj de PP) en fonction des colonnes de MM. Rappelez-vous que le produit scalaire canonique de deux vecteurs colonnes UU et VV est tUV{}^tUV.

Comparez la condition "P=InP = I_n" avec la définition d'une base orthonormée.

Solution

Soit MM une matrice de Mn(R)M_n(\mathbb{R}). Notons ses vecteurs colonnes C1,C2,,CnC_1, C_2, \dots, C_n, où chaque CjRnC_j \in \mathbb{R}^n.

M=(C1C2Cn)M = \begin{pmatrix} | & | & & | \\ C_1 & C_2 & \dots & C_n \\ | & | & & | \end{pmatrix}

La matrice transposée tM{}^tM a pour lignes les transposées de ces vecteurs colonnes :

tM=(tC1tC2tCn){}^tM = \begin{pmatrix} - & {}^tC_1 & - \\ - & {}^tC_2 & - \\ & \vdots & \\ - & {}^tC_n & - \end{pmatrix}

Étape 1 : Calculer le produit tMM{}^tMM

Effectuons le produit matriciel P=tMMP = {}^tMM. L'élément PijP_{ij} situé à la ii-ème ligne et jj-ème colonne de PP est obtenu en multipliant la ii-ème ligne de tM{}^tM par la jj-ème colonne de MM.

La ii-ème ligne de tM{}^tM est tCi{}^tC_i.

La jj-ème colonne de MM est CjC_j.

Ainsi, l'élément PijP_{ij} est le produit matriciel tCiCj{}^tC_i C_j. Ce produit est une matrice 1×11 \times 1, que l'on identifie à un scalaire. Il correspond exactement au produit scalaire canonique de CiC_i et CjC_j.

Pij=tCiCj=φ(Ci,Cj)P_{ij} = {}^tC_i C_j = \varphi(C_i, C_j)

La matrice produit est donc :

tMM=(φ(C1,C1)φ(C1,C2)φ(C1,Cn)φ(C2,C1)φ(C2,C2)φ(C2,Cn)φ(Cn,C1)φ(Cn,C2)φ(Cn,Cn)){}^tMM = \begin{pmatrix} \varphi(C_1, C_1) & \varphi(C_1, C_2) & \dots & \varphi(C_1, C_n) \\ \varphi(C_2, C_1) & \varphi(C_2, C_2) & \dots & \varphi(C_2, C_n) \\ \vdots & \vdots & \ddots & \vdots \\ \varphi(C_n, C_1) & \varphi(C_n, C_2) & \dots & \varphi(C_n, C_n) \end{pmatrix}

Étape 2 : Relier la condition d'orthogonalité à la condition sur les colonnes

Par définition, MM est une matrice orthogonale si et seulement si tMM=In{}^tMM = I_n.

La matrice identité InI_n est la matrice dont les coefficients (In)ij(I_n)_{ij} sont donnés par le symbole de Kronecker δij\delta_{ij} :

(In)ij=δij={1si i=j0si ij(I_n)_{ij} = \delta_{ij} = \begin{cases} 1 & \text{si } i=j \\ 0 & \text{si } i \neq j \end{cases}

En identifiant les coefficients de la matrice tMM{}^tMM avec ceux de InI_n, la condition tMM=In{}^tMM = I_n est équivalente à :

φ(Ci,Cj)=δijpour tous i,j{1,,n}\varphi(C_i, C_j) = \delta_{ij} \quad \text{pour tous } i, j \in \{1, \dots, n\}

Étape 3 : Interpréter la condition sur les colonnes

La condition φ(Ci,Cj)=δij\varphi(C_i, C_j) = \delta_{ij} signifie que :

  • Si i=ji=j, φ(Ci,Ci)=Ci2=1\varphi(C_i, C_i) = \|C_i\|^2 = 1, donc les vecteurs colonnes sont de norme 1 (unitaires).
  • Si iji \neq j, φ(Ci,Cj)=0\varphi(C_i, C_j) = 0, donc deux vecteurs colonnes distincts sont orthogonaux.

L'ensemble de ces conditions est précisément la définition d'une famille orthonormée. Une famille orthonormée de nn vecteurs dans un espace de dimension nn comme Rn\mathbb{R}^n forme une base.

Conclusion :

La matrice MM est orthogonale si et seulement si la famille de ses vecteurs colonnes (C1,,Cn)(C_1, \dots, C_n) est une base orthonormée de Rn\mathbb{R}^n.

Justification de la définition de l'angle non-orienté

Prouver que pour deux vecteurs non nuls x,yx, y d'un espace euclidien EE, la quantité φ(x,y)xy\frac{\varphi(x,y)}{\|x\|\|y\|} est bien définie et appartient toujours à l'intervalle [1,1][-1, 1], justifiant ainsi l'utilisation de la fonction arccos\arccos.

Indice

Le point crucial de cette preuve est l'inégalité de Cauchy-Schwarz. Elle stipule que pour tous vecteurs x,yx, y d'un espace euclidien, on a :

φ(x,y)xy|\varphi(x,y)| \le \|x\|\|y\|

Comment cette inégalité permet-elle d'encadrer la fraction en question ?

Solution

Soit (E,φ)(E, \varphi) un espace euclidien, et soient x,yx, y deux vecteurs non nuls de EE.

La définition de l'angle non-orienté θ\theta entre xx et yy est donnée par la relation cos(θ)=φ(x,y)xy\cos(\theta) = \frac{\varphi(x,y)}{\|x\|\|y\|}.

Pour que cette définition soit mathématiquement valide, il faut que l'argument de la fonction arccos\arccos (qui est cos(θ)\cos(\theta)) soit toujours dans son domaine de définition, c'est-à-dire l'intervalle [1,1][-1, 1].

Étape 1 : S'assurer que l'expression est bien définie

Les vecteurs xx et yy sont supposés non nuls. Par conséquent, leurs normes x\|x\| et y\|y\| sont strictement positives. Le dénominateur xy\|x\|\|y\| n'est donc jamais nul, et la fraction est bien définie.

Étape 2 : Appliquer l'inégalité de Cauchy-Schwarz

L'inégalité de Cauchy-Schwarz est une propriété fondamentale de tout produit scalaire. Elle s'énonce ainsi :

φ(x,y)xy|\varphi(x, y)| \leq \|x\| \|y\|

|\cdot| désigne la valeur absolue.

Étape 3 : Manipuler l'inégalité

Puisque xy\|x\|\|y\| est un nombre réel strictement positif, nous pouvons diviser les deux membres de l'inégalité par cette quantité sans changer le sens de l'inégalité :

φ(x,y)xy1\frac{|\varphi(x, y)|}{\|x\| \|y\|} \leq 1

En utilisant la propriété a/b=a/b|a/b| = |a|/|b|, on peut réécrire le membre de gauche :

φ(x,y)xy1\left| \frac{\varphi(x, y)}{\|x\| \|y\|} \right| \leq 1

Étape 4 : Conclure

L'inégalité A1|A| \leq 1 est équivalente à 1A1-1 \leq A \leq 1.

En posant A=φ(x,y)xyA = \frac{\varphi(x,y)}{\|x\|\|y\|}, nous avons donc :

1φ(x,y)xy1-1 \leq \frac{\varphi(x,y)}{\|x\|\|y\|} \leq 1

Conclusion :

La quantité φ(x,y)xy\frac{\varphi(x,y)}{\|x\|\|y\|} est toujours un nombre réel compris dans l'intervalle [1,1][-1, 1]. Par conséquent, il existe un unique angle θ\theta dans l'intervalle [0,π][0, \pi] tel que cos(θ)\cos(\theta) soit égal à cette valeur. La définition de l'angle non-orienté par la fonction arccos\arccos est donc bien fondée.

Préservation des angles par les isométries

Prouver qu'une isométrie ff d'un espace euclidien préserve l'angle non-orienté entre deux vecteurs non nuls.

Indice

Soient x,yx, y deux vecteurs non nuls. L'angle θ(x,y)\theta(x,y) est défini par cos(θ(x,y))=φ(x,y)xy\cos(\theta(x,y)) = \frac{\varphi(x,y)}{\|x\|\|y\|}.

Pour montrer que l'angle est préservé, il suffit de montrer que cos(θ(f(x),f(y)))=cos(θ(x,y))\cos(\theta(f(x),f(y))) = \cos(\theta(x,y)).

Exprimez cos(θ(f(x),f(y)))\cos(\theta(f(x),f(y))) en utilisant la définition et simplifiez l'expression en vous servant des propriétés d'une isométrie.

Solution

Soit ff une isométrie d'un espace euclidien EE. Soient x,yx, y deux vecteurs non nuls de EE.

L'angle non-orienté θ(x,y)\theta(x,y) entre xx et yy est l'unique réel dans [0,π][0, \pi] tel que :

cos(θ(x,y))=φ(x,y)xy\cos(\theta(x,y)) = \frac{\varphi(x,y)}{\|x\|\|y\|}

Nous voulons prouver que l'angle entre les images f(x)f(x) et f(y)f(y) est le même, c'est-à-dire θ(f(x),f(y))=θ(x,y)\theta(f(x),f(y)) = \theta(x,y).

Étape 1 : Définir l'angle entre les vecteurs images

Si xx et yy sont non nuls, et comme ff est une isométrie (donc injective), leurs images f(x)f(x) et f(y)f(y) sont aussi non nulles. On peut donc définir l'angle θ(f(x),f(y))\theta(f(x),f(y)) entre elles :

cos(θ(f(x),f(y)))=φ(f(x),f(y))f(x)f(y)\cos(\theta(f(x),f(y))) = \frac{\varphi(f(x),f(y))}{\|f(x)\|\|f(y)\|}

Étape 2 : Utiliser les propriétés de l'isométrie

Une isométrie ff a deux propriétés clés que nous allons utiliser :

  1. Elle préserve le produit scalaire : φ(f(x),f(y))=φ(x,y)\varphi(f(x),f(y)) = \varphi(x,y).
  2. Elle préserve la norme : f(v)=v\|f(v)\| = \|v\| pour tout vecteur vv.

Appliquons ces propriétés à l'expression de cos(θ(f(x),f(y)))\cos(\theta(f(x),f(y))).

Le numérateur devient :

φ(f(x),f(y))=φ(x,y)\varphi(f(x),f(y)) = \varphi(x,y)

Le dénominateur devient :

f(x)f(y)=xy\|f(x)\|\|f(y)\| = \|x\|\|y\|

Étape 3 : Comparer les cosinus

En substituant ces résultats dans la formule, on obtient :

cos(θ(f(x),f(y)))=φ(x,y)xy\cos(\theta(f(x),f(y))) = \frac{\varphi(x,y)}{\|x\|\|y\|}

On reconnaît dans le membre de droite l'expression de cos(θ(x,y))\cos(\theta(x,y)).

cos(θ(f(x),f(y)))=cos(θ(x,y))\cos(\theta(f(x),f(y))) = \cos(\theta(x,y))

Étape 4 : Conclure sur l'égalité des angles

La fonction cosinus est injective sur l'intervalle [0,π][0, \pi]. Puisque par définition, les angles non-orientés θ(x,y)\theta(x,y) et θ(f(x),f(y))\theta(f(x),f(y)) appartiennent tous deux à cet intervalle, l'égalité de leurs cosinus implique l'égalité des angles eux-mêmes.

θ(f(x),f(y))=θ(x,y)\theta(f(x),f(y)) = \theta(x,y)

Conclusion : Toute isométrie préserve l'angle non-orienté entre deux vecteurs.

L'orientation comme relation d'équivalence

Prouver que la relation R\mathcal{R} définie sur l'ensemble des bases d'un R\mathbb{R}-espace vectoriel EE par "BRB    det(PB,B)>0\mathcal{B} \mathcal{R} \mathcal{B}' \iff \det(P_{\mathcal{B},\mathcal{B}'}) > 0" est une relation d'équivalence.

Indice

Pour prouver que R\mathcal{R} est une relation d'équivalence, vous devez vérifier les trois propriétés suivantes :

  1. Réflexivité : BRB\mathcal{B} \mathcal{R} \mathcal{B}. Quelle est la matrice de passage PB,BP_{\mathcal{B},\mathcal{B}} de la base B\mathcal{B} à elle-même ? Quel est son déterminant ?
  2. Symétrie : Si BRB\mathcal{B} \mathcal{R} \mathcal{B}', a-t-on BRB\mathcal{B}' \mathcal{R} \mathcal{B} ? Utilisez la relation PB,B=(PB,B)1P_{\mathcal{B}',\mathcal{B}} = (P_{\mathcal{B},\mathcal{B}'})^{-1} et la propriété du déterminant d'une inverse.
  3. Transitivité : Si BRB\mathcal{B} \mathcal{R} \mathcal{B}' et BRB\mathcal{B}' \mathcal{R} \mathcal{B}'', a-t-on BRB\mathcal{B} \mathcal{R} \mathcal{B}'' ? Utilisez la formule de Chasles pour les matrices de passage : PB,B=PB,BPB,BP_{\mathcal{B},\mathcal{B}''} = P_{\mathcal{B},\mathcal{B}'} P_{\mathcal{B}',\mathcal{B}''}.
Solution

Soit EE un R\mathbb{R}-espace vectoriel de dimension finie. Soit E\mathcal{E} l'ensemble de toutes les bases de EE. La relation R\mathcal{R} est définie sur E\mathcal{E} par :

B,BE,BRB    det(PB,B)>0\forall \mathcal{B}, \mathcal{B}' \in \mathcal{E}, \quad \mathcal{B} \mathcal{R} \mathcal{B}' \iff \det(P_{\mathcal{B},\mathcal{B}'}) > 0

PB,BP_{\mathcal{B},\mathcal{B}'} est la matrice de passage de la base B\mathcal{B} à la base B\mathcal{B}'.

1. Réflexivité

Nous devons montrer que BRB\mathcal{B} \mathcal{R} \mathcal{B} pour toute base B\mathcal{B}.

La matrice de passage de la base B\mathcal{B} à elle-même est la matrice identité InI_n.

PB,B=InP_{\mathcal{B},\mathcal{B}} = I_n

Le déterminant de la matrice identité est 1.

det(PB,B)=det(In)=1\det(P_{\mathcal{B},\mathcal{B}}) = \det(I_n) = 1

Puisque 1>01 > 0, la condition est satisfaite. Donc, BRB\mathcal{B} \mathcal{R} \mathcal{B}. La relation est réflexive.

2. Symétrie

Supposons que BRB\mathcal{B} \mathcal{R} \mathcal{B}'. Nous devons montrer que BRB\mathcal{B}' \mathcal{R} \mathcal{B}.

L'hypothèse BRB\mathcal{B} \mathcal{R} \mathcal{B}' signifie que det(PB,B)>0\det(P_{\mathcal{B},\mathcal{B}'}) > 0.

La matrice de passage de B\mathcal{B}' à B\mathcal{B} est l'inverse de la matrice de passage de B\mathcal{B} à B\mathcal{B}' :

PB,B=(PB,B)1P_{\mathcal{B}',\mathcal{B}} = (P_{\mathcal{B},\mathcal{B}'})^{-1}

Le déterminant de l'inverse d'une matrice est l'inverse du déterminant de la matrice :

det(PB,B)=det((PB,B)1)=1det(PB,B)\det(P_{\mathcal{B}',\mathcal{B}}) = \det((P_{\mathcal{B},\mathcal{B}'})^{-1}) = \frac{1}{\det(P_{\mathcal{B},\mathcal{B}'})}

Par hypothèse, det(PB,B)\det(P_{\mathcal{B},\mathcal{B}'}) est un nombre réel strictement positif. L'inverse d'un réel strictement positif est aussi un réel strictement positif.

Donc, det(PB,B)>0\det(P_{\mathcal{B}',\mathcal{B}}) > 0.

Ceci montre que BRB\mathcal{B}' \mathcal{R} \mathcal{B}. La relation est symétrique.

3. Transitivité

Supposons que BRB\mathcal{B} \mathcal{R} \mathcal{B}' et BRB\mathcal{B}' \mathcal{R} \mathcal{B}''. Nous devons montrer que BRB\mathcal{B} \mathcal{R} \mathcal{B}''.

Les hypothèses se traduisent par :

  1. det(PB,B)>0\det(P_{\mathcal{B},\mathcal{B}'}) > 0
  2. det(PB,B)>0\det(P_{\mathcal{B}',\mathcal{B}''}) > 0

La formule de changement de base (relation de Chasles) nous dit que :

PB,B=PB,BPB,BP_{\mathcal{B},\mathcal{B}''} = P_{\mathcal{B},\mathcal{B}'} P_{\mathcal{B}',\mathcal{B}''}

En utilisant la propriété det(AB)=det(A)det(B)\det(AB) = \det(A)\det(B), on a :

det(PB,B)=det(PB,B)×det(PB,B)\det(P_{\mathcal{B},\mathcal{B}''}) = \det(P_{\mathcal{B},\mathcal{B}'}) \times \det(P_{\mathcal{B}',\mathcal{B}''})

Par hypothèse, nous multiplions deux nombres réels strictement positifs. Le produit de deux nombres réels strictement positifs est un nombre réel strictement positif.

Donc, det(PB,B)>0\det(P_{\mathcal{B},\mathcal{B}''}) > 0.

Ceci montre que BRB\mathcal{B} \mathcal{R} \mathcal{B}''. La relation est transitive.

Conclusion :

La relation R\mathcal{R} est réflexive, symétrique et transitive. C'est donc une relation d'équivalence sur l'ensemble des bases de EE.