Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Réduction des endomorphismes auto-adjoints - preuves (A)

Caractérisation de l'inversibilité par le déterminant

Prouver qu'une matrice carrée AMn(K)A \in M_n(\mathbb{K}) est inversible si et seulement si son déterminant est non nul.

Indice

Pour le sens direct (\Rightarrow), si AA est inversible, il existe A1A^{-1} telle que AA1=InAA^{-1} = I_n. Utilisez la propriété de multiplicativité du déterminant.

Pour le sens réciproque (\Leftarrow), raisonnez par contraposée. Si AA n'est pas inversible, ses vecteurs colonnes sont linéairement dépendants. Que pouvez-vous en déduire sur le déterminant de AA, sachant qu'il s'agit d'une forme n-linéaire alternée ?

Solution

Soit AMn(K)A \in M_n(\mathbb{K}).

Étape 1 : Sens direct (AA inversible det(A)0\Rightarrow \det(A) \neq 0)

Supposons que AA est inversible. Il existe alors une matrice A1A^{-1} telle que AA1=InA A^{-1} = I_n, où InI_n est la matrice identité d'ordre nn.

En utilisant la propriété de multiplicativité du déterminant, nous avons :

det(AA1)=det(In)\det(A A^{-1}) = \det(I_n).

Ceci se décompose en det(A)det(A1)=1\det(A) \det(A^{-1}) = 1.

Le produit de deux scalaires étant égal à 1, aucun des deux ne peut être nul. En particulier, det(A)0\det(A) \neq 0.

Étape 2 : Sens réciproque (det(A)0A\det(A) \neq 0 \Rightarrow A inversible)

Nous allons prouver la contraposée : si AA n'est pas inversible, alors det(A)=0\det(A) = 0.

Si AA n'est pas inversible, l'endomorphisme associé n'est pas bijectif. Son rang est strictement inférieur à nn. Cela signifie que les vecteurs colonnes de AA, notés C1,C2,,CnC_1, C_2, \dots, C_n, forment une famille linéairement dépendante.

Il existe donc une colonne, disons CjC_j, qui est une combinaison linéaire des autres colonnes :

Cj=kjαkCkC_j = \sum_{k \neq j} \alpha_k C_k.

Le déterminant est une forme n-linéaire par rapport à ses colonnes. Ainsi :

det(A)=det(C1,,Cj,,Cn)=det(C1,,kjαkCk,,Cn)\det(A) = \det(C_1, \dots, C_j, \dots, C_n) = \det(C_1, \dots, \sum_{k \neq j} \alpha_k C_k, \dots, C_n).

Par n-linéarité, on peut décomposer cette somme :

det(A)=kjαkdet(C1,,Ck,,Cn)\det(A) = \sum_{k \neq j} \alpha_k \det(C_1, \dots, C_k, \dots, C_n).

Dans cette expression, la colonne en position jj est CkC_k.

Pour chaque terme de la somme, la matrice dont on calcule le déterminant a deux colonnes identiques (la colonne CkC_k en position kk et en position jj). Puisque le déterminant est une forme alternée, son résultat est nul si deux de ses vecteurs d'entrée sont identiques.

Ainsi, chaque terme de la somme est nul, et donc det(A)=0\det(A) = 0.

Conclusion

Nous avons prouvé les deux implications, donc AA est inversible si et seulement si det(A)0\det(A) \neq 0.

Déterminant d'une matrice triangulaire

Prouver que le déterminant d'une matrice triangulaire est égal au produit de ses coefficients diagonaux.

Indice

Utilisez la formule de Leibniz pour le déterminant :

det(A)=σSnε(σ)i=1naσ(i),i\det(A) = \sum_{\sigma \in S_n} \varepsilon(\sigma) \prod_{i=1}^{n} a_{\sigma(i), i}

Considérez une matrice triangulaire supérieure A=(aij)A=(a_{ij})aij=0a_{ij}=0 si i>ji > j. Analysez pour quelles permutations σ\sigma le produit i=1naσ(i),i\prod_{i=1}^{n} a_{\sigma(i), i} peut être non nul.

Solution

Soit A=(aij)A = (a_{ij}) une matrice triangulaire supérieure de taille n×nn \times n. Cela signifie que aij=0a_{ij} = 0 pour tout i>ji > j. Nous voulons prouver que det(A)=i=1naii\det(A) = \prod_{i=1}^{n} a_{ii}.

La démonstration pour une matrice triangulaire inférieure est analogue en utilisant la propriété det(A)=det(tA)\det(A) = \det({}^tA).

Étape 1 : Analyse des termes de la formule de Leibniz

La formule de Leibniz est det(A)=σSnε(σ)i=1naσ(i),i\det(A) = \sum_{\sigma \in S_n} \varepsilon(\sigma) \prod_{i=1}^{n} a_{\sigma(i), i}.

Un terme du produit est aσ(1),1aσ(2),2aσ(n),na_{\sigma(1), 1} a_{\sigma(2), 2} \cdots a_{\sigma(n), n}.

Pour que ce produit soit potentiellement non nul, il faut que chaque facteur aσ(i),ia_{\sigma(i), i} soit non nul.

Étant donné que AA est triangulaire supérieure, nous devons avoir σ(i)i\sigma(i) \le i pour tous les i=1,,ni=1, \dots, n.

Étape 2 : Identification de la seule permutation possible

Analysons la condition σ(i)i\sigma(i) \le i pour tout ii:

  • Pour i=1i=1, nous devons avoir σ(1)1\sigma(1) \le 1, ce qui impose σ(1)=1\sigma(1)=1.
  • Pour i=2i=2, nous devons avoir σ(2)2\sigma(2) \le 2. Comme σ\sigma est une permutation et que σ(1)=1\sigma(1)=1, σ(2)\sigma(2) ne peut pas être 1. Donc σ(2)=2\sigma(2)=2.
  • En continuant par récurrence, supposons que σ(k)=k\sigma(k)=k pour tout k<ik < i. Pour ii, on a σ(i)i\sigma(i) \le i. Comme les valeurs 1,2,,i11, 2, \dots, i-1 sont déjà prises par σ(1),,σ(i1)\sigma(1), \dots, \sigma(i-1), la seule valeur possible pour σ(i)\sigma(i) est ii.

Ainsi, la seule permutation σSn\sigma \in S_n pour laquelle le produit i=1naσ(i),i\prod_{i=1}^{n} a_{\sigma(i), i} peut être non nul est la permutation identité, σ=Id\sigma = \text{Id}.

Étape 3 : Calcul final du déterminant

La somme dans la formule de Leibniz se réduit à un seul terme, celui où σ=Id\sigma = \text{Id}.

La permutation identité est une permutation paire, donc sa signature ε(Id)\varepsilon(\text{Id}) est +1+1.

Le déterminant est donc :

det(A)=ε(Id)i=1naId(i),i=1i=1nai,i=a11a22ann\det(A) = \varepsilon(\text{Id}) \prod_{i=1}^{n} a_{\text{Id}(i), i} = 1 \cdot \prod_{i=1}^{n} a_{i, i} = a_{11} a_{22} \cdots a_{nn}

Conclusion

Le déterminant d'une matrice triangulaire est bien le produit de ses coefficients diagonaux.

Somme directe des sous-espaces propres

Prouver que la somme de sous-espaces propres associés à des valeurs propres distinctes est une somme directe.

Indice

Soient λ1,,λk\lambda_1, \dots, \lambda_k des valeurs propres distinctes. Pour prouver que Eλ1++EλkE_{\lambda_1} + \dots + E_{\lambda_k} est une somme directe, il faut montrer que si x1++xk=0x_1 + \dots + x_k = 0 avec xiEλix_i \in E_{\lambda_i}, alors tous les xix_i sont nuls.

Procédez par récurrence sur le nombre kk de sous-espaces propres. Pour l'étape d'induction, appliquez l'endomorphisme ff à l'équation x1++xk=0x_1 + \dots + x_k = 0 et combinez le résultat avec l'équation originale pour éliminer l'un des vecteurs.

Solution

Soit ff un endomorphisme de EE, et soient λ1,,λk\lambda_1, \dots, \lambda_k des valeurs propres distinctes de ff. Notons Ei=Eλi(f)E_i = E_{\lambda_i}(f) le sous-espace propre associé à λi\lambda_i. Nous voulons montrer que la somme E1++EkE_1 + \dots + E_k est directe, c'est-à-dire E1EkE_1 \oplus \dots \oplus E_k.

Cela revient à montrer que si x1E1,,xkEkx_1 \in E_1, \dots, x_k \in E_k sont tels que

x1+x2++xk=0() x_1 + x_2 + \dots + x_k = 0 \quad (*)

alors x1=x2==xk=0x_1 = x_2 = \dots = x_k = 0.

Nous procédons par récurrence sur kk.

Cas de base (k=1) : Si x1=0x_1 = 0, le résultat est trivial.

Cas de base (k=2) : Soient x1E1x_1 \in E_1 et x2E2x_2 \in E_2 tels que x1+x2=0x_1 + x_2 = 0.

En appliquant ff, on obtient f(x1)+f(x2)=f(0)=0f(x_1) + f(x_2) = f(0) = 0.

Comme x1E1x_1 \in E_1 et x2E2x_2 \in E_2, on a f(x1)=λ1x1f(x_1) = \lambda_1 x_1 et f(x2)=λ2x2f(x_2) = \lambda_2 x_2. L'équation devient λ1x1+λ2x2=0\lambda_1 x_1 + \lambda_2 x_2 = 0.

De l'équation initiale, x2=x1x_2 = -x_1. En substituant : λ1x1λ2x1=0\lambda_1 x_1 - \lambda_2 x_1 = 0, soit (λ1λ2)x1=0(\lambda_1 - \lambda_2)x_1 = 0.

Puisque les valeurs propres sont distinctes, λ1λ20\lambda_1 - \lambda_2 \neq 0, donc x1=0x_1 = 0. Par suite, x2=0x_2 = 0. La somme est directe.

Étape d'induction : Supposons que la propriété est vraie pour k1k-1 sous-espaces propres.

Partons de l'équation ()(*): x1+x2++xk=0x_1 + x_2 + \dots + x_k = 0.

Appliquons l'endomorphisme ff :

f(x1)+f(x2)++f(xk)=0f(x_1) + f(x_2) + \dots + f(x_k) = 0

λ1x1+λ2x2++λkxk=0()\lambda_1 x_1 + \lambda_2 x_2 + \dots + \lambda_k x_k = 0 \quad (**)

Multiplions l'équation ()(*) par λk\lambda_k :

λkx1+λkx2++λkxk=0()\lambda_k x_1 + \lambda_k x_2 + \dots + \lambda_k x_k = 0 \quad (***)

Soustrayons ()(**) de ()(***) :

(λkλ1)x1+(λkλ2)x2++(λkλk1)xk1=0(\lambda_k - \lambda_1) x_1 + (\lambda_k - \lambda_2) x_2 + \dots + (\lambda_k - \lambda_{k-1}) x_{k-1} = 0.

C'est une somme de k1k-1 vecteurs, où chaque vecteur (λkλi)xi(\lambda_k - \lambda_i)x_i appartient à EiE_i. Par hypothèse de récurrence, la somme des k1k-1 premiers sous-espaces est directe. Donc, tous les termes de cette somme sont nuls :

(λkλi)xi=0(\lambda_k - \lambda_i) x_i = 0 pour i=1,,k1i = 1, \dots, k-1.

Comme les valeurs propres sont distinctes, λkλi0\lambda_k - \lambda_i \neq 0 pour i<ki < k. Cela implique que xi=0x_i = 0 pour i=1,,k1i=1, \dots, k-1.

En reportant ces résultats dans l'équation initiale ()(*), il reste xk=0x_k = 0.

Conclusion

Nous avons montré que tous les xix_i sont nuls, ce qui prouve que la somme des sous-espaces propres est directe.

Équivalence entre valeurs propres et racines du polynôme caractéristique

Prouver qu'un scalaire λK\lambda \in \mathbb{K} est une valeur propre d'un endomorphisme ff si et seulement si λ\lambda est une racine de son polynôme caractéristique χf\chi_f.

Indice

Suivez la chaîne d'équivalences logiques.

λ\lambda est une valeur propre de ff

    \iff Il existe un vecteur x0x \neq 0 tel que f(x)=λxf(x) = \lambda x.

    \iff ...

    \iff L'endomorphisme (fλId)(f - \lambda \text{Id}) n'est pas ...

    \iff La matrice de (fλId)(f - \lambda \text{Id}) n'est pas ...

    det(fλId)=\iff \det(f - \lambda \text{Id}) = \dots

Solution

Soit ff un endomorphisme sur un K\mathbb{K}-espace vectoriel EE de dimension finie, et λK\lambda \in \mathbb{K}.

Par définition, λ\lambda est une valeur propre de ff si et seulement s'il existe un vecteur non nul xEx \in E tel que f(x)=λxf(x) = \lambda x.

Étape 1 : Réécriture de la condition de valeur propre

L'équation f(x)=λxf(x) = \lambda x peut être réécrite comme f(x)λx=0f(x) - \lambda x = 0.

En utilisant l'endomorphisme identité IdE\text{Id}_E, on a f(x)λIdE(x)=0f(x) - \lambda \text{Id}_E(x) = 0.

Par linéarité, cela équivaut à (fλIdE)(x)=0(f - \lambda \text{Id}_E)(x) = 0.

Ainsi, λ\lambda est une valeur propre de ff si et seulement s'il existe un vecteur non nul xx dans le noyau de l'endomorphisme (fλIdE)(f - \lambda \text{Id}_E).

Étape 2 : Lien avec l'inversibilité

L'existence d'un vecteur non nul dans le noyau de (fλIdE)(f - \lambda \text{Id}_E) signifie que ker(fλIdE){0}\ker(f - \lambda \text{Id}_E) \neq \{0\}.

Un endomorphisme d'un espace de dimension finie est injectif si et seulement si son noyau est réduit au vecteur nul. Donc, ker(fλIdE){0}\ker(f - \lambda \text{Id}_E) \neq \{0\} est équivalent à dire que l'endomorphisme (fλIdE)(f - \lambda \text{Id}_E) n'est pas injectif.

En dimension finie, un endomorphisme est injectif si et seulement s'il est bijectif (c'est-à-dire inversible). Par conséquent, λ\lambda est une valeur propre si et seulement si (fλIdE)(f - \lambda \text{Id}_E) n'est pas inversible.

Étape 3 : Lien avec le déterminant

Un endomorphisme (ou sa matrice dans n'importe quelle base) est inversible si et seulement si son déterminant est non nul.

Donc, l'endomorphisme (fλIdE)(f - \lambda \text{Id}_E) n'est pas inversible si et seulement si son déterminant est nul :

det(fλIdE)=0\det(f - \lambda \text{Id}_E) = 0

Conclusion

Par définition, le polynôme caractéristique de ff est χf(λ)=det(fλIdE)\chi_f(\lambda) = \det(f - \lambda \text{Id}_E).

Nous avons donc montré l'équivalence :

λ\lambda est une valeur propre de f    χf(λ)=0f \iff \chi_f(\lambda) = 0.

Ceci signifie que les valeurs propres de ff sont exactement les racines de son polynôme caractéristique.

Diagonalisabilité avec nn valeurs propres distinctes

Prouver qu'un endomorphisme ff d'un espace vectoriel EE de dimension nn qui possède nn valeurs propres distinctes est diagonalisable.

Indice

Rappelez-vous qu'un endomorphisme est diagonalisable s'il existe une base de EE formée de vecteurs propres.

Utilisez le fait que les sous-espaces propres associés à des valeurs propres distinctes sont en somme directe. Quelle est la dimension minimale de chaque sous-espace propre ? Concluez sur la dimension de la somme directe.

Solution

Soit ff un endomorphisme sur un espace vectoriel EE de dimension nn.

Supposons que ff admette nn valeurs propres distinctes, que nous noterons λ1,λ2,,λn\lambda_1, \lambda_2, \dots, \lambda_n.

Étape 1 : Sous-espaces propres

Pour chaque valeur propre λi\lambda_i, le sous-espace propre associé Ei=Eλi(f)E_i = E_{\lambda_i}(f) est non trivial, c'est-à-dire que sa dimension est au moins 1. En effet, par définition d'une valeur propre, il existe au moins un vecteur propre (non nul) qui lui est associé. Donc dim(Ei)1\dim(E_i) \ge 1 pour tout i{1,,n}i \in \{1, \dots, n\}.

Étape 2 : Somme directe des sous-espaces propres

Comme les nn valeurs propres λ1,,λn\lambda_1, \dots, \lambda_n sont distinctes, nous savons que la somme de leurs sous-espaces propres est une somme directe. Notons S=E1E2EnS = E_1 \oplus E_2 \oplus \dots \oplus E_n.

Ce sous-espace SS est un sous-espace vectoriel de EE.

Étape 3 : Dimension de la somme directe

La dimension d'une somme directe de sous-espaces est la somme des dimensions de ces sous-espaces :

dim(S)=dim(E1)+dim(E2)++dim(En)\dim(S) = \dim(E_1) + \dim(E_2) + \dots + \dim(E_n)

Comme dim(Ei)1\dim(E_i) \ge 1 pour chaque ii, on a :

dim(S)1+1++1n fois=n\dim(S) \ge \underbrace{1 + 1 + \dots + 1}_{n \text{ fois}} = n

Donc, dim(S)n\dim(S) \ge n.

Étape 4 : Conclusion

Le sous-espace SS est inclus dans EE, qui est de dimension nn. Donc, dim(S)dim(E)=n\dim(S) \le \dim(E) = n.

En combinant les deux inégalités, nous avons dim(S)=n\dim(S) = n.

Puisque SS est un sous-espace de EE de même dimension que EE, on a S=ES=E.

Nous avons donc montré que E=E1E2EnE = E_1 \oplus E_2 \oplus \dots \oplus E_n.

Cela signifie que l'on peut former une base de EE en juxtaposant une base de chaque sous-espace propre EiE_i. Une telle base est entièrement constituée de vecteurs propres de ff.

Par définition, l'existence d'une base de vecteurs propres signifie que ff est diagonalisable.

Réalité des valeurs propres d'un endomorphisme auto-adjoint

Prouver que les valeurs propres d'un endomorphisme auto-adjoint sur un espace hermitien sont réelles.

Indice

Soit ff un endomorphisme auto-adjoint sur un espace hermitien EE, et soit λC\lambda \in \mathbb{C} une valeur propre associée au vecteur propre x0x \neq 0.

Calculez le produit scalaire f(x),x\langle f(x), x \rangle.

D'une part, utilisez f(x)=λxf(x) = \lambda x. D'autre part, utilisez la propriété d'auto-adjontion f(x),x=x,f(x)\langle f(x), x \rangle = \langle x, f(x) \rangle. Comparez les deux expressions obtenues.

Solution

Soit EE un espace vectoriel hermitien (sur C\mathbb{C}) et ff un endomorphisme auto-adjoint sur EE.

Soit λC\lambda \in \mathbb{C} une valeur propre de ff, et xEx \in E un vecteur propre associé, avec x0x \neq 0.

Par définition, on a f(x)=λxf(x) = \lambda x.

Étape 1 : Calcul de f(x),x\langle f(x), x \rangle en utilisant la définition du vecteur propre

En utilisant f(x)=λxf(x)=\lambda x dans le produit scalaire f(x),x\langle f(x), x \rangle, on obtient :

f(x),x=λx,x\langle f(x), x \rangle = \langle \lambda x, x \rangle

Par sesquilinéarité du produit scalaire hermitien, le scalaire sort de la première composante :

f(x),x=λx,x=λx2\langle f(x), x \rangle = \lambda \langle x, x \rangle = \lambda \|x\|^2

Étape 2 : Calcul de f(x),x\langle f(x), x \rangle en utilisant la propriété d'auto-adjontion

Puisque ff est auto-adjoint, f=ff=f^*, on a f(x),y=x,f(y)\langle f(x), y \rangle = \langle x, f(y) \rangle pour tous x,yEx, y \in E. En particulier pour y=xy=x :

f(x),x=x,f(x)\langle f(x), x \rangle = \langle x, f(x) \rangle

Remplaçons f(x)f(x) par λx\lambda x dans le membre de droite :

f(x),x=x,λx\langle f(x), x \rangle = \langle x, \lambda x \rangle

Par sesquilinéarité, le scalaire sort de la seconde composante en prenant son conjugué :

f(x),x=λˉx,x=λˉx2\langle f(x), x \rangle = \bar{\lambda} \langle x, x \rangle = \bar{\lambda} \|x\|^2

Étape 3 : Comparaison et conclusion

En égalant les deux expressions obtenues pour f(x),x\langle f(x), x \rangle, on a :

λx2=λˉx2\lambda \|x\|^2 = \bar{\lambda} \|x\|^2

(λλˉ)x2=0(\lambda - \bar{\lambda}) \|x\|^2 = 0

Comme xx est un vecteur propre, il est non nul, donc x20\|x\|^2 \neq 0.

On en déduit que λλˉ=0\lambda - \bar{\lambda} = 0, ce qui signifie que λ=λˉ\lambda = \bar{\lambda}.

Un nombre complexe égal à son conjugué est un nombre réel.

Conclusion

Toute valeur propre d'un endomorphisme auto-adjoint est réelle.

Orthogonalité des sous-espaces propres d'un endomorphisme auto-adjoint

Prouver que les sous-espaces propres d'un endomorphisme auto-adjoint associés à des valeurs propres distinctes sont orthogonaux.

Indice

Soit ff un endomorphisme auto-adjoint. Soient λ\lambda et μ\mu deux valeurs propres distinctes, avec xEλx \in E_\lambda et yEμy \in E_\mu.

Le but est de montrer que x,y=0\langle x, y \rangle = 0.

Considérez la quantité f(x),y\langle f(x), y \rangle. Calculez-la de deux manières différentes :

  1. En utilisant f(x)=λxf(x) = \lambda x.
  2. En utilisant la propriété d'auto-adjontion pour "déplacer" ff sur yy, puis en utilisant f(y)=μyf(y) = \mu y.
Solution

Soit ff un endomorphisme auto-adjoint sur un espace euclidien ou hermitien EE.

Soient λ\lambda et μ\mu deux valeurs propres distinctes de ff. Soit xx un vecteur propre associé à λ\lambda (xEλx \in E_\lambda) et yy un vecteur propre associé à μ\mu (yEμy \in E_\mu).

On a donc f(x)=λxf(x) = \lambda x et f(y)=μyf(y) = \mu y.

Étape 1 : Premier calcul de f(x),y\langle f(x), y \rangle

En utilisant f(x)=λxf(x)=\lambda x, on a :

f(x),y=λx,y=λx,y\langle f(x), y \rangle = \langle \lambda x, y \rangle = \lambda \langle x, y \rangle

(Note : dans le cas hermitien, le scalaire sort tel quel de la première composante).

Étape 2 : Second calcul de f(x),y\langle f(x), y \rangle

En utilisant la propriété d'auto-adjontion de ff, on peut écrire :

f(x),y=x,f(y)\langle f(x), y \rangle = \langle x, f(y) \rangle

Maintenant, utilisons f(y)=μyf(y)=\mu y :

x,f(y)=x,μy\langle x, f(y) \rangle = \langle x, \mu y \rangle

Dans un espace euclidien, x,μy=μx,y\langle x, \mu y \rangle = \mu \langle x, y \rangle.

Dans un espace hermitien, x,μy=μˉx,y\langle x, \mu y \rangle = \bar{\mu} \langle x, y \rangle.

Cependant, nous savons que les valeurs propres d'un endomorphisme auto-adjoint sont réelles, donc μ=μˉ\mu = \bar{\mu}. L'expression est donc μx,y\mu \langle x, y \rangle dans les deux cas.

On a donc :

f(x),y=μx,y\langle f(x), y \rangle = \mu \langle x, y \rangle

Étape 3 : Comparaison et conclusion

En égalant les deux expressions obtenues :

λx,y=μx,y\lambda \langle x, y \rangle = \mu \langle x, y \rangle

(λμ)x,y=0(\lambda - \mu) \langle x, y \rangle = 0

Par hypothèse, les valeurs propres λ\lambda et μ\mu sont distinctes, donc λμ0\lambda - \mu \neq 0.

Pour que le produit soit nul, il faut nécessairement que x,y=0\langle x, y \rangle = 0.

Conclusion

Tout vecteur xEλx \in E_\lambda est orthogonal à tout vecteur yEμy \in E_\mu si λμ\lambda \neq \mu. Les sous-espaces propres EλE_\lambda et EμE_\mu sont donc orthogonaux.

Stabilité de l'orthogonal pour un endomorphisme auto-adjoint

Prouver que si FF est un sous-espace vectoriel stable par un endomorphisme auto-adjoint ff, alors son complément orthogonal FF^\perp est également stable par ff.

Indice

Soit ff auto-adjoint et FF stable par ff, c'est-à-dire f(F)Ff(F) \subseteq F.

Pour montrer que FF^\perp est stable par ff, on doit prouver que pour tout yFy \in F^\perp, on a f(y)Ff(y) \in F^\perp.

La condition f(y)Ff(y) \in F^\perp signifie que pour tout xFx \in F, le produit scalaire f(y),x\langle f(y), x \rangle est nul.

Utilisez la propriété d'auto-adjontion pour transformer cette expression.

Solution

Soit ff un endomorphisme auto-adjoint sur un espace euclidien ou hermitien EE.

Soit FF un sous-espace vectoriel de EE stable par ff, ce qui signifie que pour tout zFz \in F, f(z)Ff(z) \in F.

Nous voulons montrer que FF^\perp est aussi stable par ff, c'est-à-dire que pour tout yFy \in F^\perp, on a f(y)Ff(y) \in F^\perp.

Étape 1 : Traduction de la condition de stabilité

Un vecteur vv appartient à FF^\perp si et seulement si il est orthogonal à tous les vecteurs de FF, c'est-à-dire v,x=0\langle v, x \rangle = 0 pour tout xFx \in F.

Pour montrer que f(y)Ff(y) \in F^\perp, nous devons donc montrer que pour un yFy \in F^\perp quelconque, on a f(y),x=0\langle f(y), x \rangle = 0 pour tout xFx \in F.

Étape 2 : Utilisation de l'auto-adjontion

Soit yFy \in F^\perp et xFx \in F. Calculons f(y),x\langle f(y), x \rangle.

Puisque ff est auto-adjoint, on a :

f(y),x=y,f(x)\langle f(y), x \rangle = \langle y, f(x) \rangle

Étape 3 : Utilisation de la stabilité de F

Par hypothèse, FF est stable par ff. Puisque xFx \in F, on a f(x)Ff(x) \in F.

Nous savons aussi que yFy \in F^\perp. Par définition de FF^\perp, yy est orthogonal à tout vecteur de FF. En particulier, yy est orthogonal au vecteur f(x)Ff(x) \in F.

Donc :

y,f(x)=0\langle y, f(x) \rangle = 0

Conclusion

En combinant les étapes, nous avons montré que pour tout yFy \in F^\perp et pour tout xFx \in F :

f(y),x=0\langle f(y), x \rangle = 0

Ceci est la définition de f(y)Ff(y) \in F^\perp.

Puisque cela est vrai pour tout yFy \in F^\perp, le sous-espace FF^\perp est stable par ff.

Caractérisation des endomorphismes positifs par leurs valeurs propres

Prouver qu'un endomorphisme auto-adjoint ff est positif si et seulement si toutes ses valeurs propres sont positives ou nulles.

Indice

Pour le sens direct (\Rightarrow), supposez que ff est positif. Soit λ\lambda une valeur propre et vv un vecteur propre associé. Calculez f(v),v\langle f(v), v \rangle et utilisez la définition d'un endomorphisme positif pour en déduire le signe de λ\lambda.

Pour le sens réciproque (\Leftarrow), supposez que toutes les valeurs propres sont 0\ge 0. Utilisez le théorème spectral pour affirmer qu'il existe une base orthonormée de vecteurs propres. Décomposez un vecteur quelconque xx dans cette base et calculez f(x),x\langle f(x), x \rangle.

Solution

Soit ff un endomorphisme auto-adjoint sur un espace euclidien ou hermitien EE.

Étape 1 : Sens direct (ff positif \Rightarrow les valeurs propres sont 0\ge 0)

Supposons que ff est positif. Par définition, cela signifie que f(x),x0\langle f(x), x \rangle \ge 0 pour tout xEx \in E.

Soit λ\lambda une valeur propre de ff et vv un vecteur propre associé non nul. On a f(v)=λvf(v) = \lambda v.

Calculons f(v),v\langle f(v), v \rangle :

f(v),v=λv,v=λv,v=λv2\langle f(v), v \rangle = \langle \lambda v, v \rangle = \lambda \langle v, v \rangle = \lambda \|v\|^2

Puisque ff est positif, on doit avoir f(v),v0\langle f(v), v \rangle \ge 0. Donc :

λv20\lambda \|v\|^2 \ge 0

Comme vv est un vecteur propre, il est non nul, donc v2>0\|v\|^2 > 0.

On en conclut que λ0\lambda \ge 0.

Étape 2 : Sens réciproque (les valeurs propres sont 0f\ge 0 \Rightarrow f positif)

Supposons que toutes les valeurs propres de ff sont positives ou nulles.

Puisque ff est auto-adjoint, le théorème spectral s'applique : il existe une base orthonormée B=(e1,,en)\mathcal{B} = (e_1, \dots, e_n) de EE constituée de vecteurs propres de ff.

Soient λ1,,λn\lambda_1, \dots, \lambda_n les valeurs propres correspondantes (non nécessairement distinctes), avec λi0\lambda_i \ge 0 pour tout ii. On a f(ei)=λieif(e_i) = \lambda_i e_i.

Soit xx un vecteur quelconque de EE. On peut le décomposer dans la base B\mathcal{B} :

x=i=1nxiei,ouˋ xi=x,eix = \sum_{i=1}^n x_i e_i, \quad \text{où } x_i = \langle x, e_i \rangle

Calculons f(x)f(x) :

f(x)=f(i=1nxiei)=i=1nxif(ei)=i=1nxi(λiei)=i=1nλixieif(x) = f\left(\sum_{i=1}^n x_i e_i\right) = \sum_{i=1}^n x_i f(e_i) = \sum_{i=1}^n x_i (\lambda_i e_i) = \sum_{i=1}^n \lambda_i x_i e_i

Maintenant, calculons le produit scalaire f(x),x\langle f(x), x \rangle :

f(x),x=i=1nλixiei,j=1nxjej\langle f(x), x \rangle = \left\langle \sum_{i=1}^n \lambda_i x_i e_i, \sum_{j=1}^n x_j e_j \right\rangle

Par bilinéarité (ou sesquilinéarité), et comme la base est orthonormée (ei,ej=δij\langle e_i, e_j \rangle = \delta_{ij}), on obtient :

f(x),x=i=1nj=1nλixixjˉei,ej=i=1nλixixiˉ=i=1nλixi2\langle f(x), x \rangle = \sum_{i=1}^n \sum_{j=1}^n \lambda_i x_i \bar{x_j} \langle e_i, e_j \rangle = \sum_{i=1}^n \lambda_i x_i \bar{x_i} = \sum_{i=1}^n \lambda_i |x_i|^2

(Dans le cas réel, xjˉ=xj\bar{x_j}=x_j et xi2=xi2|x_i|^2=x_i^2).

Par hypothèse, chaque λi0\lambda_i \ge 0. De plus, xi20|x_i|^2 \ge 0 pour tout ii.

La somme de termes positifs ou nuls est elle-même positive ou nulle.

f(x),x=i=1nλi0xi200\langle f(x), x \rangle = \sum_{i=1}^n \underbrace{\lambda_i}_{\ge 0} \underbrace{|x_i|^2}_{\ge 0} \ge 0

Conclusion

Nous avons prouvé les deux implications. Un endomorphisme auto-adjoint est positif si et seulement si toutes ses valeurs propres sont positives ou nulles.

Construction d'une matrice symétrique définie positive

Prouver que pour toute matrice réelle inversible MGLn(R)M \in GL_n(\mathbb{R}), la matrice S=tMMS = {}^tMM est symétrique et définie positive.

Indice

Pour prouver la symétrie, calculez tS{}^tS et utilisez les propriétés de la transposition d'un produit.

Pour prouver qu'elle est définie positive, vous devez montrer que pour tout vecteur colonne non nul XRnX \in \mathbb{R}^n, on a tXSX>0{}^tXSX > 0. Remplacez SS par tMM{}^tMM et réarrangez l'expression pour faire apparaître la norme d'un vecteur. Utilisez ensuite le fait que MM est inversible.

Solution

Soit MGLn(R)M \in GL_n(\mathbb{R}) une matrice réelle inversible et soit S=tMMS = {}^tMM.

Étape 1 : Preuve de la symétrie

Calculons la transposée de SS :

tS=t(tMM){}^tS = {}^t({}^tMM)

En utilisant la propriété t(AB)=tBtA{}^t(AB) = {}^tB {}^tA, on a :

tS=tMt(tM){}^tS = {}^tM {}^t({}^tM)

La double transposition est l'identité, donc t(tM)=M{}^t({}^tM) = M.

tS=tMM=S{}^tS = {}^tMM = S

Puisque tS=S{}^tS = S, la matrice SS est symétrique.

Étape 2 : Preuve du caractère défini positif

Pour montrer que SS est définie positive, nous devons montrer que pour tout vecteur colonne non nul XRn{0}X \in \mathbb{R}^n \setminus \{0\}, la forme quadratique associée est strictement positive : tXSX>0{}^tXSX > 0.

Soit XRnX \in \mathbb{R}^n avec X0X \neq 0.

tXSX=tX(tMM)X{}^tXSX = {}^tX({}^tMM)X

Par associativité du produit matriciel, on peut regrouper les termes :

tXSX=(tXtM)(MX)=t(MX)(MX){}^tXSX = ({}^tX{}^tM)(MX) = {}^t(MX)(MX)

Soit Y=MXY = MX. L'expression devient tYY{}^tYY.

Le produit tYY{}^tYY est le produit scalaire canonique de YY avec lui-même, ce qui correspond au carré de sa norme euclidienne :

tYY=Y2{}^tYY = \|Y\|^2

On a donc tXSX=MX2{}^tXSX = \|MX\|^2.

La norme d'un vecteur est toujours positive ou nulle. Nous devons montrer qu'elle est strictement positive.

MX20\|MX\|^2 \ge 0.

Supposons que MX2=0\|MX\|^2 = 0. Cela implique que MX=0MX = 0.

Puisque la matrice MM est inversible, elle définit une application linéaire injective. Son noyau est donc réduit au vecteur nul : ker(M)={0}\ker(M) = \{0\}.

Ainsi, MX=0MX=0 implique que X=0X=0.

Or, nous avons pris un vecteur XX non nul. Par conséquent, MXMX ne peut pas être le vecteur nul, et donc MX2>0\|MX\|^2 > 0.

Conclusion

Pour tout X0X \neq 0, on a tXSX>0{}^tXSX > 0. La matrice S=tMMS={}^tMM est donc symétrique et définie positive.

Unicité de la décomposition polaire

Prouver l'unicité de la décomposition polaire M=SOM=SO pour une matrice inversible MM.

Indice

Supposez qu'il existe deux décompositions : M=S1O1=S2O2M = S_1O_1 = S_2O_2, où S1,S2S_1, S_2 sont symétriques définies positives et O1,O2O_1, O_2 sont orthogonales.

Le but est de montrer que S1=S2S_1=S_2 et O1=O2O_1=O_2.

Commencez par exprimer MtMM{}^tM en utilisant les deux décompositions. Que pouvez-vous en déduire sur S12S_1^2 et S22S_2^2 ? Utilisez ensuite l'unicité de la racine carrée d'une matrice symétrique définie positive.

Solution

Soit MGLn(R)M \in GL_n(\mathbb{R}). Supposons qu'il existe deux décompositions polaires de MM :

M=S1O1etM=S2O2M = S_1 O_1 \quad \text{et} \quad M = S_2 O_2

S1,S2S_1, S_2 sont des matrices symétriques définies positives et O1,O2O_1, O_2 sont des matrices orthogonales.

Étape 1 : Montrer que S1=S2S_1 = S_2

Considérons le produit MtMM{}^tM. En utilisant la première décomposition :

MtM=(S1O1)t(S1O1)=S1O1tO1tS1M{}^tM = (S_1 O_1) {}^t(S_1 O_1) = S_1 O_1 {}^tO_1 {}^tS_1

Puisque O1O_1 est orthogonale, tO1=O11{}^tO_1 = O_1^{-1}, donc O1tO1=IO_1 {}^tO_1 = I.

Puisque S1S_1 est symétrique, tS1=S1{}^tS_1 = S_1.

L'expression devient :

MtM=S1IS1=S12M{}^tM = S_1 I S_1 = S_1^2

En faisant le même calcul avec la seconde décomposition, on obtient :

MtM=S22M{}^tM = S_2^2

On a donc S12=S22=MtMS_1^2 = S_2^2 = M{}^tM.

La matrice A=MtMA = M{}^tM est une matrice symétrique définie positive (car MM est inversible). Or, une matrice symétrique définie positive admet une unique racine carrée symétrique définie positive.

Puisque S1S_1 et S2S_2 sont toutes deux des racines carrées symétriques définies positives de AA, elles doivent être égales :

S1=S2S_1 = S_2

Étape 2 : Montrer que O1=O2O_1 = O_2

Maintenant que nous savons que S1=S2S_1=S_2, notons cette matrice commune SS.

L'hypothèse de départ devient M=SO1=SO2M = S O_1 = S O_2.

SO1=SO2S O_1 = S O_2

Puisque SS est une matrice symétrique définie positive, toutes ses valeurs propres sont strictement positives. Son déterminant (le produit de ses valeurs propres) est donc non nul, ce qui signifie que SS est inversible.

On peut donc multiplier à gauche par S1S^{-1} :

S1(SO1)=S1(SO2)S^{-1}(S O_1) = S^{-1}(S O_2)

(S1S)O1=(S1S)O2(S^{-1}S) O_1 = (S^{-1}S) O_2

IO1=IO2I O_1 = I O_2

O1=O2O_1 = O_2

Conclusion

Nous avons montré que si deux décompositions existent, leurs composantes respectives doivent être identiques. La décomposition polaire M=SOM=SO d'une matrice inversible est donc unique.