Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Endomorphismes auto-adjoints


Concept 1: Déterminant d’une matrice et d’un endomorphisme

Prérequis

  • Espaces vectoriels, bases et dimension.
  • Matrices et applications linéaires.
  • Notions de base sur les permutations (groupe symétrique SnS_n) et la signature d’une permutation.

Définition

Soit A=(aij)A = (a_{ij}) une matrice carrée de taille n×nn \times n à coefficients dans un corps K\mathbb{K} (par exemple R\mathbb{R} ou C\mathbb{C}). Son déterminant, noté det(A)\det(A) ou A|A|, est le scalaire de K\mathbb{K} défini par la formule de Leibniz :

det(A)=σSnε(σ)i=1naσ(i),i \det(A) = \sum_{\sigma \in S_n} \varepsilon(\sigma) \prod_{i=1}^{n} a_{\sigma(i), i}

où :

  • SnS_n est l’ensemble de toutes les permutations de l’ensemble {1,2,,n}\{1, 2, \dots, n\}.
  • ε(σ)\varepsilon(\sigma) est la signature de la permutation σ\sigma, qui vaut +1+1 si σ\sigma est un produit d’un nombre pair de transpositions (permutation paire) et 1-1 sinon (permutation impaire).
  • Le produit porte sur les colonnes ii de la matrice, en choisissant l’élément de la ligne σ(i)\sigma(i).

De manière équivalente, le déterminant est l’unique application de Mn(K)M_n(\mathbb{K}) dans K\mathbb{K} qui est n-linéaire alternée par rapport aux colonnes de la matrice et qui vaut 1 pour la matrice identité InI_n.

Soit ff un endomorphisme d’un K\mathbb{K}-espace vectoriel EE de dimension finie nn. Le déterminant de ff, noté det(f)\det(f), est le déterminant de sa matrice dans n’importe quelle base B\mathcal{B} de EE.

det(f):=det(MatB(f)) \det(f) := \det(\text{Mat}_{\mathcal{B}}(f))

Cette définition est indépendante du choix de la base B\mathcal{B}.

Explications Détaillées

La formule de Leibniz peut sembler complexe, mais l’idée est de sommer tous les produits possibles de nn coefficients de la matrice, en s’assurant de prendre exactement un coefficient par ligne et un par colonne. Chaque produit est affecté d’un signe (+1(+1 ou 1)-1) qui dépend de la “géométrie” de la sélection des coefficients, représentée par la permutation σ\sigma.

Le déterminant a une interprétation géométrique fondamentale en dimension 2 et 3.

  • En dimension 2, la valeur absolue de det(v1,v2)\det(v_1, v_2) est l’aire du parallélogramme formé par les vecteurs v1v_1 et v2v_2.
  • En dimension 3, la valeur absolue de det(v1,v2,v3)\det(v_1, v_2, v_3) est le volume du parallélépipède formé par les vecteurs v1,v2,v3v_1, v_2, v_3.

Plus généralement, pour un endomorphisme ff, det(f)|\det(f)| représente le facteur par lequel les volumes sont multipliés par la transformation ff.

Propriétés Clés

Soient A,BMn(K)A, B \in M_n(\mathbb{K}) et λK\lambda \in \mathbb{K}.

  • Multiplicativité : det(AB)=det(A)det(B)\det(AB) = \det(A)\det(B).
  • Déterminant de l’identité : det(In)=1\det(I_n) = 1.
  • Caractérisation de l’inversibilité : Une matrice AA est inversible si et seulement si det(A)0\det(A) \neq 0. Si AA est inversible, det(A1)=(det(A))1\det(A^{-1}) = (\det(A))^{-1}.
  • Transposition : det(tA)=det(A)\det({}^tA) = \det(A). Cela signifie que toutes les propriétés valables pour les colonnes le sont aussi pour les lignes.
  • Homogénéité : det(λA)=λndet(A)\det(\lambda A) = \lambda^n \det(A).
  • Matrices triangulaires : Si AA est une matrice triangulaire (supérieure ou inférieure), son déterminant est le produit de ses coefficients diagonaux.
  • Développement par rapport à une ligne/colonne : Pour tout j{1,...,n}j \in \{1,..., n\}, on a det(M)=i=1n(1)i+jmijΔij\det(M) = \sum_{i=1}^n (-1)^{i+j} m_{ij} \Delta_{ij}, où Δij\Delta_{ij} est le déterminant de la sous-matrice obtenue en supprimant la ligne ii et la colonne jj (appelé cofacteur).

Exemples

Exemple 1 : Matrice 2x2

Soit A=(abcd)A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}. Les permutations de S2S_2 sont l’identité Id=(1)(2)\text{Id}=(1)(2) (signature +1) et la transposition τ=(1 2)\tau=(1 \ 2) (signature -1).

det(A)=ε(Id)a11a22+ε(τ)a21a12=(+1)ad+(1)cb=adbc. \det(A) = \varepsilon(\text{Id}) a_{11} a_{22} + \varepsilon(\tau) a_{21} a_{12} = (+1)ad + (-1)cb = ad-bc.

Par exemple, det(3124)=3×41×2=122=10\det \begin{pmatrix} 3 & 1 \\ 2 & 4 \end{pmatrix} = 3 \times 4 - 1 \times 2 = 12 - 2 = 10.

Exemple 2 : Matrice 3x3 (Règle de Sarrus)

Soit A=(123456789)A = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix}. La règle de Sarrus est un moyen mnémotechnique :

123456789=(159+267+348)(753+861+942) \begin{vmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{vmatrix} = (1 \cdot 5 \cdot 9 + 2 \cdot 6 \cdot 7 + 3 \cdot 4 \cdot 8) - (7 \cdot 5 \cdot 3 + 8 \cdot 6 \cdot 1 + 9 \cdot 4 \cdot 2) =(45+84+96)(105+48+72)=225225=0. = (45 + 84 + 96) - (105 + 48 + 72) = 225 - 225 = 0.

Puisque le déterminant est nul, la matrice n’est pas inversible.

Exemple 3 : Développement par rapport à une colonne

Soit A=(210135142)A = \begin{pmatrix} 2 & 1 & 0 \\ 1 & 3 & 5 \\ -1 & 4 & 2 \end{pmatrix}. Développons par rapport à la première colonne (j=1) :

det(A)=i=13(1)i+1ai1Δi1 \det(A) = \sum_{i=1}^3 (-1)^{i+1} a_{i1} \Delta_{i1} =(1)1+1a113542+(1)2+1a211042+(1)3+1a311035 = (-1)^{1+1} a_{11} \begin{vmatrix} 3 & 5 \\ 4 & 2 \end{vmatrix} + (-1)^{2+1} a_{21} \begin{vmatrix} 1 & 0 \\ 4 & 2 \end{vmatrix} + (-1)^{3+1} a_{31} \begin{vmatrix} 1 & 0 \\ 3 & 5 \end{vmatrix} =2(3254)1(1204)+(1)(1503) = 2 \cdot (3 \cdot 2 - 5 \cdot 4) - 1 \cdot (1 \cdot 2 - 0 \cdot 4) + (-1) \cdot (1 \cdot 5 - 0 \cdot 3) =2(620)1(2)1(5)=2(14)25=287=35. = 2(6 - 20) - 1(2) - 1(5) = 2(-14) - 2 - 5 = -28 - 7 = -35.

Contre-exemples

  1. Non-additivité : Le déterminant n’est pas linéaire. En général, det(A+B)det(A)+det(B)\det(A+B) \neq \det(A) + \det(B).

    Prenons A=(1000)A = \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} et B=(0001)B = \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}. Alors det(A)=0\det(A)=0 et det(B)=0\det(B)=0.

    Mais A+B=(1001)=I2A+B = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I_2, donc det(A+B)=1\det(A+B) = 1.

    Ici, det(A+B)=1det(A)+det(B)=0\det(A+B) = 1 \neq \det(A)+\det(B)=0.

  2. Matrices non carrées : Le concept de déterminant n’est défini que pour les matrices carrées. Une matrice rectangulaire comme M=(123456)M = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{pmatrix} n’a pas de déterminant.

Concepts Connexes

  • Polynôme Caractéristique : Défini comme χf(λ)=det(fλId)\chi_f(\lambda) = \det(f - \lambda \text{Id}), ses racines sont les valeurs propres de ff.
  • Inversibilité d’une matrice : Une matrice est inversible si et seulement si son déterminant est non nul.
  • Comatrice et inverse d’une matrice : La comatrice, formée par les cofacteurs, permet de calculer l’inverse d’une matrice : A1=1det(A)tcom(A)A^{-1} = \frac{1}{\det(A)} {}^t\text{com}(A).

Concept 2: Valeurs Propres, Vecteurs Propres et Espaces Propres

Prérequis

  • Espaces vectoriels et sous-espaces vectoriels.
  • Applications linéaires (endomorphismes).
  • Noyau et image d’une application linéaire.

Définition

Soit EE un K\mathbb{K}-espace vectoriel et f:EEf: E \to E un endomorphisme.

  • Un scalaire λK\lambda \in \mathbb{K} est une valeur propre de ff s’il existe un vecteur non nul xEx \in E tel que f(x)=λxf(x) = \lambda x.

  • Un tel vecteur xx est appelé vecteur propre de ff associé à la valeur propre λ\lambda.

  • L’ensemble de tous les vecteurs xEx \in E tels que f(x)=λxf(x) = \lambda x (y compris le vecteur nul) forme un sous-espace vectoriel de EE, appelé sous-espace propre associé à λ\lambda. On le note Eλ(f)E_\lambda(f) ou simplement EλE_\lambda.

    Eλ(f)={xEf(x)=λx}=ker(fλIdE) E_\lambda(f) = \{x \in E \mid f(x) = \lambda x \} = \ker(f - \lambda \text{Id}_E)

Explications Détaillées

L’idée fondamentale des vecteurs propres est de trouver des directions “privilégiées” pour une transformation linéaire ff. Un vecteur propre xx est un vecteur dont la direction n’est pas modifiée par ff : l’image f(x)f(x) est simplement une version “étirée” ou “rétrécie” de xx. Le facteur d’étirement est la valeur propre λ\lambda.

  • Si λ>1\lambda > 1, les vecteurs dans la direction de xx sont étirés.
  • Si 0<λ<10 < \lambda < 1, ils sont contractés.
  • Si λ<0\lambda < 0, ils sont étirés/contractés et leur sens est inversé.
  • Si λ=1\lambda = 1, les vecteurs propres sont invariants par ff.
  • Si λ=0\lambda = 0, les vecteurs propres (non nuls) sont dans le noyau de ff.

Le sous-espace propre EλE_\lambda est l’ensemble de tous les vecteurs propres associés à λ\lambda, auquel on ajoute le vecteur nul pour en faire un sous-espace vectoriel.

Propriétés Clés

  • Un sous-espace propre Eλ(f)E_\lambda(f) est un sous-espace vectoriel de EE.
  • Par définition d’une valeur propre, si λ\lambda est une valeur propre, alors dim(Eλ(f))1\dim(E_\lambda(f)) \ge 1.
  • Tout sous-espace propre Eλ(f)E_\lambda(f) est stable par ff, c’est-à-dire que si xEλ(f)x \in E_\lambda(f), alors f(x)Eλ(f)f(x) \in E_\lambda(f).
  • Théorème fondamental : La somme de sous-espaces propres associés à des valeurs propres distinctes est toujours une somme directe. Si λ1,,λk\lambda_1, \dots, \lambda_k sont des valeurs propres distinctes, alors Eλ1++Eλk=Eλ1EλkE_{\lambda_1} + \dots + E_{\lambda_k} = E_{\lambda_1} \oplus \dots \oplus E_{\lambda_k}.

Exemples

Exemple 1 : Matrice simple

Soit ff l’endomorphisme de R2\mathbb{R}^2 dont la matrice dans la base canonique est A=(4211)A = \begin{pmatrix} 4 & -2 \\ 1 & 1 \end{pmatrix}.

  • Cherchons si λ=2\lambda=2 est une valeur propre. On résout f(x)=2xf(x)=2x, soit Ax=2xAx=2x ou (A2I)x=0(A-2I)x=0.

    (2211)(x1x2)=(00)x1x2=0\begin{pmatrix} 2 & -2 \\ 1 & -1 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix} \Leftrightarrow x_1 - x_2 = 0.

    Les vecteurs propres pour λ=2\lambda=2 sont de la forme (k,k)(k, k) avec k0k \neq 0. Le sous-espace propre est E2=Vect((11))E_2 = \text{Vect}\left(\begin{pmatrix} 1 \\ 1 \end{pmatrix}\right).

  • Cherchons si λ=3\lambda=3 est une valeur propre. On résout (A3I)x=0(A-3I)x=0.

    (1212)(x1x2)=(00)x12x2=0\begin{pmatrix} 1 & -2 \\ 1 & -2 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix} \Leftrightarrow x_1 - 2x_2 = 0.

    Les vecteurs propres pour λ=3\lambda=3 sont de la forme (2k,k)(2k, k) avec k0k \neq 0. Le sous-espace propre est E3=Vect((21))E_3 = \text{Vect}\left(\begin{pmatrix} 2 \\ 1 \end{pmatrix}\right).

Exemple 2 : Projection orthogonale

Soit PP la projection orthogonale sur un plan FF dans R3\mathbb{R}^3.

  • Pour tout vecteur xFx \in F, P(x)=x=1xP(x) = x = 1 \cdot x. Donc, 1 est une valeur propre et le sous-espace propre associé est E1=FE_1 = F.
  • Pour tout vecteur yFy \in F^\perp (la droite orthogonale à FF), P(y)=0=0yP(y) = 0 = 0 \cdot y. Donc, 0 est une valeur propre et le sous-espace propre associé est E0=FE_0 = F^\perp.

On a bien R3=E1E0=FF\mathbb{R}^3 = E_1 \oplus E_0 = F \oplus F^\perp.

Exemple 3 : Rotation dans le plan

Soit RθR_\theta la rotation d’angle θ]0,π[\theta \in ]0, \pi[ dans R2\mathbb{R}^2. Sa matrice est (cosθsinθsinθcosθ)\begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}.

Un vecteur propre xx devrait être transformé en λx\lambda x, c’est-à-dire colinéaire à lui-même. Une rotation (sauf pour θ=0\theta=0 ou θ=π\theta=\pi) change la direction de tous les vecteurs non nuls. Donc, RθR_\theta n’a pas de vecteurs propres réels, et donc pas de valeurs propres réelles.

Contre-exemples

  1. Le vecteur nul n’est jamais un vecteur propre. La définition exige x0x \neq 0. Si on autorisait x=0x=0, alors f(0)=λ0f(0) = \lambda \cdot 0 serait vrai pour n’importe quel λ\lambda, ce qui rendrait le concept inutile.

  2. Un endomorphisme peut n’avoir aucune valeur propre. Comme vu dans l’exemple 3, une rotation d’angle θ{kπ,kZ}\theta \notin \{k\pi, k \in \mathbb{Z}\} dans R2\mathbb{R}^2 n’a aucune valeur propre réelle. Si on la considère comme un endomorphisme de C2\mathbb{C}^2, elle en possède deux : eiθe^{i\theta} et eiθe^{-i\theta}.

Concepts Connexes

  • Polynôme Caractéristique : Outil principal pour trouver les valeurs propres.
  • Diagonalisation : Un endomorphisme est diagonalisable s’il existe une base de vecteurs propres.
  • Stabilité d’un sous-espace : Les sous-espaces propres sont les exemples les plus simples de sous-espaces stables.

Concept 3: Diagonalisation et Polynôme Caractéristique

Prérequis

  • Concepts 1 (Déterminant) et 2 (Valeurs Propres).
  • Polynômes (racines, factorisation, multiplicité).
  • Changement de base pour les matrices d’endomorphismes.

Définition

  • Polynôme Caractéristique : Soit ff un endomorphisme d’un K\mathbb{K}-espace vectoriel EE de dimension nn. Son polynôme caractéristique est le polynôme en λ\lambda défini par :

    χf(λ)=det(fλIdE) \chi_f(\lambda) = \det(f - \lambda \text{Id}_E)

    Les racines de χf(λ)\chi_f(\lambda) dans K\mathbb{K} sont exactement les valeurs propres de ff.

  • Endomorphisme Diagonalisable : Un endomorphisme ff est dit diagonalisable s’il existe une base B\mathcal{B} de EE entièrement constituée de vecteurs propres de ff. Dans une telle base, la matrice de ff est une matrice diagonale :

    MatB(f)=D=(λ1000λ2000λn) \text{Mat}_{\mathcal{B}}(f) = D = \begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix}

    où les λi\lambda_i sont les valeurs propres de ff.

  • Multiplicités : Pour une valeur propre λ\lambda :

    • La multiplicité algébrique mλm_\lambda est la multiplicité de λ\lambda comme racine du polynôme caractéristique.
    • La multiplicité géométrique dλd_\lambda est la dimension du sous-espace propre associé : dλ=dim(Eλ(f))d_\lambda = \dim(E_\lambda(f)). On a toujours 1dλmλ1 \le d_\lambda \le m_\lambda.

Explications Détaillées

La diagonalisation est un des objectifs centraux de l’algèbre linéaire. Représenter un endomorphisme par une matrice diagonale simplifie énormément son étude. Par exemple, calculer les puissances d’une matrice diagonale est très simple : (Dk)ii=(λi)k(D^k)_{ii} = (\lambda_i)^k. Si A=PDP1A = PDP^{-1}, alors Ak=PDkP1A^k = PD^kP^{-1}, ce qui est facile à calculer.

La procédure pour tenter de diagonaliser un endomorphisme ff (ou une matrice AA) est la suivante :

  1. Calculer le polynôme caractéristique χf(λ)=det(AλI)\chi_f(\lambda) = \det(A - \lambda I).
  2. Trouver ses racines dans K\mathbb{K}. Ce sont les valeurs propres de ff.
  3. Pour chaque valeur propre λ\lambda, trouver une base du sous-espace propre Eλ=ker(AλI)E_\lambda = \ker(A - \lambda I). La dimension de cet espace est la multiplicité géométrique dλd_\lambda.
  4. Vérifier si ff est diagonalisable.

Propriétés Clés

  • Critère de diagonalisation (cas simple) : Si un endomorphisme ff de dimension nn possède nn valeurs propres distinctes dans K\mathbb{K}, alors il est diagonalisable.

  • Critère de diagonalisation (cas général) : Un endomorphisme ff d’un espace de dimension nn est diagonalisable si et seulement si deux conditions sont remplies :

    1. Le polynôme caractéristique χf(λ)\chi_f(\lambda) est scindé sur K\mathbb{K} (il peut être écrit comme un produit de facteurs de degré 1).
    2. Pour chaque valeur propre λ\lambda de ff, sa multiplicité algébrique est égale à sa multiplicité géométrique (mλ=dλm_\lambda = d_\lambda).

    La première condition est toujours vraie si K=C\mathbb{K}=\mathbb{C} (Théorème de d’Alembert-Gauss). La seconde condition est la plus cruciale.

  • Un endomorphisme ff est diagonalisable si et seulement si E=λSp(f)Eλ(f)E = \bigoplus_{\lambda \in \text{Sp}(f)} E_\lambda(f), où Sp(f)\text{Sp}(f) est l’ensemble des valeurs propres.

Exemples

Exemple 1 : Diagonalisable (valeurs propres distinctes)

Soit A=(1110)A = \begin{pmatrix} 1 & 1 \\ 1 & 0 \end{pmatrix}.

  1. χA(λ)=det(1λ11λ)=(1λ)(λ)1=λ2λ1\chi_A(\lambda) = \det \begin{pmatrix} 1-\lambda & 1 \\ 1 & -\lambda \end{pmatrix} = (1-\lambda)(-\lambda) - 1 = \lambda^2 - \lambda - 1.
  2. Les racines sont λ1=1+52\lambda_1 = \frac{1+\sqrt{5}}{2} (le nombre d’or ϕ\phi) et λ2=152\lambda_2 = \frac{1-\sqrt{5}}{2}.
  3. On a deux valeurs propres distinctes dans R\mathbb{R} pour un espace de dimension 2, donc AA est diagonalisable sur R\mathbb{R}.

Exemple 2 : Diagonalisable (valeur propre multiple)

Soit A=(211121112)A = \begin{pmatrix} 2 & 1 & 1 \\ 1 & 2 & 1 \\ 1 & 1 & 2 \end{pmatrix}.

  1. χA(λ)=(λ1)2(λ4)\chi_A(\lambda) = -(\lambda - 1)^2 (\lambda - 4). Les valeurs propres sont λ1=1\lambda_1 = 1 (multiplicité algébrique m1=2m_1=2) et λ2=4\lambda_2 = 4 (multiplicité m4=1m_4=1).
  2. Pour λ1=1\lambda_1=1, on cherche ker(AI)=ker(111111111)\ker(A-I) = \ker \begin{pmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{pmatrix}. Le noyau est le plan d’équation x+y+z=0x+y+z=0. Il est de dimension 2. Une base est {(1,1,0),(1,0,1)}\{(-1,1,0), (-1,0,1)\}. Donc d1=2d_1=2.
  3. Pour λ2=4\lambda_2=4, d4d_4 sera forcément 1. On trouve E4=Vect((1,1,1))E_4 = \text{Vect}((1,1,1)).
  4. Comme m1=d1=2m_1=d_1=2 et m4=d4=1m_4=d_4=1, la matrice est diagonalisable.

Exemple 3 : Non diagonalisable

Soit A=(0100)A = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}.

  1. χA(λ)=det(λ10λ)=λ2\chi_A(\lambda) = \det \begin{pmatrix} -\lambda & 1 \\ 0 & -\lambda \end{pmatrix} = \lambda^2.

  2. La seule valeur propre est λ=0\lambda=0, avec une multiplicité algébrique m0=2m_0=2.

  3. Calculons le sous-espace propre E0=ker(A0I)=ker(A)E_0 = \ker(A - 0I) = \ker(A).

    (0100)(xy)=(00)y=0\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix} \Leftrightarrow y=0.

    Donc E0=Vect((10))E_0 = \text{Vect}\left(\begin{pmatrix} 1 \\ 0 \end{pmatrix}\right), et sa dimension est d0=1d_0=1.

  4. Puisque d0=1<m0=2d_0 = 1 < m_0 = 2, la matrice n’est pas diagonalisable.

Contre-exemples

  1. Matrice non diagonalisable sur R\mathbb{R} mais sur C\mathbb{C} : La matrice de rotation B=(0110)B = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}. Son polynôme caractéristique est λ2+1\lambda^2+1, qui n’a pas de racines réelles. Donc BB n’est pas diagonalisable sur R\mathbb{R}. Sur C\mathbb{C}, les valeurs propres sont ii et i-i, qui sont distinctes, donc elle est diagonalisable sur C\mathbb{C}.

  2. Matrice avec polynôme scindé mais non diagonalisable : La matrice A=(1101)A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} (matrice de cisaillement). Son polynôme caractéristique est (λ1)2(\lambda-1)^2, qui est scindé. Mais comme pour l’exemple 3 ci-dessus, la multiplicité géométrique (1) est inférieure à l’algébrique (2).

Concepts Connexes

  • Théorème Spectral : Un théorème majeur qui garantit que les endomorphismes auto-adjoints sont toujours diagonalisables.
  • Trigonalisation : Tout endomorphisme sur un corps algébriquement clos (comme C\mathbb{C}) est trigonalisable, même s’il n’est pas diagonalisable.
  • Décomposition de Jordan : Une généralisation de la diagonalisation pour les matrices non diagonalisables.

Concept 4: Endomorphisme Auto-adjoint

Prérequis

  • Espaces vectoriels euclidiens (produit scalaire sur R\mathbb{R}) ou hermitiens (produit scalaire sur C\mathbb{C}).
  • Endomorphisme adjoint ff^*.
  • Bases orthonormées.
  • Matrices symétriques (cas réel) et hermitiennes (cas complexe).

Définition

Soit (E,,)(E, \langle \cdot, \cdot \rangle) un espace vectoriel euclidien ou hermitien de dimension finie. Un endomorphisme f:EEf: E \to E est dit auto-adjoint (ou symétrique) si ff est égal à son propre adjoint, f=ff=f^*.

Cela se traduit par la relation suivante pour tous les vecteurs x,yEx, y \in E:

f(x),y=x,f(y) \langle f(x), y \rangle = \langle x, f(y) \rangle

Dans le contexte matriciel :

  • Si EE est un espace euclidien et B\mathcal{B} est une base orthonormée, ff est auto-adjoint si et seulement si sa matrice A=MatB(f)A = \text{Mat}_{\mathcal{B}}(f) est symétrique (A=tAA = {}^tA).
  • Si EE est un espace hermitien et B\mathcal{B} est une base orthonormée, ff est auto-adjoint si et seulement si sa matrice A=MatB(f)A = \text{Mat}_{\mathcal{B}}(f) est hermitienne (A=tAˉA = {}^t\bar{A}).

Explications Détaillées

Un endomorphisme auto-adjoint est une transformation qui se “comporte bien” avec la structure géométrique de l’espace (le produit scalaire). La condition f(x),y=x,f(y)\langle f(x), y \rangle = \langle x, f(y) \rangle signifie qu’on peut “déplacer” l’endomorphisme d’un côté à l’autre du produit scalaire sans rien changer.

Ces opérateurs apparaissent naturellement dans de nombreux domaines de la physique (opérateurs quantiques, tenseur d’inertie) et des mathématiques (formes quadratiques, analyse de données). Ils possèdent des propriétés de “symétrie” très fortes qui les rendent particulièrement simples à étudier, notamment en ce qui concerne leur diagonalisation.

Propriétés Clés

Soit ff un endomorphisme auto-adjoint sur un espace EE.

  • Les valeurs propres de ff sont toutes réelles, même si l’espace est hermitien (complexe).
  • Les sous-espaces propres associés à des valeurs propres distinctes sont orthogonaux. Si f(x)=λxf(x) = \lambda x et f(y)=μyf(y) = \mu y avec λμ\lambda \neq \mu, alors x,y=0\langle x, y \rangle = 0.
  • Stabilité de l’orthogonal : Si un sous-espace vectoriel FF est stable par ff (c’est-à-dire f(F)Ff(F) \subseteq F), alors son complément orthogonal FF^\perp est aussi stable par ff.

Exemples

Exemple 1 : Matrice symétrique réelle

Soit ff l’endomorphisme de R2\mathbb{R}^2 (muni du produit scalaire usuel) dont la matrice dans la base canonique (qui est orthonormée) est A=(1335)A = \begin{pmatrix} 1 & 3 \\ 3 & 5 \end{pmatrix}.

Puisque AA est symétrique, ff est auto-adjoint. Vérifions la propriété pour x=(x1,x2)x=(x_1, x_2) et y=(y1,y2)y=(y_1, y_2):

Ax,y=(x1+3x2)y1+(3x1+5x2)y2=x1y1+3x2y1+3x1y2+5x2y2 \langle Ax, y \rangle = (x_1+3x_2)y_1 + (3x_1+5x_2)y_2 = x_1y_1 + 3x_2y_1 + 3x_1y_2 + 5x_2y_2 x,Ay=x1(y1+3y2)+x2(3y1+5y2)=x1y1+3x1y2+3x2y1+5x2y2 \langle x, Ay \rangle = x_1(y_1+3y_2) + x_2(3y_1+5y_2) = x_1y_1 + 3x_1y_2 + 3x_2y_1 + 5x_2y_2

Les deux expressions sont égales.

Exemple 2 : Projection orthogonale

Soit PFP_F la projection orthogonale sur un sous-espace FF de EE. Pour tous x,yEx, y \in E, on peut écrire x=xF+xFx=x_F+x_{F^\perp} et y=yF+yFy=y_F+y_{F^\perp}.

PF(x),y=xF,yF+yF=xF,yF \langle P_F(x), y \rangle = \langle x_F, y_F+y_{F^\perp} \rangle = \langle x_F, y_F \rangle x,PF(y)=xF+xF,yF=xF,yF \langle x, P_F(y) \rangle = \langle x_F+x_{F^\perp}, y_F \rangle = \langle x_F, y_F \rangle

L’égalité montre que PFP_F est auto-adjoint.

Exemple 3 : Homothétie

Une homothétie f(x)=kxf(x)=kx pour un scalaire réel kk est auto-adjointe:

f(x),y=kx,y=kx,y \langle f(x), y \rangle = \langle kx, y \rangle = k \langle x, y \rangle x,f(y)=x,ky=kx,y(ou kˉx,y si hermitien) \langle x, f(y) \rangle = \langle x, ky \rangle = k \langle x, y \rangle \quad (\text{ou } \bar{k}\langle x, y \rangle \text{ si hermitien})

L’égalité est vraie pour kRk \in \mathbb{R}.

Contre-exemples

  1. Rotation dans R2\mathbb{R}^2 : Soit RR la rotation d’angle π/2\pi/2. Sa matrice dans la base canonique est A=(0110)A = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}. Cette matrice n’est pas symétrique, donc RR n’est pas auto-adjoint. En effet, si x=(1,0)x=(1,0) et y=(0,1)y=(0,1):

    R(x),y=(0,1),(0,1)=1\langle R(x), y \rangle = \langle (0,1), (0,1) \rangle = 1.

    x,R(y)=(1,0),(1,0)=1\langle x, R(y) \rangle = \langle (1,0), (-1,0) \rangle = -1.

    Les résultats sont différents.

  2. Cisaillement (Shear) : Soit ff l’endomorphisme de matrice A=(1101)A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}. Elle n’est pas symétrique et ff n’est pas auto-adjoint.

    Prenons x=(0,1)x=(0,1) et y=(1,0)y=(1,0):

    f(x),y=(1,1),(1,0)=1\langle f(x), y \rangle = \langle (1,1), (1,0) \rangle = 1.

    x,f(y)=(0,1),(1,0)=0\langle x, f(y) \rangle = \langle (0,1), (1,0) \rangle = 0.

Concepts Connexes

  • Théorème Spectral : Le résultat principal concernant les endomorphismes auto-adjoints.
  • Formes Quadratiques : À chaque endomorphisme auto-adjoint ff est associée une forme quadratique q(x)=f(x),xq(x) = \langle f(x), x \rangle.
  • Endomorphismes normaux : Une classe plus générale d’endomorphismes (ff=ffff^*=f^*f) qui contient les auto-adjoints et qui sont aussi diagonalisables (sur C\mathbb{C}) dans une base orthonormée.

Concept 5: Théorème Spectral

Prérequis

  • Concepts 2, 3 et 4 (valeurs propres, diagonalisation, endomorphismes auto-adjoints).
  • Espaces euclidiens et hermitiens.
  • Bases orthonormées.
  • Matrices orthogonales (P1=tPP^{-1} = {}^tP) et unitaires (U1=tUˉU^{-1} = {}^t\bar{U}).

Définition

Le théorème spectral est un résultat fondamental qui décrit la structure des endomorphismes auto-adjoints.

Énoncé pour les endomorphismes :

Soit (E,,)(E, \langle \cdot, \cdot \rangle) un espace vectoriel euclidien ou hermitien de dimension finie nn. Si f:EEf: E \to E est un endomorphisme auto-adjoint, alors :

  1. ff est diagonalisable.
  2. Il existe une base orthonormée de EE constituée de vecteurs propres de ff.
  3. Toutes les valeurs propres de ff sont réelles.

Énoncé pour les matrices :

  • Cas réel : Pour toute matrice symétrique réelle SMn(R)S \in M_n(\mathbb{R}), il existe une matrice orthogonale POn(R)P \in O_n(\mathbb{R}) et une matrice diagonale réelle DD telles que :

    S=PDP1=PDtP S = P D P^{-1} = P D {}^tP
  • Cas complexe : Pour toute matrice hermitienne HMn(C)H \in M_n(\mathbb{C}), il existe une matrice unitaire UUn(C)U \in U_n(\mathbb{C}) et une matrice diagonale réelle DD telles que :

    H=UDU1=UDtUˉ H = U D U^{-1} = U D {}^t\bar{U}

Explications Détaillées

Ce théorème est l’un des plus importants de l’algèbre linéaire. Il nous dit que pour les transformations “symétriques” (auto-adjointes), non seulement on peut trouver une base de vecteurs propres (diagonalisabilité), mais en plus, on peut choisir cette base pour qu’elle soit orthonormée.

Géométriquement, cela signifie que toute transformation auto-adjointe peut être vue comme une série d’étirements ou de compressions le long d’axes mutuellement orthogonaux. Les directions de ces axes sont données par les vecteurs propres, et les facteurs d’étirement sont les valeurs propres.

La version matricielle est extrêmement utile en pratique. Elle permet de “décomposer” une matrice symétrique en une rotation/réflexion (PP), une mise à l’échelle simple (DD), et la transformation inverse (PTP^T).

Propriétés Clés

  • Garantie de diagonalisabilité : Contrairement à un endomorphisme général, un endomorphisme auto-adjoint est toujours diagonalisable sur R\mathbb{R} (si l’espace est euclidien) ou C\mathbb{C} (si hermitien).
  • Orthogonalité des espaces propres : Les espaces propres associés à des valeurs propres distinctes sont orthogonaux, ce qui est une étape clé de la preuve et de la construction de la base orthonormée.
  • Base de la diagonalisation : La matrice de passage PP (ou UU) qui diagonalise la matrice symétrique (ou hermitienne) a pour colonnes les vecteurs d’une base orthonormée de vecteurs propres.

Exemples

Exemple 1 : Diagonalisation d’une matrice symétrique 2x2

Soit S=(2112)S = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}.

  1. Valeurs propres : χS(λ)=(2λ)21=λ24λ+3=(λ1)(λ3)\chi_S(\lambda) = (2-\lambda)^2 - 1 = \lambda^2 - 4\lambda + 3 = (\lambda-1)(\lambda-3). Les valeurs propres sont λ1=1,λ2=3\lambda_1=1, \lambda_2=3.

  2. Vecteurs propres :

    • Pour λ1=1\lambda_1=1 : ker(SI)=ker(1111)\ker(S-I) = \ker\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix}. Un vecteur propre est v1=(11)v_1 = \begin{pmatrix} 1 \\ -1 \end{pmatrix}.
    • Pour λ2=3\lambda_2=3 : ker(S3I)=ker(1111)\ker(S-3I) = \ker\begin{pmatrix} -1 & 1 \\ 1 & -1 \end{pmatrix}. Un vecteur propre est v2=(11)v_2 = \begin{pmatrix} 1 \\ 1 \end{pmatrix}.
  3. Orthogonalité : On vérifie que v1,v2=11+(1)1=0\langle v_1, v_2 \rangle = 1 \cdot 1 + (-1) \cdot 1 = 0. Les vecteurs propres sont bien orthogonaux.

  4. Base orthonormée : On normalise les vecteurs :

    u1=v1v1=12(11)u_1 = \frac{v_1}{\|v_1\|} = \frac{1}{\sqrt{2}}\begin{pmatrix} 1 \\ -1 \end{pmatrix}, u2=v2v2=12(11)u_2 = \frac{v_2}{\|v_2\|} = \frac{1}{\sqrt{2}}\begin{pmatrix} 1 \\ 1 \end{pmatrix}.

  5. Décomposition : D=(1003)D=\begin{pmatrix} 1 & 0 \\ 0 & 3 \end{pmatrix}, P=(1/21/21/21/2)P = \begin{pmatrix} 1/\sqrt{2} & 1/\sqrt{2} \\ -1/\sqrt{2} & 1/\sqrt{2} \end{pmatrix}. On peut vérifier que S=PDPTS = PDP^T.

Exemple 2 : Matrice de l’énoncé

Soit S=(120232021)S = \begin{pmatrix} 1 & 2 & 0 \\ 2 & 3 & 2 \\ 0 & 2 & 1 \end{pmatrix}.

  1. Valeurs propres : χS(λ)=(λ1)(λ5)(λ+1)\chi_S(\lambda) = -(\lambda-1)(\lambda-5)(\lambda+1). Les valeurs propres sont 1,5,11, 5, -1.
  2. Vecteurs propres normalisés :
    • λ=1    u1=12(1,0,1)T\lambda=1 \implies u_1 = \frac{1}{\sqrt{2}}(1, 0, -1)^T
    • λ=5    u2=13(1,1,1)T\lambda=5 \implies u_2 = \frac{1}{\sqrt{3}}(1, 1, 1)^T
    • λ=1    u3=16(1,2,1)T\lambda=-1 \implies u_3 = \frac{1}{\sqrt{6}}(1, -2, 1)^T
  3. Matrices : D=(100050001)D = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -1 \end{pmatrix} et PP est la matrice dont les colonnes sont u1,u2,u3u_1, u_2, u_3. PP est orthogonale.

Exemple 3 : Projection

La projection PP sur la droite Vect((1,1))\text{Vect}((1,1)) dans R2\mathbb{R}^2. Sa matrice est A=12(1111)A = \frac{1}{2}\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix}. C’est une matrice symétrique. Ses valeurs propres sont 1 et 0, associées aux vecteurs propres orthogonaux (1,1)(1,1) et (1,1)(1,-1). La base orthonormée de diagonalisation est {12(1,1),12(1,1)}\{\frac{1}{\sqrt{2}}(1,1), \frac{1}{\sqrt{2}}(1,-1)\}.

Contre-exemples

  1. Matrice non symétrique : La matrice de cisaillement A=(1101)A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} n’est pas symétrique et n’est pas diagonalisable, donc le théorème spectral ne s’applique pas.

  2. Matrice diagonalisable mais pas dans une base orthonormée :

    Soit A=(1102)A = \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix}. Elle est diagonalisable car elle a deux valeurs propres distinctes (1 et 2).

    Les vecteurs propres sont v1=(1,0)v_1 = (1,0) et v2=(1,1)v_2 = (1,1). Ces vecteurs ne sont pas orthogonaux (v1,v2=10\langle v_1, v_2 \rangle = 1 \neq 0), donc il n’existe pas de base orthonormée de vecteurs propres. Cela est dû au fait que AA n’est pas symétrique.

Applications

  • Géométrie : Classification et simplification des équations de coniques et quadriques.
  • Mécanique : Le tenseur d’inertie est une matrice symétrique ; ses vecteurs propres sont les axes principaux d’inertie.
  • Statistiques : L’Analyse en Composantes Principales (ACP) repose sur la diagonalisation de la matrice de covariance, qui est symétrique.

Concept 6: Endomorphismes Positifs et Définis Positifs

Prérequis

  • Concept 4: Endomorphisme Auto-adjoint.
  • Espaces euclidiens et hermitiens.
  • Formes quadratiques.

Définition

Soit (E,,)(E, \langle \cdot, \cdot \rangle) un espace euclidien ou hermitien, et f:EEf: E \to E un endomorphisme auto-adjoint.

  • ff est dit positif si pour tout vecteur xEx \in E, on a :

    f(x),x0 \langle f(x), x \rangle \ge 0
  • ff est dit défini positif si pour tout vecteur non nul xE,x0x \in E, x \neq 0, on a :

    f(x),x>0 \langle f(x), x \rangle > 0

Une matrice symétrique réelle SS (ou hermitienne HH) est dite positive (resp. définie positive) si l’endomorphisme qu’elle représente dans une base orthonormée l’est.

Explications Détaillées

La notion d’endomorphisme positif généralise celle de nombre réel positif. La quantité f(x),x\langle f(x), x \rangle est souvent associée à une “énergie”. Un endomorphisme positif est une transformation qui ne produit jamais une “énergie négative”. Un endomorphisme défini positif produit toujours une énergie strictement positive, sauf pour le vecteur nul.

Cette propriété est fondamentale pour définir une “racine carrée” d’un endomorphisme ou d’une matrice, et elle est cruciale pour définir de nouveaux produits scalaires. En effet, si ff est auto-adjoint défini positif, alors l’application (x,y)f(x),y(x, y) \mapsto \langle f(x), y \rangle est un nouveau produit scalaire sur EE.

Propriétés Clés

Soit ff un endomorphisme auto-adjoint.

  • Caractérisation par les valeurs propres :
    • ff est positif si et seulement si toutes ses valeurs propres sont positives ou nulles (λi0\lambda_i \ge 0).
    • ff est défini positif si et seulement si toutes ses valeurs propres sont strictement positives (λi>0\lambda_i > 0).
  • Un endomorphisme défini positif est toujours inversible (car 0 n’est pas une valeur propre).
  • Si MM est une matrice réelle inversible, alors tMM{}^tMM et MtMM{}^tM sont des matrices symétriques définies positives. Si MM n’est pas inversible, elles sont seulement positives.
  • Racine carrée : Si ff est un endomorphisme auto-adjoint positif, il existe un unique endomorphisme auto-adjoint positif gg tel que g2=fg^2 = f. On le note g=fg = \sqrt{f}.

Exemples

Exemple 1 : Matrice définie positive

Soit S=(2112)S = \begin{pmatrix} 2 & -1 \\ -1 & 2 \end{pmatrix}. C’est une matrice symétrique.

Ses valeurs propres sont les racines de (2λ)21=0(2-\lambda)^2 - 1 = 0, soit λ24λ+3=0\lambda^2-4\lambda+3=0. Les valeurs propres sont 11 et 33. Comme elles sont strictement positives, SS est définie positive.

Vérifions directement : pour x=(x1,x2)(0,0)x=(x_1, x_2) \neq (0,0),

Sx,x=(2x1x2)x1+(x1+2x2)x2=2x122x1x2+2x22=x12+x22+(x1x2)2>0\langle Sx, x \rangle = (2x_1-x_2)x_1 + (-x_1+2x_2)x_2 = 2x_1^2 - 2x_1x_2 + 2x_2^2 = x_1^2 + x_2^2 + (x_1-x_2)^2 > 0.

Exemple 2 : Matrice positive non définie

Une projection orthogonale PFP_F sur un sous-espace FEF \neq E. Ses valeurs propres sont 0 et 1. Comme elles sont 0\ge 0, PFP_F est un endomorphisme positif. Cependant, comme 0 est une valeur propre, il existe des vecteurs x0x \neq 0 (ceux dans FF^\perp) tels que PF(x),x=0,x=0\langle P_F(x), x \rangle = \langle 0, x \rangle = 0. Il n’est donc pas défini positif.

Exemple 3 : Construction d’une matrice positive

Soit M=(1234)M = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}. MM n’est pas symétrique.

La matrice S=tMM=(1324)(1234)=(10141420)S = {}^tMM = \begin{pmatrix} 1 & 3 \\ 2 & 4 \end{pmatrix} \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} = \begin{pmatrix} 10 & 14 \\ 14 & 20 \end{pmatrix} est symétrique et positive. Comme det(M)0\det(M) \neq 0, MM est inversible, donc SS est définie positive.

Contre-exemples

  1. Matrice symétrique non positive : Soit S=(1001)S = \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}. C’est une matrice symétrique. Sa deuxième valeur propre est 1<0-1 < 0, elle n’est donc pas positive. Pour x=(0,1)x = (0,1), Sx,x=(0,1),(0,1)=1<0\langle Sx, x \rangle = \langle (0,-1), (0,1) \rangle = -1 < 0.

  2. Matrice non symétrique avec Ax,x>0\langle Ax, x \rangle > 0 : La notion de positivité n’est définie que pour les endomorphismes auto-adjoints. Prenons A=(1201)A = \begin{pmatrix} 1 & -2 \\ 0 & 1 \end{pmatrix}.

    Ax,x=(x12x2)x1+x22=x122x1x2+x22=(x1x2)20\langle Ax,x \rangle = (x_1 - 2x_2)x_1 + x_2^2 = x_1^2 - 2x_1x_2 + x_2^2 = (x_1-x_2)^2 \ge 0.

    Bien que la forme quadratique soit positive, la matrice AA n’est pas dite “positive” car elle n’est pas symétrique.

Concepts Connexes

  • Décomposition Polaire : Utilise la notion de racine carrée d’une matrice symétrique positive.
  • Produit Scalaire : Toute matrice symétrique définie positive SS peut être utilisée pour définir un nouveau produit scalaire x,yS=tXSY\langle x, y \rangle_S = {}^tXSY.
  • Décomposition de Cholesky : Toute matrice symétrique définie positive SS peut s’écrire de manière unique sous la forme S=tLLS = {}^tLLLL est une matrice triangulaire inférieure à diagonale positive.

Concept 7: Décomposition Polaire

Prérequis

  • Concepts 5 (Théorème Spectral) et 6 (Endomorphismes Positifs).
  • Matrices inversibles (GLn(R)GL_n(\mathbb{R})).
  • Matrices orthogonales (On(R)O_n(\mathbb{R})).

Définition

Le théorème de la décomposition polaire affirme que toute transformation linéaire inversible peut être décomposée de manière unique en un étirement pur (auto-adjoint défini positif) suivi d’une isométrie (rotation/réflexion).

Énoncé pour les matrices :

Pour toute matrice inversible MGLn(R)M \in GL_n(\mathbb{R}), il existe :

  1. une unique matrice orthogonale OOn(R)O \in O_n(\mathbb{R}),
  2. une unique matrice symétrique définie positive SMn(R)S \in M_n(\mathbb{R}),

telles que :

M=SO M = SO

Il existe également une décomposition “à droite” M=OSM = O'S', qui est en général différente.

Explications Détaillées

Cette décomposition est l’analogue matriciel de la forme polaire d’un nombre complexe non nul z=ρeiθz = \rho e^{i\theta}, où ρ=z>0\rho = |z| > 0 est le module (un étirement réel positif) et eiθe^{i\theta} est un nombre complexe de module 1 (une rotation).

Pour les matrices :

  • La matrice SS joue le rôle de ρ\rho. C’est une transformation qui étire ou contracte l’espace le long d’axes orthogonaux (ses vecteurs propres).
  • La matrice OO joue le rôle de eiθe^{i\theta}. C’est une isométrie, qui préserve les longueurs et les angles, correspondant à une rotation ou une roto-réflexion.

La décomposition polaire sépare ainsi les deux effets géométriques fondamentaux d’une transformation linéaire : la déformation (capturée par SS) et la rotation (capturée par OO).

Construction :

Pour trouver la décomposition M=SOM=SO :

  1. On remarque que MtM=(SO)(t(SO))=SOtOtS=SIS=S2M{}^tM = (SO)({}^t(SO)) = SO{}^tO{}^tS = S I S = S^2.
  2. La matrice R=MtMR = M{}^tM est symétrique et définie positive. D’après le concept 6, elle admet une unique racine carrée symétrique définie positive, S=MtMS = \sqrt{M{}^tM}.
  3. Une fois SS déterminée, on trouve OO par la relation O=S1MO = S^{-1}M. On peut prouver que la matrice OO ainsi obtenue est bien orthogonale.

Propriétés Clés

  • Unicité : La décomposition d’une matrice inversible MM en un produit SOSO (avec SS symétrique définie positive et OO orthogonale) est unique.
  • Orientation : La matrice orthogonale OO est une rotation pure (OSOn(R)O \in SO_n(\mathbb{R}), i.e. det(O)=1\det(O)=1) si et seulement si det(M)>0\det(M) > 0.
  • Généralisation : Une version de la décomposition polaire existe aussi pour les matrices non-inversibles, mais SS est seulement positive et OO n’est pas unique.

Exemples

Exemple 1 : Décomposition d’une matrice 2x2

Soit M=(2211)M = \begin{pmatrix} 2 & 2 \\ -1 & 1 \end{pmatrix}.

  1. Calculons R=MtM=(2211)(2121)=(8002)R = M{}^tM = \begin{pmatrix} 2 & 2 \\ -1 & 1 \end{pmatrix} \begin{pmatrix} 2 & -1 \\ 2 & 1 \end{pmatrix} = \begin{pmatrix} 8 & 0 \\ 0 & 2 \end{pmatrix}.

  2. RR est déjà diagonale. Sa racine carrée symétrique définie positive est évidente :

    S=R=(8002)=(22002)S = \sqrt{R} = \begin{pmatrix} \sqrt{8} & 0 \\ 0 & \sqrt{2} \end{pmatrix} = \begin{pmatrix} 2\sqrt{2} & 0 \\ 0 & \sqrt{2} \end{pmatrix}.

  3. Calculons O=S1MO = S^{-1}M:

    S1=(1/(22)001/2)S^{-1} = \begin{pmatrix} 1/(2\sqrt{2}) & 0 \\ 0 & 1/\sqrt{2} \end{pmatrix}.

    O=(1/(22)001/2)(2211)=(1/21/21/21/2)O = \begin{pmatrix} 1/(2\sqrt{2}) & 0 \\ 0 & 1/\sqrt{2} \end{pmatrix} \begin{pmatrix} 2 & 2 \\ -1 & 1 \end{pmatrix} = \begin{pmatrix} 1/\sqrt{2} & 1/\sqrt{2} \\ -1/\sqrt{2} & 1/\sqrt{2} \end{pmatrix}.

    Cette matrice est bien orthogonale (c’est une rotation de π/4-\pi/4).

  4. La décomposition est M=(22002)(1/21/21/21/2)M = \begin{pmatrix} 2\sqrt{2} & 0 \\ 0 & \sqrt{2} \end{pmatrix} \begin{pmatrix} 1/\sqrt{2} & 1/\sqrt{2} \\ -1/\sqrt{2} & 1/\sqrt{2} \end{pmatrix}.

Exemple 2 : Analogie avec les nombres complexes

Soit la matrice M=(abba)M = \begin{pmatrix} a & -b \\ b & a \end{pmatrix} représentant le complexe z=a+ibz=a+ib.

  1. MtM=(abba)(abba)=(a2+b200a2+b2)=z2I2M{}^tM = \begin{pmatrix} a & -b \\ b & a \end{pmatrix} \begin{pmatrix} a & b \\ -b & a \end{pmatrix} = \begin{pmatrix} a^2+b^2 & 0 \\ 0 & a^2+b^2 \end{pmatrix} = |z|^2 I_2.

  2. S=z2I2=zI2=(z00z)S = \sqrt{|z|^2 I_2} = |z| I_2 = \begin{pmatrix} |z| & 0 \\ 0 & |z| \end{pmatrix}.

  3. O=S1M=1zM=(a/zb/zb/za/z)O = S^{-1}M = \frac{1}{|z|} M = \begin{pmatrix} a/|z| & -b/|z| \\ b/|z| & a/|z| \end{pmatrix}. Si z=z(cosθ+isinθ)z = |z|(\cos\theta+i\sin\theta), alors a/z=cosθa/|z|=\cos\theta et b/z=sinθb/|z|=\sin\theta, donc OO est la matrice de rotation d’angle θ\theta.

    On retrouve M=(eˊtirement)×(rotation)M = (\text{étirement}) \times (\text{rotation}).

Exemple 3 : Matrice non-diagonale

Soit M=(1101)M = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} (cisaillement).

  1. MtM=(1101)(1011)=(2111)M{}^tM = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix} = \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix}. C’est la matrice SS de l’exemple 1 du Th. Spectral (à un facteur près).
  2. On doit diagonaliser MtMM{}^tM pour calculer sa racine. Ses valeurs propres sont 3±52\frac{3\pm\sqrt{5}}{2}. Après calcul, on trouve S=15(2113)S = \frac{1}{\sqrt{5}} \begin{pmatrix} 2 & 1 \\ 1 & 3 \end{pmatrix}.
  3. Puis O=S1M=15(1213)O = S^{-1}M = \frac{1}{\sqrt{5}}\begin{pmatrix} 1 & -2 \\ -1 & 3 \end{pmatrix}.

Contre-exemples

  1. Matrice singulière : Si M=(1111)M = \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix}, det(M)=0\det(M)=0, elle n’est pas dans GL2(R)GL_2(\mathbb{R}). MtM=(2222)M{}^tM = \begin{pmatrix} 2 & 2 \\ 2 & 2 \end{pmatrix}, qui est symétrique positive mais pas définie positive (ses valeurs propres sont 4 et 0). La construction standard ne fonctionne pas car S=MtMS = \sqrt{M{}^tM} n’est pas inversible.

  2. Décomposition non-commutative : En général, SOOSSO \neq OS. La décomposition “à droite” M=OSM=O'S' utilise S=tMMS'=\sqrt{{}^tMM}. Pour l’exemple 1, tMM=(5335){}^tMM = \begin{pmatrix} 5 & 3 \\ 3 & 5 \end{pmatrix} qui est différente de MtMM{}^tM. Donc SSS \neq S' et OOO \neq O'.

Applications

  • Mécanique des milieux continus : Le tenseur des déformations d’un matériau est décomposé en une partie “étirement pur” (tenseur de Cauchy-Green droit) et une partie “rotation pure”.
  • Vision par ordinateur et robotique : Utilisée pour trouver la rotation “la plus proche” d’une matrice de transformation donnée, en ignorant les déformations.
  • Algèbre linéaire numérique : Intervient dans certains algorithmes, notamment pour le calcul de la Décomposition en Valeurs Singulières (SVD).