Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Réduction des endomorphismes auto-adjoints - fiches de révision (A)

Qu'est-ce que le déterminant d'une matrice carrée ?

Solution

Le déterminant d'une matrice carrée A=(aij)A = (a_{ij}) de taille n×nn \times n est un scalaire, noté det(A)\det(A), qui encode des informations importantes sur la matrice et la transformation linéaire qu'elle représente.

La formule générale, dite de Leibniz, est :

det(A)=σSnε(σ)i=1naσ(i),i\det(A) = \sum_{\sigma \in S_n} \varepsilon(\sigma) \prod_{i=1}^{n} a_{\sigma(i), i}

Intuitivement, c'est une somme de produits de nn coefficients de la matrice, en prenant exactement un coefficient par ligne et un par colonne. Chaque produit est affecté d'un signe +1+1 ou 1-1 selon la permutation σ\sigma des colonnes.

Le déterminant est l'unique application qui est :

  1. n-linéaire alternée par rapport aux colonnes (ou aux lignes).
  2. Vaut 1 pour la matrice identité InI_n.

Exemple (Matrice 2x2):

Pour une matrice A=(abcd)A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}, la formule se simplifie grandement :

det(A)=adbc\det(A) = ad - bc

C'est le produit des éléments de la diagonale principale moins le produit des éléments de l'autre diagonale.

Quelle est l'interprétation géométrique du déterminant ?

Solution

Le déterminant d'un endomorphisme ff (ou de sa matrice) mesure le facteur de changement de volume induit par la transformation ff.

Plus précisément, la valeur absolue du déterminant det(f)|\det(f)| est le coefficient par lequel les volumes sont multipliés.

  • En dimension 2 : Si v1v_1 et v2v_2 sont deux vecteurs de R2\mathbb{R}^2, alors la valeur absolue de det(v1,v2)\det(v_1, v_2) est l'aire du parallélogramme formé par ces deux vecteurs.

  • En dimension 3 : Si v1,v2,v3v_1, v_2, v_3 sont trois vecteurs de R3\mathbb{R}^3, alors la valeur absolue de det(v1,v2,v3)\det(v_1, v_2, v_3) est le volume du parallélépipède formé par ces trois vecteurs.

Si det(f)>0\det(f) > 0, l'orientation de l'espace est conservée.

Si det(f)<0\det(f) < 0, l'orientation est inversée (comme une symétrie).

Si det(f)=0\det(f) = 0, les volumes sont "aplatis" à 0 (l'image est de dimension inférieure).

Comment le déterminant permet-il de savoir si une matrice est inversible ?

Solution

Une matrice carrée AA est inversible si et seulement si son déterminant est non nul.

A est inversible    det(A)0A \text{ est inversible} \iff \det(A) \neq 0

C'est l'une des propriétés les plus importantes du déterminant.

Explications :

  • Si det(A)=0\det(A) = 0, cela signifie que la transformation associée "aplatit" l'espace. Elle n'est pas injective (son noyau n'est pas réduit à {0}\{0\}) et donc pas bijective. Il est impossible de "revenir en arrière", donc la matrice n'est pas inversible.
  • Si det(A)0\det(A) \neq 0, la transformation préserve les volumes (à un facteur près) et est une bijection, donc la matrice est inversible.

De plus, si AA est inversible, on a la formule :

det(A1)=1det(A)\det(A^{-1}) = \frac{1}{\det(A)}

Que sont une valeur propre et un vecteur propre d'un endomorphisme ?

Solution

Soit ff un endomorphisme d'un espace vectoriel EE.

  • Une valeur propre de ff est un scalaire λ\lambda pour lequel il existe un vecteur non nul xEx \in E tel que :

    f(x)=λxf(x) = \lambda x

  • Un tel vecteur xx (non nul) est appelé vecteur propre de ff associé à la valeur propre λ\lambda.

Intuition géométrique :

Un vecteur propre est un vecteur dont la direction est inchangée par la transformation ff. L'application de ff à xx ne fait que l'étirer ou le contracter d'un facteur λ\lambda, et éventuellement inverser son sens si λ<0\lambda < 0. Les vecteurs propres révèlent les "axes privilégiés" d'une transformation linéaire.

Important : Par définition, le vecteur nul n'est jamais un vecteur propre, même si f(0)=λ0f(0) = \lambda \cdot 0 est toujours vrai.

Qu'est-ce que le polynôme caractéristique et comment l'utilise-t-on pour trouver les valeurs propres ?

Solution

Le polynôme caractéristique d'un endomorphisme ff (ou de sa matrice AA) est un polynôme en λ\lambda défini par :

χf(λ)=det(fλId)ouχA(λ)=det(AλI)\chi_f(\lambda) = \det(f - \lambda \text{Id}) \quad \text{ou} \quad \chi_A(\lambda) = \det(A - \lambda I)

Utilisation :

Les racines du polynôme caractéristique sont précisément les valeurs propres de l'endomorphisme ff.

Pour trouver les valeurs propres d'une matrice AA, la méthode est donc :

  1. Former la matrice AλIA - \lambda I.
  2. Calculer son déterminant, ce qui donne un polynôme en λ\lambda.
  3. Trouver les racines de ce polynôme.

Exemple :

Soit A=(4211)A = \begin{pmatrix} 4 & -2 \\ 1 & 1 \end{pmatrix}.

  1. AλI=(4λ211λ)A - \lambda I = \begin{pmatrix} 4-\lambda & -2 \\ 1 & 1-\lambda \end{pmatrix}
  2. χA(λ)=(4λ)(1λ)(2)(1)=λ25λ+4+2=λ25λ+6\chi_A(\lambda) = (4-\lambda)(1-\lambda) - (-2)(1) = \lambda^2 - 5\lambda + 4 + 2 = \lambda^2 - 5\lambda + 6.
  3. On résout λ25λ+6=0\lambda^2 - 5\lambda + 6 = 0. Les racines sont λ1=2\lambda_1 = 2 et λ2=3\lambda_2 = 3. Les valeurs propres de A sont donc 2 et 3.

Quand dit-on qu'un endomorphisme est diagonalisable ?

Solution

Un endomorphisme ff d'un espace vectoriel EE de dimension nn est dit diagonalisable s'il existe une base de EE entièrement constituée de vecteurs propres de ff.

Conséquences :

Dans une telle base B=(v1,,vn)\mathcal{B} = (v_1, \dots, v_n), où chaque viv_i est un vecteur propre associé à une valeur propre λi\lambda_i, la matrice de ff est une matrice diagonale DD :

MatB(f)=D=(λ1000λ2000λn)\text{Mat}_{\mathcal{B}}(f) = D = \begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix}

La diagonalisation simplifie énormément l'étude de l'endomorphisme (calcul de puissances, exponentielle, etc.).

Critère simple : Si un endomorphisme en dimension nn possède nn valeurs propres distinctes, alors il est diagonalisable.

Comment vérifier si une matrice est diagonalisable ?

Solution

Pour qu'une matrice AA de taille n×nn \times n soit diagonalisable sur un corps K\mathbb{K} (par exemple R\mathbb{R}), deux conditions doivent être remplies :

  1. Le polynôme caractéristique χA(λ)\chi_A(\lambda) doit être scindé sur K\mathbb{K}, c'est-à-dire qu'il peut s'écrire comme un produit de facteurs (λλi)( \lambda - \lambda_i) où les λi\lambda_i sont dans K\mathbb{K}. (Cette condition est toujours vraie sur C\mathbb{C}).
  2. Pour chaque valeur propre λ\lambda, sa multiplicité algébrique (le nombre de fois qu'elle est racine du polynôme) doit être égale à sa multiplicité géométrique (la dimension du sous-espace propre Eλ=ker(AλI)E_\lambda = \ker(A - \lambda I)).

En pratique, les étapes sont :

  1. Calculer le polynôme caractéristique χA(λ)\chi_A(\lambda) et trouver ses racines (les valeurs propres λi\lambda_i) ainsi que leurs multiplicités algébriques mim_i.
  2. Pour chaque valeur propre λi\lambda_i, calculer la dimension du sous-espace propre Eλi=ker(AλiI)E_{\lambda_i} = \ker(A - \lambda_i I). C'est la multiplicité géométrique did_i.
  3. Comparer : la matrice est diagonalisable si et seulement si mi=dim_i = d_i pour toutes les valeurs propres λi\lambda_i.

Qu'est-ce qu'un endomorphisme auto-adjoint ?

Solution

Soit EE un espace vectoriel euclidien (sur R\mathbb{R} avec un produit scalaire ,\langle \cdot, \cdot \rangle). Un endomorphisme f:EEf: E \to E est dit auto-adjoint (ou symétrique) si, pour tous les vecteurs x,yEx, y \in E, on a :

f(x),y=x,f(y)\langle f(x), y \rangle = \langle x, f(y) \rangle

Cette relation signifie qu'on peut "déplacer" l'endomorphisme d'un côté à l'autre du produit scalaire.

Représentation matricielle :

Un endomorphisme ff est auto-adjoint si et seulement si sa matrice AA dans une base orthonormée est une matrice symétrique (c'est-à-dire A=tAA = {}^tA).

Exemple :

L'endomorphisme ff de R2\mathbb{R}^2 dont la matrice dans la base canonique est A=(1335)A = \begin{pmatrix} 1 & 3 \\ 3 & 5 \end{pmatrix} est auto-adjoint car AA est symétrique.

Quelles sont les propriétés remarquables des valeurs et vecteurs propres d'un endomorphisme auto-adjoint ?

Solution

Un endomorphisme auto-adjoint ff possède des propriétés très fortes qui simplifient grandement son étude :

  1. Toutes ses valeurs propres sont réelles. Même si on considère la matrice dans C\mathbb{C}, les valeurs propres seront toujours des nombres réels.
  2. Les sous-espaces propres associés à des valeurs propres distinctes sont orthogonaux. Si xx est un vecteur propre pour la valeur propre λ\lambda et yy est un vecteur propre pour μ\mu avec λμ\lambda \neq \mu, alors on a obligatoirement x,y=0\langle x, y \rangle = 0.

Ces deux propriétés sont les piliers de la démonstration du Théorème Spectral. La seconde propriété nous assure que l'on peut construire une base de vecteurs propres qui est non seulement une base, mais une base orthogonale.

Quel est l'énoncé du Théorème Spectral ?

Solution

Le Théorème Spectral est le résultat central de ce chapitre. Il affirme que tout endomorphisme auto-adjoint peut être diagonalisé dans une base très particulière.

Énoncé :

Soit ff un endomorphisme auto-adjoint d'un espace euclidien EE de dimension finie. Alors, il existe une base orthonormée de EE constituée de vecteurs propres de ff.

Version matricielle (pour les matrices symétriques réelles) :

Pour toute matrice symétrique réelle SS, il existe une matrice orthogonale PP (telle que P1=tPP^{-1} = {}^tP) et une matrice diagonale réelle DD telles que :

S=PDP1=PDtPS = P D P^{-1} = P D {}^tP

Les colonnes de PP sont les vecteurs d'une base orthonormée de vecteurs propres de SS, et les éléments diagonaux de DD sont les valeurs propres correspondantes.

Ce théorème garantit que toute matrice symétrique réelle est diagonalisable sur R\mathbb{R}.

Comment diagonaliser une matrice symétrique réelle dans une base orthonormée ?

Solution

Voici les étapes pour appliquer le Théorème Spectral à une matrice symétrique SS :

  1. Trouver les valeurs propres : Calculez le polynôme caractéristique det(SλI)\det(S - \lambda I) et trouvez ses racines λ1,,λn\lambda_1, \dots, \lambda_n. Le Théorème Spectral garantit qu'elles sont toutes réelles.

  2. Trouver une base pour chaque sous-espace propre : Pour chaque valeur propre λi\lambda_i, trouvez une base du sous-espace propre Eλi=ker(SλiI)E_{\lambda_i} = \ker(S - \lambda_i I).

  3. Construire une base orthonormée :

    • Si les valeurs propres sont toutes distinctes, les vecteurs propres associés sont déjà orthogonaux entre eux. Il suffit de normaliser chaque vecteur (diviser par sa norme) pour obtenir une base orthonormée.
    • Si une valeur propre a une multiplicité supérieure à 1, le sous-espace propre correspondant a une dimension supérieure à 1. Il faut utiliser le procédé de Gram-Schmidt sur la base de ce sous-espace pour la rendre orthonormée.
  4. Former les matrices P et D :

    • La matrice DD est la matrice diagonale des valeurs propres.
    • La matrice de passage PP est la matrice dont les colonnes sont les vecteurs de la base orthonormée que vous venez de construire. PP sera une matrice orthogonale.

On a alors S=PDPTS = PDP^T.

Qu'est-ce qu'un endomorphisme (ou une matrice) positif et défini positif ?

Solution

Cette notion ne s'applique qu'aux endomorphismes auto-adjoints (ou matrices symétriques). Soit ff un endomorphisme auto-adjoint.

  • ff est dit positif si pour tout vecteur xx, on a :

    f(x),x0\langle f(x), x \rangle \ge 0

  • ff est dit défini positif si pour tout vecteur non nul x0x \neq 0, on a :

    f(x),x>0\langle f(x), x \rangle > 0

Intuitivement, un endomorphisme défini positif est une transformation qui "pousse" chaque vecteur dans une direction qui forme un angle aigu avec le vecteur d'origine, ne produisant jamais d' "énergie" négative.

Exemple : L'identité est définie positive, car Id(x),x=x,x=x2>0\langle \text{Id}(x), x \rangle = \langle x, x \rangle = \|x\|^2 > 0 si x0x \neq 0.

Comment savoir si une matrice symétrique est positive ou définie positive à partir de ses valeurs propres ?

Solution

La caractérisation la plus simple et la plus utile d'une matrice symétrique positive ou définie positive se fait via ses valeurs propres. Soit SS une matrice symétrique réelle.

  • SS est positive si et seulement si toutes ses valeurs propres λi\lambda_i sont positives ou nulles (λi0\lambda_i \ge 0).
  • SS est définie positive si et seulement si toutes ses valeurs propres λi\lambda_i sont strictement positives (λi>0\lambda_i > 0).

Exemple :

Soit S=(2112)S = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}.

  1. Ses valeurs propres sont λ1=1\lambda_1 = 1 et λ2=3\lambda_2 = 3.
  2. Comme 1>01 > 0 et 3>03 > 0, toutes les valeurs propres sont strictement positives.
  3. On conclut que la matrice SS est définie positive.

Une matrice définie positive est toujours inversible car 0 ne peut pas être une de ses valeurs propres.

Qu'est-ce que la décomposition polaire d'une matrice ?

Solution

La décomposition polaire est une manière de factoriser une matrice inversible en un produit de deux matrices ayant des interprétations géométriques simples. C'est l'analogue pour les matrices de la forme polaire des nombres complexes z=ρeiθz = \rho e^{i\theta}.

Pour toute matrice inversible MGLn(R)M \in GL_n(\mathbb{R}), il existe un couple unique (S,O)(S, O) tel que :

M=SOM = SO

où :

  • SS est une matrice symétrique définie positive. Elle représente une déformation pure (un étirement/compression le long d'axes orthogonaux).
  • OO est une matrice orthogonale. Elle représente une isométrie (une rotation ou une réflexion).

Cette décomposition sépare l'effet de "déformation" d'une transformation (capturé par SS) de son effet de "rotation" (capturé par OO).

Comment calculer la décomposition polaire M=SOM=SO d'une matrice inversible MM ?

Solution

La construction de la décomposition M=SOM=SO est basée sur une astuce.

Étapes :

  1. Calculer MtMM{}^tM. Remarquez que si M=SOM=SO, alors MtM=(SO)(t(SO))=SOtOtSM{}^tM = (SO)({}^t(SO)) = SO{}^tO{}^tS. Comme OO est orthogonale, tO=O1{}^tO = O^{-1}, donc OtO=IO{}^tO = I. Il reste MtM=S2M{}^tM = S^2.

  2. Trouver SS. La matrice MtMM{}^tM est symétrique et définie positive. On la définit comme S2S^2. La matrice SS est alors l'unique racine carrée symétrique définie positive de MtMM{}^tM. Pour la calculer, on diagonalise MtM=PDtPM{}^tM = P D {}^tP, puis on prend S=PDtPS = P \sqrt{D} {}^tP, où D\sqrt{D} est la matrice diagonale avec les racines carrées des valeurs propres de MtMM{}^tM.

  3. Trouver OO. Une fois SS connue et comme elle est inversible, on peut calculer OO directement :

    O=S1MO = S^{-1}M

    On peut vérifier que la matrice OO ainsi obtenue est bien orthogonale.

Exemple simple : Si M=(3003)M = \begin{pmatrix} 3 & 0 \\ 0 & 3 \end{pmatrix}, alors MtM=(9009)M{}^tM = \begin{pmatrix} 9 & 0 \\ 0 & 9 \end{pmatrix}.

S=MtM=(3003)S = \sqrt{M{}^tM} = \begin{pmatrix} 3 & 0 \\ 0 & 3 \end{pmatrix} et O=S1M=IO = S^{-1}M = I.

La décomposition est M=SIM = S \cdot I.