Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Algèbre bilinéaire - preuves (A)

Formule de Polarisation

Prouver que pour toute forme quadratique qq associée à une forme bilinéaire symétrique φ\varphi sur un espace vectoriel VV (où le corps KK est de caractéristique différente de 2), on peut retrouver φ\varphi par la formule :

φ(u,v)=12(q(u+v)q(u)q(v))\varphi(u, v) = \frac{1}{2} (q(u + v) - q(u) - q(v))

Indice

Rappelez-vous la définition d'une forme quadratique : q(x)=φ(x,x)q(x) = \varphi(x, x).

Développez l'expression q(u+v)=φ(u+v,u+v)q(u + v) = \varphi(u + v, u + v) en utilisant la bilinéarité (linéarité par rapport aux deux variables) et la symétrie de φ\varphi.

Solution

Soit φ\varphi une forme bilinéaire symétrique et qq la forme quadratique associée, définie par q(x)=φ(x,x)q(x) = \varphi(x, x).

Étape 1 : Développement de q(u+v)q(u+v)

Calculons q(u+v)q(u + v) en utilisant la définition :

q(u+v)=φ(u+v,u+v)q(u + v) = \varphi(u + v, u + v)

Par la propriété de bilinéarité (distributivité), nous développons l'expression :

φ(u+v,u+v)=φ(u,u)+φ(u,v)+φ(v,u)+φ(v,v)\varphi(u + v, u + v) = \varphi(u, u) + \varphi(u, v) + \varphi(v, u) + \varphi(v, v)

Étape 2 : Utilisation de la symétrie

Comme φ\varphi est symétrique, on a φ(v,u)=φ(u,v)\varphi(v, u) = \varphi(u, v). De plus, par définition, φ(u,u)=q(u)\varphi(u, u) = q(u) et φ(v,v)=q(v)\varphi(v, v) = q(v).

L'expression devient :

q(u+v)=q(u)+2φ(u,v)+q(v)q(u + v) = q(u) + 2\varphi(u, v) + q(v)

Conclusion :

En isolant le terme φ(u,v)\varphi(u, v), on obtient :

2φ(u,v)=q(u+v)q(u)q(v)2\varphi(u, v) = q(u + v) - q(u) - q(v)

φ(u,v)=12(q(u+v)q(u)q(v))\varphi(u, v) = \frac{1}{2} (q(u + v) - q(u) - q(v))

Changement de base pour une forme bilinéaire

Soit φ\varphi une forme bilinéaire sur VV. Soient B\mathfrak{B} et C\mathcal{C} deux bases de VV, et PP la matrice de passage de B\mathfrak{B} à C\mathcal{C}.

Prouver que si AA est la matrice de φ\varphi dans la base B\mathfrak{B} et AA' est la matrice de φ\varphi dans la base C\mathcal{C}, alors :

A=tPAPA' = {}^t P A P

Indice

Utilisez l'expression matricielle de la forme bilinéaire. Si XX et YY sont les vecteurs colonnes des coordonnées dans B\mathfrak{B}, et X,YX', Y' ceux dans C\mathcal{C}, rappelez-vous la relation de changement de base : X=PXX = PX'.

Substituez cette relation dans l'expression φ(u,v)=tXAY\varphi(u, v) = {}^t X A Y.

Solution

Soient u,vu, v deux vecteurs de VV.

Notons X,YX, Y leurs matrices colonnes de coordonnées dans la base B\mathfrak{B}, et X,YX', Y' leurs coordonnées dans la base C\mathcal{C}.

Étape 1 : Expression matricielle et changement de coordonnées

La valeur de la forme bilinéaire peut être calculée dans la base B\mathfrak{B} par :

φ(u,v)=tXAY\varphi(u, v) = {}^t X A Y

La formule de changement de base pour les vecteurs est X=PXX = P X' et Y=PYY = P Y'.

Étape 2 : Substitution

Remplaçons XX et YY dans l'expression de φ\varphi :

φ(u,v)=t(PX)A(PY)\varphi(u, v) = {}^t (P X') A (P Y')

Utilisons la propriété de la transposition t(MN)=tNtM^t(MN) = {}^tN {}^tM :

φ(u,v)=(tXtP)A(PY)=tX(tPAP)Y\varphi(u, v) = ({}^t X' {}^t P) A (P Y') = {}^t X' ({}^t P A P) Y'

Conclusion :

Par définition de la matrice AA' dans la base C\mathcal{C}, on doit avoir φ(u,v)=tXAY\varphi(u, v) = {}^t X' A' Y' pour tous vecteurs u,vu, v (donc pour tous X,YX', Y').

En identifiant les termes, on obtient :

A=tPAPA' = {}^t P A P

Inégalité de Cauchy-Schwarz

Soit EE un espace euclidien muni d'un produit scalaire noté x,y\langle x, y \rangle et de la norme associée x=x,x\|x\| = \sqrt{\langle x, x \rangle}.

Prouver que pour tous x,yEx, y \in E :

x,yxy|\langle x, y \rangle| \le \|x\| \cdot \|y\|

Indice

Considérez la fonction réelle P(t)=x+ty2P(t) = \|x + ty\|^2 pour un réel tt.

Cette fonction est toujours positive ou nulle. Développez-la pour obtenir un polynôme du second degré en tt. Que pouvez-vous dire de son discriminant ?

Solution

Soient x,yEx, y \in E.

Étape 1 : Cas trivial

Si y=0y = 0, alors x,0=0\langle x, 0 \rangle = 0 et x0=0\|x\| \cdot \|0\| = 0. L'égalité 000 \le 0 est vérifiée. Supposons donc y0y \ne 0.

Étape 2 : Étude du polynôme quadratique

Pour tout réel tRt \in \mathbb{R}, considérons le vecteur x+tyx + ty. Par la propriété de positivité du produit scalaire :

x+ty2=x+ty,x+ty0\|x + ty\|^2 = \langle x + ty, x + ty \rangle \ge 0

Développons cette expression grâce à la bilinéarité et la symétrie :

x,x+2tx,y+t2y,y0\langle x, x \rangle + 2t\langle x, y \rangle + t^2\langle y, y \rangle \ge 0

x2+2tx,y+t2y20\|x\|^2 + 2t\langle x, y \rangle + t^2\|y\|^2 \ge 0

Étape 3 : Discriminant

Il s'agit d'un polynôme du second degré en tt de la forme At2+Bt+CAt^2 + Bt + C avec A=y2A = \|y\|^2, B=2x,yB = 2\langle x, y \rangle et C=x2C = \|x\|^2.

Puisque ce polynôme est toujours positif ou nul pour tout tRt \in \mathbb{R}, il ne peut pas avoir deux racines réelles distinctes. Son discriminant Δ\Delta doit donc être négatif ou nul (Δ0\Delta \le 0).

Δ=B24AC=(2x,y)24y2x20\Delta = B^2 - 4AC = (2\langle x, y \rangle)^2 - 4\|y\|^2 \|x\|^2 \le 0

4x,y24x2y204\langle x, y \rangle^2 - 4\|x\|^2 \|y\|^2 \le 0

Conclusion :

En divisant par 4 et en réarrangeant :

x,y2x2y2\langle x, y \rangle^2 \le \|x\|^2 \|y\|^2

En prenant la racine carrée (croissante sur R+\mathbb{R}^+) :

x,yxy|\langle x, y \rangle| \le \|x\| \cdot \|y\|

Coordonnées dans une base orthonormée

Soit (e1,,en)(e_1, \dots, e_n) une base orthonormée d'un espace euclidien EE.

Prouver que pour tout vecteur xEx \in E, ses coordonnées sont données par les produits scalaires avec les vecteurs de la base, c'est-à-dire :

x=i=1nx,eieix = \sum_{i=1}^n \langle x, e_i \rangle e_i

Indice

Écrivez xx comme une combinaison linéaire quelconque x=j=1nλjejx = \sum_{j=1}^n \lambda_j e_j.

Calculez le produit scalaire x,ei\langle x, e_i \rangle en utilisant cette expression et la propriété d'orthonormalité ej,ei=δji\langle e_j, e_i \rangle = \delta_{ji}.

Solution

Soit xEx \in E. Puisque (e1,,en)(e_1, \dots, e_n) est une base, il existe des scalaires uniques λ1,,λn\lambda_1, \dots, \lambda_n tels que :

x=j=1nλjejx = \sum_{j=1}^n \lambda_j e_j

Étape 1 : Calcul du produit scalaire

Fixons un indice i{1,,n}i \in \{1, \dots, n\} et calculons le produit scalaire x,ei\langle x, e_i \rangle :

x,ei=j=1nλjej,ei\langle x, e_i \rangle = \left\langle \sum_{j=1}^n \lambda_j e_j, e_i \right\rangle

Étape 2 : Utilisation de la linéarité

Par linéarité à gauche du produit scalaire :

x,ei=j=1nλjej,ei\langle x, e_i \rangle = \sum_{j=1}^n \lambda_j \langle e_j, e_i \rangle

Étape 3 : Utilisation de l'orthonormalité

La famille est orthonormée, donc ej,ei=δji\langle e_j, e_i \rangle = \delta_{ji} (vaut 1 si j=ij=i, 0 sinon).

Dans la somme, tous les termes sont nuls sauf celui où j=ij=i :

x,ei=λiei,ei=λi1=λi\langle x, e_i \rangle = \lambda_i \langle e_i, e_i \rangle = \lambda_i \cdot 1 = \lambda_i

Conclusion :

Nous avons montré que le coefficient λi\lambda_i est exactement x,ei\langle x, e_i \rangle. Ainsi :

x=i=1nx,eieix = \sum_{i=1}^n \langle x, e_i \rangle e_i

Orthogonalité des sous-espaces propres (Matrices symétriques)

Soit AA une matrice symétrique réelle (tA=A{}^tA = A) représentant un endomorphisme uu dans une base orthonormée.

Prouver que si v1v_1 et v2v_2 sont deux vecteurs propres de AA associés à des valeurs propres distinctes λ1\lambda_1 et λ2\lambda_2, alors v1v_1 et v2v_2 sont orthogonaux.

Indice

Considérez le produit scalaire Av1,v2\langle Av_1, v_2 \rangle (qui matriciellement est t(Av1)v2{}^t(Av_1)v_2).

Calculez ce produit de deux façons :

  1. En utilisant Av1=λ1v1Av_1 = \lambda_1 v_1.
  2. En utilisant la propriété de symétrie Av1,v2=v1,Av2\langle Av_1, v_2 \rangle = \langle v_1, Av_2 \rangle et Av2=λ2v2Av_2 = \lambda_2 v_2.

Comparez les résultats.

Solution

Soient v1,v2v_1, v_2 tels que Av1=λ1v1Av_1 = \lambda_1 v_1 et Av2=λ2v2Av_2 = \lambda_2 v_2 avec λ1λ2\lambda_1 \ne \lambda_2.

Dans Rn\mathbb{R}^n, le produit scalaire canonique est x,y=txy\langle x, y \rangle = {}^tx y.

Étape 1 : Calcul du produit scalaire Av1,v2\langle Av_1, v_2 \rangle

En remplaçant Av1Av_1 :

Av1,v2=λ1v1,v2=λ1v1,v2\langle Av_1, v_2 \rangle = \langle \lambda_1 v_1, v_2 \rangle = \lambda_1 \langle v_1, v_2 \rangle

Étape 2 : Utilisation de la symétrie de la matrice

Pour une matrice symétrique réelle AA, on a l'identité Ax,y=x,Ay\langle Ax, y \rangle = \langle x, Ay \rangle pour tout x,yx, y.

En effet : t(Ax)y=txtAy=txAy=x,Ay{}^t(Ax)y = {}^tx {}^tA y = {}^tx A y = \langle x, Ay \rangle.

Donc :

Av1,v2=v1,Av2\langle Av_1, v_2 \rangle = \langle v_1, Av_2 \rangle

En remplaçant Av2Av_2 :

v1,Av2=v1,λ2v2=λ2v1,v2\langle v_1, Av_2 \rangle = \langle v_1, \lambda_2 v_2 \rangle = \lambda_2 \langle v_1, v_2 \rangle

Étape 3 : Comparaison

Nous avons obtenu :

λ1v1,v2=λ2v1,v2\lambda_1 \langle v_1, v_2 \rangle = \lambda_2 \langle v_1, v_2 \rangle

Ce qui équivaut à :

(λ1λ2)v1,v2=0(\lambda_1 - \lambda_2) \langle v_1, v_2 \rangle = 0

Conclusion :

Puisque λ1λ2\lambda_1 \ne \lambda_2, le terme (λ1λ2)(\lambda_1 - \lambda_2) n'est pas nul. On peut diviser par ce terme, ce qui impose :

v1,v2=0\langle v_1, v_2 \rangle = 0

Les vecteurs propres sont donc orthogonaux.

Minimisation de la distance (Projection Orthogonale)

Soit FF un sous-espace vectoriel d'un espace euclidien EE. Soit xEx \in E et πF(x)\pi_F(x) sa projection orthogonale sur FF.

Prouver que πF(x)\pi_F(x) est la meilleure approximation de xx dans FF, c'est-à-dire :

yF,xπF(x)xy\forall y \in F, \quad \|x - \pi_F(x)\| \le \|x - y\|

et que l'égalité n'a lieu que si y=πF(x)y = \pi_F(x).

Indice

Écrivez le vecteur différence xyx - y comme (xπF(x))+(πF(x)y)(x - \pi_F(x)) + (\pi_F(x) - y).

Remarquez que le premier terme est dans FF^\perp et le second est dans FF.

Appliquez le théorème de Pythagore.

Solution

Soit yy un vecteur quelconque de FF.

Étape 1 : Décomposition du vecteur

Introduisons πF(x)\pi_F(x) dans la norme que nous voulons minimiser :

xy=(xπF(x))+(πF(x)y)x - y = (x - \pi_F(x)) + (\pi_F(x) - y)

Posons u=xπF(x)u = x - \pi_F(x) et v=πF(x)yv = \pi_F(x) - y.

Étape 2 : Vérification de l'orthogonalité

  • Le vecteur u=xπF(x)u = x - \pi_F(x) appartient à FF^\perp par définition de la projection orthogonale.
  • Le vecteur v=πF(x)yv = \pi_F(x) - y appartient à FF car πF(x)F\pi_F(x) \in F et yFy \in F, et FF est un sous-espace vectoriel.

Donc uu et vv sont orthogonaux : u,v=0\langle u, v \rangle = 0.

Étape 3 : Théorème de Pythagore

Puisque uvu \perp v, on a :

xy2=u+v2=u2+v2\|x - y\|^2 = \|u + v\|^2 = \|u\|^2 + \|v\|^2

xy2=xπF(x)2+πF(x)y2\|x - y\|^2 = \|x - \pi_F(x)\|^2 + \|\pi_F(x) - y\|^2

Conclusion :

Comme πF(x)y20\|\pi_F(x) - y\|^2 \ge 0, on obtient directement :

xy2xπF(x)2\|x - y\|^2 \ge \|x - \pi_F(x)\|^2

Donc xyxπF(x)\|x - y\| \ge \|x - \pi_F(x)\|.

L'égalité a lieu si et seulement si le terme positif ajouté est nul, c'est-à-dire πF(x)y2=0\|\pi_F(x) - y\|^2 = 0, soit y=πF(x)y = \pi_F(x).

Caractérisation des isométries et produit scalaire

Soit uu un endomorphisme d'un espace euclidien EE.

Prouver que uu conserve la norme (x,u(x)=x\forall x, \|u(x)\| = \|x\|) si et seulement si uu conserve le produit scalaire (x,y,u(x),u(y)=x,y\forall x, y, \langle u(x), u(y) \rangle = \langle x, y \rangle).

Indice
  • Pour le sens "conserve le produit scalaire     \implies conserve la norme", c'est immédiat par définition de la norme.
  • Pour le sens inverse, utilisez l'identité de polarisation qui exprime le produit scalaire en fonction de la norme : x,y=12(x+y2x2y2)\langle x, y \rangle = \frac{1}{2}(\|x+y\|^2 - \|x\|^2 - \|y\|^2).
Solution

Sens direct (\Longleftarrow) :

Supposons que uu conserve le produit scalaire : x,yE,u(x),u(y)=x,y\forall x, y \in E, \langle u(x), u(y) \rangle = \langle x, y \rangle.

En prenant y=xy = x, on obtient :

u(x),u(x)=x,x    u(x)2=x2\langle u(x), u(x) \rangle = \langle x, x \rangle \implies \|u(x)\|^2 = \|x\|^2

Comme la norme est positive, u(x)=x\|u(x)\| = \|x\|.

Sens réciproque (\Longrightarrow) :

Supposons que uu conserve la norme : vE,u(v)=v\forall v \in E, \|u(v)\| = \|v\|.

Utilisons l'identité de polarisation pour le produit scalaire réel :

x,y=12(x+y2x2y2)\langle x, y \rangle = \frac{1}{2} \left( \|x+y\|^2 - \|x\|^2 - \|y\|^2 \right)

Calculons u(x),u(y)\langle u(x), u(y) \rangle :

u(x),u(y)=12(u(x)+u(y)2u(x)2u(y)2)\langle u(x), u(y) \rangle = \frac{1}{2} \left( \|u(x)+u(y)\|^2 - \|u(x)\|^2 - \|u(y)\|^2 \right)

Par linéarité de uu, u(x)+u(y)=u(x+y)u(x)+u(y) = u(x+y), donc :

u(x),u(y)=12(u(x+y)2u(x)2u(y)2)\langle u(x), u(y) \rangle = \frac{1}{2} \left( \|u(x+y)\|^2 - \|u(x)\|^2 - \|u(y)\|^2 \right)

Par l'hypothèse de conservation de la norme, u(v)=v\|u(v)\| = \|v\| pour tout vv, donc :

u(x),u(y)=12(x+y2x2y2)\langle u(x), u(y) \rangle = \frac{1}{2} \left( \|x+y\|^2 - \|x\|^2 - \|y\|^2 \right)

Le membre de droite est exactement la définition de x,y\langle x, y \rangle.

Donc u(x),u(y)=x,y\langle u(x), u(y) \rangle = \langle x, y \rangle.

Caractérisation des matrices orthogonales

Prouver qu'une matrice carrée réelle MM est orthogonale (c'est-à-dire que ses colonnes forment une base orthonormée pour le produit scalaire canonique) si et seulement si :

tMM=In{}^t M M = I_n

Indice

Notez C1,,CnC_1, \dots, C_n les colonnes de MM.

Exprimez l'élément (i,j)(i, j) de la matrice produit tMM{}^t M M en fonction des colonnes de MM. Rappelez-vous que le produit scalaire canonique de deux vecteurs colonnes UU et VV est tUV{}^t U V.

Solution

Soit MMn(R)M \in M_n(\mathbb{R}). Notons C1,,CnC_1, \dots, C_n les vecteurs colonnes de MM.

Calculons le produit P=tMMP = {}^t M M.

Étape 1 : Expression des coefficients du produit

L'élément à la ligne ii et colonne jj de la matrice PP, noté PijP_{ij}, est le produit de la ligne ii de tM{}^t M par la colonne jj de MM.

La ligne ii de tM{}^t M est la transposée de la colonne ii de MM, soit tCi{}^t C_i.

Donc :

Pij=tCiCjP_{ij} = {}^t C_i C_j

Or, pour le produit scalaire canonique sur Rn\mathbb{R}^n, on a Ci,Cj=tCiCj\langle C_i, C_j \rangle = {}^t C_i C_j.

Ainsi, Pij=Ci,CjP_{ij} = \langle C_i, C_j \rangle.

Étape 2 : Condition d'orthonormalité

La famille des colonnes (C1,,Cn)(C_1, \dots, C_n) est une base orthonormée si et seulement si :

Ci,Cj=δij={1si i=j0si ij\langle C_i, C_j \rangle = \delta_{ij} = \begin{cases} 1 & \text{si } i=j \\ 0 & \text{si } i \ne j \end{cases}

Conclusion :

Cette condition est équivalente à dire que Pij=δijP_{ij} = \delta_{ij} pour tout i,ji, j, ce qui signifie exactement que la matrice PP est la matrice identité InI_n.

D'où l'équivalence :

(C1,,Cn) est orthonormeˊe    tMM=In(C_1, \dots, C_n) \text{ est orthonormée} \iff {}^t M M = I_n

Dimension de l'orthogonal

Soit FF un sous-espace vectoriel d'un espace euclidien EE de dimension finie nn.

Prouver que :

dim(F)=ndim(F)\dim(F^\perp) = n - \dim(F)

Indice

Considérez une base orthonormée (e1,,ep)(e_1, \dots, e_p) de FF (que l'on peut obtenir par Gram-Schmidt).

Complétez cette base en une base orthonormée (e1,,en)(e_1, \dots, e_n) de EE entier.

Montrez que (ep+1,,en)(e_{p+1}, \dots, e_n) est une base de FF^\perp.

Solution

Soit p=dim(F)p = \dim(F).

Étape 1 : Base adaptée

Il existe une base orthonormée de FF, notons-la (e1,,ep)(e_1, \dots, e_p).

D'après le théorème de la base incomplète (version orthonormée), on peut compléter cette famille en une base orthonormée B=(e1,,ep,ep+1,,en)\mathfrak{B} = (e_1, \dots, e_p, e_{p+1}, \dots, e_n) de l'espace entier EE.

Étape 2 : Identification de FF^\perp

Montrons que G=Vect(ep+1,,en)G = \text{Vect}(e_{p+1}, \dots, e_n) est égal à FF^\perp.

  • Inclusion GFG \subset F^\perp :

    Soit vGv \in G. vv est combinaison linéaire de ep+1,,ene_{p+1}, \dots, e_n.

    Pour tout uFu \in F, uu est combinaison linéaire de e1,,epe_1, \dots, e_p.

    Comme la base B\mathfrak{B} est orthonormée, tout vecteur de {ep+1,,en}\{e_{p+1}, \dots, e_n\} est orthogonal à tout vecteur de {e1,,ep}\{e_1, \dots, e_p\}. Par bilinéarité, vuv \perp u. Donc vFv \in F^\perp.

  • Dimension :

    La famille (ep+1,,en)(e_{p+1}, \dots, e_n) est libre (sous-famille d'une base) et engendre GG. Donc dim(G)=np\dim(G) = n - p.

Étape 3 : Argument de somme directe

On sait que FF={0}F \cap F^\perp = \{0\} (si un vecteur est dans FF et orthogonal à FF, il est orthogonal à lui-même, donc nul par définition du produit scalaire défini positif).

Donc dim(FF)=dim(F)+dim(F)n\dim(F \oplus F^\perp) = \dim(F) + \dim(F^\perp) \le n.

Comme GFG \subset F^\perp, on a dim(F)np\dim(F^\perp) \ge n - p.

En réalité, dans un espace euclidien, E=FFE = F \oplus F^\perp.

Tout xx s'écrit x=i=1nx,eiei=i=1px,eieiF+i=p+1nx,eieiGx = \sum_{i=1}^n \langle x, e_i \rangle e_i = \underbrace{\sum_{i=1}^p \langle x, e_i \rangle e_i}_{\in F} + \underbrace{\sum_{i=p+1}^n \langle x, e_i \rangle e_i}_{\in G}.

Comme xx quelconque se décompose, FF^\perp est exactement GG.

Conclusion :

dim(F)=dim(G)=np=ndim(F)\dim(F^\perp) = \dim(G) = n - p = n - \dim(F)

Base Duale

Soit VV un espace vectoriel de dimension nn et B=(e1,,en)\mathfrak{B} = (e_1, \dots, e_n) une base de VV.

Prouver qu'il existe une unique famille de formes linéaires (φ1,,φn)(\varphi_1, \dots, \varphi_n) telle que φi(ej)=δi,j\varphi_i(e_j) = \delta_{i,j}, et que cette famille forme une base de VV^* (l'espace dual).

Indice

Pour l'existence et l'unicité, rappelez-vous qu'une application linéaire est entièrement déterminée par ses valeurs sur une base.

Pour montrer que c'est une base, prouvez que la famille est libre, puis utilisez un argument de dimension (dimV=dimV=n\dim V^* = \dim V = n).

Solution

Étape 1 : Existence et Unicité des φi\varphi_i

Une forme linéaire est une application linéaire de VV dans KK. Une application linéaire est définie de manière unique par les images des vecteurs d'une base.

Pour chaque ii fixé, définissons φi\varphi_i par ses valeurs sur la base B\mathfrak{B} :

φi(ej)=δi,j={1si i=j0si ij\varphi_i(e_j) = \delta_{i,j} = \begin{cases} 1 & \text{si } i=j \\ 0 & \text{si } i \ne j \end{cases}

Cette définition assure l'existence et l'unicité de chaque φi\varphi_i.

Étape 2 : Liberté de la famille

Soit λ1,,λn\lambda_1, \dots, \lambda_n des scalaires tels que la combinaison linéaire soit nulle :

i=1nλiφi=0V\sum_{i=1}^n \lambda_i \varphi_i = 0_{V^*}

Cela signifie que pour tout vecteur vVv \in V, λiφi(v)=0\sum \lambda_i \varphi_i(v) = 0.

Appliquons cette égalité au vecteur de base eke_k :

i=1nλiφi(ek)=0\sum_{i=1}^n \lambda_i \varphi_i(e_k) = 0

Par définition, φi(ek)=δi,k\varphi_i(e_k) = \delta_{i,k}. Seul le terme i=ki=k survit :

λk1=0    λk=0\lambda_k \cdot 1 = 0 \implies \lambda_k = 0

Ceci étant vrai pour tout k{1,,n}k \in \{1, \dots, n\}, la famille est libre.

Étape 3 : Conclusion (Base)

La famille (φ1,,φn)(\varphi_1, \dots, \varphi_n) est une famille libre de nn vecteurs dans VV^*.

Comme dim(V)=dim(V)=n\dim(V^*) = \dim(V) = n, toute famille libre de nn éléments est une base.

Cette base est appelée la base duale de B\mathfrak{B}.

Matrice définie positive     \implies Inversible

Prouver qu'une matrice définie positive est inversible.

Indice

AA est définie positive si pour tout vecteur x0x \neq 0, le produit scalaire Ax,x>0\langle Ax, x \rangle > 0.

Pour montrer que AA est inversible, il suffit de montrer que son noyau est réduit à {0}\{0\}.

Prenez un vecteur xKer(A)x \in \text{Ker}(A) et calculez Ax,x\langle Ax, x \rangle.

Solution

Nous allons prouver que si une matrice symétrique AA est définie positive, alors son noyau est réduit au vecteur nul.

Preuve par le Noyau (Algébrique)

Rappelons la définition : AA est définie positive si pour tout vecteur x0x \neq 0, le produit scalaire Ax,x>0\langle Ax, x \rangle > 0.

Supposons que xx soit un vecteur du noyau de AA, c'est-à-dire Ax=0Ax = 0.

Calculons la quantité Ax,x\langle Ax, x \rangle. Puisque Ax=0Ax = 0, alors 0,x=0\langle 0, x \rangle = 0.

Or, l'hypothèse "AA est définie positive" impose que si x0x \neq 0, alors Ax,x\langle Ax, x \rangle doit être strictement supérieur à 0.

Le seul moyen d'avoir Ax,x=0\langle Ax, x \rangle = 0 sans contredire la définition est que xx soit le vecteur nul.

Conclusion : Ker(A)={0}\text{Ker}(A) = \{0\}, donc AA est inversible.

(Autre approche possible : via le théorème spectral, toutes les valeurs propres sont strictement positives, donc leur produit - le déterminant - est non nul).

Théorème Spectral (Matrices symétriques réelles)

Prouver que tout endomorphisme symétrique (ou matrice symétrique réelle) est diagonalisable dans une base orthonormée.

Indice

Procédez par récurrence sur la dimension de l'espace nn.

Utilisez deux résultats intermédiaires (à admettre ou à prouver rapidement) :

  1. Les valeurs propres d'une matrice symétrique réelle sont réelles.
  2. Si un sous-espace est stable par un endomorphisme symétrique, alors son orthogonal l'est aussi.
Solution

Nous allons prouver la propriété P(n)P(n) : "Toute matrice symétrique de taille nn est diagonalisable dans une base orthonormée" par récurrence sur nn.

Préliminaires

  • Lemme 1 : Les valeurs propres d'une matrice symétrique réelle sont réelles. Preuve : Soit AX=λXAX = \lambda X. On a tXˉAX=λX2{}^t\bar{X} A X = \lambda \|X\|^2. Par symétrie et réalité de AA, tXˉAX=t(AXˉ)X=λˉX2{}^t\bar{X} A X = {}^t(A\bar{X}) X = \bar{\lambda} \|X\|^2. Donc λ=λˉ\lambda = \bar{\lambda}.
  • Lemme 2 : Si un sous-espace FF est stable par AA, alors FF^\perp l'est aussi. Preuve : Soit yFy \in F^\perp. Pour tout xFx \in F, Ay,x=y,Ax=0\langle Ay, x \rangle = \langle y, Ax \rangle = 0 car AxFAx \in F. Donc AyFAy \in F^\perp.

Initialisation (n=1n=1)

Une matrice 1×11 \times 1 est déjà diagonale. La propriété est vraie.

Hérédité

Supposons que P(n1)P(n-1) soit vraie. Soit AA une matrice symétrique de taille nn.

  1. Trouver un premier vecteur : D'après le Lemme 1, le polynôme caractéristique de AA a des racines réelles. Il existe au moins une valeur propre réelle λ1\lambda_1 et un vecteur propre associé e1e_1 que l'on normalise (e1=1\|e_1\|=1).
  2. Créer les espaces : Soit D=Vect(e1)D = \text{Vect}(e_1). DD est stable par AA.
  3. Utiliser l'orthogonal : D'après le Lemme 2, l'hyperplan H=DH = D^\perp (de dimension n1n-1) est aussi stable par AA.
  4. Restriction : On considère la restriction AHA_H de AA à HH. C'est un endomorphisme symétrique de HH.
  5. Hypothèse de récurrence : On applique P(n1)P(n-1) à AHA_H. Il existe une base orthonormée (e2,,en)(e_2, \dots, e_n) de HH constituée de vecteurs propres de AA.

Conclusion

La famille B=(e1,e2,,en)\mathcal{B} = (e_1, e_2, \dots, e_n) est constituée de vecteurs propres. Elle est orthonormée car e1He_1 \perp H et (e2,,en)(e_2, \dots, e_n) est orthonormée. AA est donc diagonalisable dans une base orthonormée.

Racine carrée d'une matrice symétrique définie positive

Prouver qu'il existe une unique matrice symétrique définie positive RR telle que R2=AR^2 = A, pour toute matrice symétrique définie positive AA.

Indice

Pour l'existence, diagonalisez AA grâce au théorème spectral (A=PDP1A = P D P^{-1}) et construisez RR en prenant la racine carrée des éléments diagonaux.

Pour l'unicité, montrez que si RR est une racine carrée symétrique définie positive, elle commute avec AA et donc stabilise les sous-espaces propres de AA, sur lesquels elle agit comme une homothétie positive.

Solution

Soit AA une matrice symétrique réelle définie positive.

Partie 1 : Existence

D'après le théorème spectral, il existe une matrice orthogonale PP et une matrice diagonale D=diag(λ1,,λn)D = \text{diag}(\lambda_1, \dots, \lambda_n) telles que A=PDP1A = P D P^{-1}. Comme AA est définie positive, toutes ses valeurs propres λi\lambda_i sont strictement positives.

Posons μi=λi\mu_i = \sqrt{\lambda_i} pour tout ii. Soit Δ=diag(μ1,,μn)\Delta = \text{diag}(\mu_1, \dots, \mu_n). Définissons la matrice R=PΔP1R = P \Delta P^{-1}.

  • R2=AR^2 = A : R2=(PΔP1)(PΔP1)=PΔ2P1=PDP1=AR^2 = (P \Delta P^{-1})(P \Delta P^{-1}) = P \Delta^2 P^{-1} = P D P^{-1} = A.
  • RR est symétrique : tR=t(PΔtP)=PtΔtP=PΔtP=R{}^t R = {}^t (P \Delta {}^t P) = P {}^t \Delta {}^t P = P \Delta {}^t P = R.
  • RR est définie positive : Les valeurs propres de RR sont les μi>0\mu_i > 0.

La matrice RR convient.

Partie 2 : Unicité

Soit MM une matrice symétrique définie positive telle que M2=AM^2 = A. Comme MM commute avec M2M^2, MM commute avec AA (MA=M3=AMMA = M^3 = AM). Donc MM laisse stable les sous-espaces propres de AA.

Soit Eλ(A)E_\lambda(A) un sous-espace propre de AA associé à la valeur propre λ\lambda. La restriction de MM à Eλ(A)E_\lambda(A) est un endomorphisme symétrique MλM_\lambda tel que (Mλ)2=λIdEλ(M_\lambda)^2 = \lambda \text{Id}_{E_\lambda}. Puisque MM est définie positive, ses valeurs propres sont positives. Or les valeurs propres de MλM_\lambda doivent vérifier x2=λx^2 = \lambda, donc x=λx = \sqrt{\lambda} (car x>0x>0). L'unique endomorphisme diagonalisable à valeurs propres positives vérifiant ceci est l'homothétie de rapport λ\sqrt{\lambda}.

Ainsi, sur chaque sous-espace propre de AA, MM est uniquement déterminé (c'est l'homothétie de rapport λ\sqrt{\lambda}). Comme EE est la somme directe orthogonale de ces sous-espaces, MM est unique sur tout EE.

Conclusion : Il existe une unique racine carrée symétrique définie positive, notée A\sqrt{A}.