Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Rappels d’algèbre linéaire - preuves (A)

Intersection de sous-espaces vectoriels

Prouvez que l'intersection de deux sous-espaces vectoriels W1W_1 et W2W_2 d'un KK-espace vectoriel VV est un sous-espace vectoriel de VV.

Indice

Pour montrer qu'un ensemble WW est un sous-espace vectoriel, vous devez vérifier deux choses principales :

  1. L'ensemble est non vide (il contient au moins le vecteur nul).
  2. L'ensemble est stable par combinaison linéaire (si u,vWu, v \in W et λK\lambda \in K, alors λu+vW\lambda u + v \in W).

Appliquez ces critères à l'ensemble W1W2W_1 \cap W_2.

Solution

Soit W=W1W2W = W_1 \cap W_2. Nous devons montrer que WW est un sous-espace vectoriel de VV.

Étape 1 : Le vecteur nul appartient à l'intersection

Puisque W1W_1 et W2W_2 sont des sous-espaces vectoriels, ils contiennent tous deux le vecteur nul 0V0_V.

Par conséquent, 0VW10_V \in W_1 et 0VW20_V \in W_2, ce qui implique 0VW1W20_V \in W_1 \cap W_2. L'intersection n'est donc pas vide.

Étape 2 : Stabilité par combinaison linéaire

Soient u,vWu, v \in W et λK\lambda \in K.

Puisque u,vW1W2u, v \in W_1 \cap W_2, alors uW1u \in W_1 et vW1v \in W_1. Comme W1W_1 est un sous-espace vectoriel, il est stable par combinaison linéaire, donc λu+vW1\lambda u + v \in W_1.

De même, uW2u \in W_2 et vW2v \in W_2. Comme W2W_2 est un sous-espace vectoriel, on a λu+vW2\lambda u + v \in W_2.

Puisque λu+v\lambda u + v appartient à la fois à W1W_1 et à W2W_2, il appartient à leur intersection.

λu+vW1W2\lambda u + v \in W_1 \cap W_2

Conclusion :

W1W2W_1 \cap W_2 contient 0V0_V et est stable par combinaison linéaire. C'est donc un sous-espace vectoriel de VV.

Unicité des coordonnées dans une base

Soit VV un espace vectoriel et B={e1,,en}\mathfrak{B} = \{e_1, \dots, e_n\} une base de VV. Prouvez que tout vecteur vVv \in V s'écrit de manière unique comme combinaison linéaire des vecteurs de la base.

Indice

L'existence de la décomposition vient du fait que la famille est génératrice.

Pour l'unicité, supposez qu'il existe deux écritures différentes pour un même vecteur vv. Soustrayez les deux égalités et utilisez le fait que la famille B\mathfrak{B} est libre (indépendante).

Solution

Étape 1 : Existence

Par définition d'une base, la famille B\mathfrak{B} est génératrice. Donc pour tout vVv \in V, il existe des scalaires λ1,,λn\lambda_1, \dots, \lambda_n tels que :

v=i=1nλieiv = \sum_{i=1}^n \lambda_i e_i

Étape 2 : Unicité

Supposons que vv admette deux décompositions :

v=i=1nλieietv=i=1nμieiv = \sum_{i=1}^n \lambda_i e_i \quad \text{et} \quad v = \sum_{i=1}^n \mu_i e_i

En soustrayant la deuxième égalité à la première, on obtient :

0V=vv=(i=1nλiei)(i=1nμiei)=i=1n(λiμi)ei0_V = v - v = \left(\sum_{i=1}^n \lambda_i e_i\right) - \left(\sum_{i=1}^n \mu_i e_i\right) = \sum_{i=1}^n (\lambda_i - \mu_i) e_i

Étape 3 : Utilisation de la liberté

Puisque B\mathfrak{B} est une base, c'est une famille libre. Par définition d'une famille libre, la seule combinaison linéaire nulle est celle dont tous les coefficients sont nuls.

Ainsi, pour tout i{1,,n}i \in \{1, \dots, n\} :

λiμi=0    λi=μi\lambda_i - \mu_i = 0 \implies \lambda_i = \mu_i

Conclusion :

Les coefficients sont identiques, la décomposition est donc unique.

Le noyau est un sous-espace vectoriel

Soit f:VWf : V \to W une application linéaire. Prouvez que le noyau de ff, noté Ker(f)\text{Ker}(f), est un sous-espace vectoriel de VV.

Indice

Rappelez-vous la définition du noyau : Ker(f)={vVf(v)=0W}\text{Ker}(f) = \{v \in V \mid f(v) = 0_W\}.

Utilisez la linéarité de ff (notamment f(λu+v)=λf(u)+f(v)f(\lambda u + v) = \lambda f(u) + f(v)) pour vérifier les propriétés de stabilité d'un sous-espace vectoriel.

Solution

Nous devons montrer que Ker(f)\text{Ker}(f) contient 0V0_V et est stable par combinaison linéaire.

Étape 1 : Le vecteur nul

Comme ff est linéaire, on sait que l'image du vecteur nul est le vecteur nul : f(0V)=0Wf(0_V) = 0_W.

Donc 0VKer(f)0_V \in \text{Ker}(f).

Étape 2 : Stabilité

Soient u,vKer(f)u, v \in \text{Ker}(f) et λK\lambda \in K.

Par définition du noyau, cela signifie que f(u)=0Wf(u) = 0_W et f(v)=0Wf(v) = 0_W.

Calculons l'image de la combinaison linéaire λu+v\lambda u + v par ff :

f(λu+v)=λf(u)+f(v)(car f est lineˊaire)f(\lambda u + v) = \lambda f(u) + f(v) \quad (\text{car } f \text{ est linéaire})

En remplaçant f(u)f(u) et f(v)f(v) par 0W0_W :

f(λu+v)=λ0W+0W=0Wf(\lambda u + v) = \lambda \cdot 0_W + 0_W = 0_W

Conclusion :

Puisque f(λu+v)=0Wf(\lambda u + v) = 0_W, le vecteur λu+v\lambda u + v appartient à Ker(f)\text{Ker}(f). Ker(f)\text{Ker}(f) est bien un sous-espace vectoriel de VV.

Injectivité et Noyau

Soit f:VWf : V \to W une application linéaire. Prouvez que ff est injective si et seulement si Ker(f)={0V}\text{Ker}(f) = \{0_V\}.

Indice

Cette preuve est une double implication (    \iff).

  1. (\Rightarrow) Si ff est injective, montrez que le seul vecteur qui s'envoie sur 0W0_W est 0V0_V.
  2. (\Leftarrow) Si le noyau est trivial, supposez f(x)=f(y)f(x) = f(y) et utilisez la linéarité pour montrer que f(xy)=0f(x-y) = 0, puis concluez que x=yx=y.
Solution

Sens direct (\Rightarrow) : Supposons ff injective.

Soit xKer(f)x \in \text{Ker}(f). Par définition, f(x)=0Wf(x) = 0_W.

Or, nous savons que pour toute application linéaire, f(0V)=0Wf(0_V) = 0_W.

On a donc f(x)=f(0V)f(x) = f(0_V).

Puisque ff est injective, f(x)=f(0V)f(x) = f(0_V) implique x=0Vx = 0_V.

Donc Ker(f)={0V}\text{Ker}(f) = \{0_V\}.

Sens réciproque (\Leftarrow) : Supposons Ker(f)={0V}\text{Ker}(f) = \{0_V\}.

Soient x,yVx, y \in V tels que f(x)=f(y)f(x) = f(y).

Par linéarité, cela implique :

f(x)f(y)=0W    f(xy)=0Wf(x) - f(y) = 0_W \implies f(x - y) = 0_W

Cela signifie que le vecteur xyx - y appartient au noyau de ff.

Or, par hypothèse, Ker(f)={0V}\text{Ker}(f) = \{0_V\}, donc :

xy=0V    x=yx - y = 0_V \implies x = y

Nous avons montré que f(x)=f(y)    x=yf(x) = f(y) \implies x = y, donc ff est injective.

Conclusion :

ff est injective     Ker(f)={0V}\iff \text{Ker}(f) = \{0_V\}.

Changement de coordonnées

Soit VV un espace vectoriel muni d'une base B={e1,,en}\mathfrak{B} = \{e_1, \dots, e_n\}. Soit C={v1,,vn}\mathcal{C} = \{v_1, \dots, v_n\} une autre base de VV. Soit PP la matrice de passage de B\mathfrak{B} à C\mathcal{C} (ses colonnes sont les composantes des vjv_j dans B\mathfrak{B}).

Prouvez que si XX est la matrice colonne des coordonnées d'un vecteur uu dans B\mathfrak{B}, et XX' celles dans C\mathcal{C}, alors X=PXX = P X'.

Indice

Écrivez le vecteur uu comme combinaison linéaire des éléments de la base C\mathcal{C} en utilisant les coordonnées XX'.

Ensuite, remplacez chaque vecteur de base vjv_j de C\mathcal{C} par son expression en fonction de la base B\mathfrak{B} (qui utilise les coefficients de la matrice PP).

Identifiez le résultat avec l'expression de uu dans la base B\mathfrak{B}.

Solution

Soit uVu \in V.

Notons X=(x1xn)X = \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} les coordonnées dans B\mathfrak{B}, donc u=i=1nxieiu = \sum_{i=1}^n x_i e_i.

Notons X=(x1xn)X' = \begin{pmatrix} x'_1 \\ \vdots \\ x'_n \end{pmatrix} les coordonnées dans C\mathcal{C}, donc u=j=1nxjvju = \sum_{j=1}^n x'_j v_j.

Étape 1 : Expression des vecteurs de la nouvelle base

La matrice de passage P=(pij)P = (p_{ij}) contient en jj-ème colonne les coordonnées de vjv_j dans la base B\mathfrak{B} :

vj=i=1npijeiv_j = \sum_{i=1}^n p_{ij} e_i

Étape 2 : Substitution

Remplaçons vjv_j dans l'expression de uu :

u=j=1nxj(i=1npijei)u = \sum_{j=1}^n x'_j \left( \sum_{i=1}^n p_{ij} e_i \right)

Étape 3 : Réarrangement (interversion des sommes)

u=i=1n(j=1npijxj)eiu = \sum_{i=1}^n \left( \sum_{j=1}^n p_{ij} x'_j \right) e_i

Étape 4 : Identification

Par l'unicité des coordonnées dans la base B\mathfrak{B}, le coefficient devant eie_i doit être xix_i.

xi=j=1npijxjx_i = \sum_{j=1}^n p_{ij} x'_j

Cette égalité pour tout ii correspond exactement au produit matriciel de la ligne ii de PP par la colonne XX'.

Conclusion :

Sous forme matricielle, cela s'écrit X=PXX = P X'.

Déterminant de l'inverse

Prouvez que si une matrice AMn(K)A \in M_n(K) est inversible, alors det(A1)=1det(A)\det(A^{-1}) = \frac{1}{\det(A)}.

Indice

Utilisez la propriété multiplicative du déterminant : det(AB)=det(A)det(B)\det(AB) = \det(A)\det(B).

Appliquez cette propriété à l'identité définissant l'inverse : AA1=InA A^{-1} = I_n.

Rappelez-vous que det(In)=1\det(I_n) = 1.

Solution

Étape 1 : Définition de l'inverse

Si AA est inversible, il existe A1A^{-1} telle que :

AA1=InA A^{-1} = I_n

Étape 2 : Application du déterminant

Appliquons la fonction déterminant de chaque côté de l'égalité :

det(AA1)=det(In)\det(A A^{-1}) = \det(I_n)

Étape 3 : Propriétés du déterminant

Nous savons que det(In)=1\det(I_n) = 1 (normalisation).

Nous savons aussi que le déterminant est multiplicatif, c'est-à-dire det(XY)=det(X)det(Y)\det(XY) = \det(X)\det(Y).

Donc :

det(A)det(A1)=1\det(A) \det(A^{-1}) = 1

Étape 4 : Conclusion

Puisque le produit est 1, cela implique que det(A)0\det(A) \neq 0 (ce qui est cohérent avec l'inversibilité) et que nous pouvons diviser par det(A)\det(A).

det(A1)=1det(A)=(det(A))1\det(A^{-1}) = \frac{1}{\det(A)} = (\det(A))^{-1}

Liberté des vecteurs propres

Soit uu un endomorphisme de VV. Prouvez que si v1,,vkv_1, \dots, v_k sont des vecteurs propres associés à des valeurs propres distinctes λ1,,λk\lambda_1, \dots, \lambda_k (avec λiλj\lambda_i \neq \lambda_j pour iji \neq j), alors la famille {v1,,vk}\{v_1, \dots, v_k\} est libre.

Indice

Procédez par récurrence sur le nombre kk de vecteurs.

Pour l'hérédité (passage de k1k-1 à kk), supposez une combinaison linéaire nulle i=1kαivi=0\sum_{i=1}^k \alpha_i v_i = 0.

Appliquez l'endomorphisme ff à cette équation, puis multipliez l'équation originale par une valeur propre (par exemple λk\lambda_k). En soustrayant les deux résultats, vous éliminerez un terme et pourrez utiliser l'hypothèse de récurrence.

Solution

Nous procédons par récurrence sur kk.

Initialisation (k=1k=1) :

Si v1v_1 est un vecteur propre, il est non nul par définition. La famille {v1}\{v_1\} est donc libre.

Hérédité :

Supposons la propriété vraie pour toute famille de k1k-1 vecteurs propres associés à des valeurs propres distinctes.

Soient v1,,vkv_1, \dots, v_k des vecteurs propres associés à des valeurs propres distinctes λ1,,λk\lambda_1, \dots, \lambda_k.

Considérons une combinaison linéaire nulle :

(1) α1v1+α2v2++αkvk=0V\alpha_1 v_1 + \alpha_2 v_2 + \dots + \alpha_k v_k = 0_V

Appliquons l'endomorphisme uu à cette égalité. Par linéarité et définition des vecteurs propres (u(vi)=λiviu(v_i) = \lambda_i v_i) :

(2) α1λ1v1+α2λ2v2++αkλkvk=0V\alpha_1 \lambda_1 v_1 + \alpha_2 \lambda_2 v_2 + \dots + \alpha_k \lambda_k v_k = 0_V

Multiplions l'équation (1) par le scalaire λk\lambda_k :

(3) α1λkv1+α2λkv2++αkλkvk=0V\alpha_1 \lambda_k v_1 + \alpha_2 \lambda_k v_2 + \dots + \alpha_k \lambda_k v_k = 0_V

Soustrayons l'équation (3) de l'équation (2) :

α1(λ1λk)v1++αk1(λk1λk)vk+αk(λkλk)vk=0V\alpha_1 (\lambda_1 - \lambda_k) v_1 + \dots + \alpha_{k-1} (\lambda_{k-1} - \lambda_k) v_k + \alpha_k (\lambda_k - \lambda_k) v_k = 0_V

Le dernier terme s'annule. Il reste :

i=1k1αi(λiλk)vi=0V\sum_{i=1}^{k-1} \alpha_i (\lambda_i - \lambda_k) v_i = 0_V

Ceci est une combinaison linéaire de k1k-1 vecteurs propres. Par hypothèse de récurrence, cette famille est libre, donc tous les coefficients sont nuls :

i{1,,k1},αi(λiλk)=0\forall i \in \{1, \dots, k-1\}, \quad \alpha_i (\lambda_i - \lambda_k) = 0

Comme les valeurs propres sont distinctes, λiλk0\lambda_i - \lambda_k \neq 0 pour tout i<ki < k. Donc nécessairement αi=0\alpha_i = 0 pour i=1,,k1i=1, \dots, k-1.

En reportant dans (1), il reste αkvk=0\alpha_k v_k = 0. Comme vk0v_k \neq 0, alors αk=0\alpha_k = 0.

Conclusion :

Tous les αi\alpha_i sont nuls, la famille est libre.

Caractérisation de la somme directe (intersection)

Soient EE et FF deux sous-espaces vectoriels de VV. Prouvez que la somme E+FE + F est directe (notée EFE \oplus F) si et seulement si EF={0V}E \cap F = \{0_V\}.

Indice

Rappelez-vous la définition de la somme directe : pour tout wE+Fw \in E+F, il existe une unique décomposition w=u+vw = u + v avec uE,vFu \in E, v \in F.

(\Rightarrow) Si xx est dans l'intersection, considérez sa décomposition comme x+0x + 0 et 0+x0 + x.

(\Leftarrow) Si l'intersection est nulle, supposez deux décompositions u+v=u+vu+v = u'+v' et montrez que uuu-u' appartient à l'intersection.

Solution

Sens direct (\Rightarrow) : Supposons la somme directe.

Soit xEFx \in E \cap F.

On peut écrire xx comme élément de la somme E+FE+F de deux manières :

  1. x=x+0Vx = x + 0_V (avec xEx \in E et 0VF0_V \in F).
  2. x=0V+xx = 0_V + x (avec 0VE0_V \in E et xFx \in F).

Puisque la somme est directe, la décomposition est unique. Donc le premier terme de la somme doit être le même : x=0Vx = 0_V.

Ainsi, EF={0V}E \cap F = \{0_V\}.

Sens réciproque (\Leftarrow) : Supposons EF={0V}E \cap F = \{0_V\}.

Soit wE+Fw \in E + F. Supposons qu'il existe deux décompositions :

w=u+v=u+vavec u,uE et v,vFw = u + v = u' + v' \quad \text{avec } u, u' \in E \text{ et } v, v' \in F

On peut réarranger l'égalité :

uu=vvu - u' = v' - v

Le terme de gauche (uuu - u') appartient à EE (car EE est un sous-espace).

Le terme de droite (vvv' - v) appartient à FF (car FF est un sous-espace).

Donc, ce vecteur commun appartient à EFE \cap F.

Par hypothèse, EF={0V}E \cap F = \{0_V\}, donc :

uu=0V    u=uu - u' = 0_V \implies u = u'

vv=0V    v=vv' - v = 0_V \implies v = v'

L'unicité de la décomposition est prouvée.

Conclusion :

La somme est directe si et seulement si l'intersection est réduite au vecteur nul.

Matrice d'un endomorphisme diagonalisable

Prouvez que si B={v1,,vn}\mathfrak{B} = \{v_1, \dots, v_n\} est une base de VV constituée de vecteurs propres d'un endomorphisme ff, alors la matrice de ff dans cette base est diagonale.

Indice

La jj-ème colonne de la matrice de ff dans la base B\mathfrak{B} contient les coordonnées du vecteur f(vj)f(v_j) exprimé dans la base B\mathfrak{B}.

Utilisez la définition d'un vecteur propre : f(vj)=λjvjf(v_j) = \lambda_j v_j.

Solution

Soit A=MatB(f)A = \text{Mat}_{\mathfrak{B}}(f). Par définition, la colonne jj de AA correspond aux coordonnées du vecteur f(vj)f(v_j) dans la base B={v1,,vn}\mathfrak{B} = \{v_1, \dots, v_n\}.

Étape 1 : Image des vecteurs de base

Puisque les vjv_j sont des vecteurs propres, il existe des scalaires λj\lambda_j (les valeurs propres) tels que :

f(vj)=λjvjf(v_j) = \lambda_j v_j

Étape 2 : Coordonnées dans la base

Le vecteur λjvj\lambda_j v_j s'écrit comme combinaison linéaire des éléments de la base :

f(vj)=0v1++λjvj++0vnf(v_j) = 0 \cdot v_1 + \dots + \lambda_j \cdot v_j + \dots + 0 \cdot v_n

Les coordonnées sont donc nulles partout sauf à la jj-ème position, où la coordonnée est λj\lambda_j.

Étape 3 : Construction de la matrice

La matrice AA a donc la forme :

\lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix} $$ Les termes hors de la diagonale sont nuls ($a_{ij} = 0$ pour $i \neq j$) et les termes diagonaux sont les valeurs propres ($a_{jj} = \lambda_j$). **Conclusion :** La matrice est diagonale.

Dimension d'une somme directe

Prouvez que si EE et FF sont deux sous-espaces de dimension finie en somme directe, alors dim(EF)=dim(E)+dim(F)\dim(E \oplus F) = \dim(E) + \dim(F).

Indice

Considérez une base BE={e1,,ep}\mathfrak{B}_E = \{e_1, \dots, e_p\} de EE et une base BF={f1,,fq}\mathfrak{B}_F = \{f_1, \dots, f_q\} de FF.

Montrez que la réunion de ces deux familles forme une base de EFE \oplus F. Vous devrez prouver que cette réunion est génératrice et libre.

Solution

Soit BE={u1,,up}\mathfrak{B}_E = \{u_1, \dots, u_p\} une base de EE (dimE=p\dim E = p) et BF={v1,,vq}\mathfrak{B}_F = \{v_1, \dots, v_q\} une base de FF (dimF=q\dim F = q).

Posons B={u1,,up,v1,,vq}\mathcal{B} = \{u_1, \dots, u_p, v_1, \dots, v_q\}.

Étape 1 : Famille génératrice

Soit wEFw \in E \oplus F. Par définition de la somme, w=u+vw = u + v avec uEu \in E et vFv \in F.

uu est combinaison linéaire de BE\mathfrak{B}_E et vv est combinaison linéaire de BF\mathfrak{B}_F.

Donc ww est combinaison linéaire de B\mathcal{B}. La famille engendre EFE \oplus F.

Étape 2 : Famille libre

Supposons une combinaison linéaire nulle :

i=1pαiui+j=1qβjvj=0V\sum_{i=1}^p \alpha_i u_i + \sum_{j=1}^q \beta_j v_j = 0_V

Posons x=αiuiEx = \sum \alpha_i u_i \in E et y=βjvjFy = \sum \beta_j v_j \in F.

L'équation devient x+y=0Vx + y = 0_V, soit x=yx = -y.

Comme xEx \in E et yF-y \in F (car FF est un sous-espace), on a xEFx \in E \cap F.

La somme étant directe, EF={0V}E \cap F = \{0_V\}, donc x=0Vx = 0_V et y=0Vy = 0_V.

Puisque x=αiui=0Vx = \sum \alpha_i u_i = 0_V et que BE\mathfrak{B}_E est une base (donc libre), tous les αi=0\alpha_i = 0.

Puisque y=βjvj=0Vy = \sum \beta_j v_j = 0_V et que BF\mathfrak{B}_F est une base, tous les βj=0\beta_j = 0.

Conclusion :

La famille B\mathcal{B} est une base de EFE \oplus F. Elle contient p+qp+q éléments.

Donc dim(EF)=p+q=dim(E)+dim(F)\dim(E \oplus F) = p + q = \dim(E) + \dim(F).