Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Rappels d’algèbre linéaire (A)


Concept 1 : Espace Vectoriel et Sous-espace Vectoriel

Prérequis

  • Structures de groupes (Groupe commutatif)
  • Corps commutatifs (ex: R,C,Q\mathbb{R}, \mathbb{C}, \mathbb{Q})
  • Théorie des ensembles élémentaire

Définition

Un KK-espace vectoriel est un ensemble VV muni de deux opérations :

  1. Une addition interne +:V×VV+ : V \times V \to V qui confère à (V,+)(V, +) une structure de groupe commutatif (élément neutre noté 0V0_V).
  2. Une multiplication externe :K×VV\cdot : K \times V \to V par les scalaires du corps KK.

Ces opérations doivent satisfaire des axiomes de compatibilité pour tous λ,λK\lambda, \lambda' \in K et v,vVv, v' \in V :

  • Distributivité : (λ+λ)v=λv+λv(\lambda + \lambda') \cdot v = \lambda \cdot v + \lambda' \cdot v et λ(v+v)=λv+λv\lambda \cdot (v + v') = \lambda \cdot v + \lambda \cdot v'.
  • Associativité mixte : λ(λv)=(λλ)v\lambda \cdot (\lambda' \cdot v) = (\lambda\lambda') \cdot v.
  • Élément neutre : 1v=v1 \cdot v = v.

Un sous-espace vectoriel WW de VV est un sous-ensemble qui conserve la structure d’espace vectoriel. Il doit contenir le vecteur nul 0V0_V et être stable par combinaisons linéaires.

Propriétés Clés

  • Stabilité : Pour prouver que WVW \subset V est un sous-espace, il suffit de vérifier que 0VW0_V \in W et que pour tout u,vWu, v \in W et λK\lambda \in K, on a u+vWu + v \in W et λuW\lambda \cdot u \in W.
  • Propriétés de calcul : 0v=0V0 \cdot v = 0_V et (1)v=v(-1) \cdot v = -v.
  • Intersection : L’intersection de sous-espaces vectoriels est toujours un sous-espace vectoriel.

Exemples

Exemple 1

L’espace des nn-uplets KnK^n. Pour K=RK=\mathbb{R} et n=2n=2, l’ensemble des vecteurs du plan R2\mathbb{R}^2. L’addition se fait composante par composante :

(x,y)+(x,y)=(x+x,y+y)(x, y) + (x', y') = (x+x', y+y')

Et la multiplication par un scalaire λR\lambda \in \mathbb{R} :

λ(x,y)=(λx,λy)\lambda \cdot (x, y) = (\lambda x, \lambda y)

Exemple 2

L’espace des polynômes K[X]K[X]. C’est un espace vectoriel de dimension infinie. Un sous-espace vectoriel serait l’ensemble Kn[X]K_n[X] des polynômes de degré inférieur ou égal à nn.

Exemple 3

L’espace K(I)K^{(I)} des familles presque nulles. Si II est un ensemble infini, c’est l’ensemble des fonctions f:IKf: I \to K telles que f(i)=0f(i) = 0 sauf pour un nombre fini d’indices ii.

Contre-exemples

  • L’ensemble Z\mathbb{Z} des entiers relatifs muni de l’addition usuelle n’est pas un R\mathbb{R}-espace vectoriel car la multiplication par un scalaire réel (ex: 0.51=0.50.5 \cdot 1 = 0.5) fait sortir de l’ensemble.
  • Le sous-ensemble de R2\mathbb{R}^2 défini par {(x,y)R2x+y=1}\{(x, y) \in \mathbb{R}^2 \mid x + y = 1\} n’est pas un sous-espace vectoriel car il ne contient pas le vecteur nul (0,0)(0,0).

Concepts Liés

  • Groupes abéliens
  • Corps

Applications

  • Modélisation de phénomènes physiques (forces, vitesses).
  • Résolution de systèmes d’équations linéaires.

Concept 2 : Familles de Vecteurs, Bases et Dimension

Prérequis

  • Espace vectoriel
  • Combinaison linéaire

Définition

Soit VV un espace vectoriel et F={vi}iI\mathcal{F} = \{v_i\}_{i \in I} une famille de vecteurs de VV.

  1. Famille génératrice : On dit que F\mathcal{F} engendre VV si tout vecteur de VV peut s’écrire comme combinaison linéaire finie d’éléments de F\mathcal{F}. On note V=Vect(F)V = \text{Vect}(\mathcal{F}).

  2. Famille libre : La famille est libre si la seule combinaison linéaire nulle est celle dont tous les coefficients sont nuls :

    iIλivi=0i,λi=0\sum_{i \in I} \lambda_i v_i = 0 \Rightarrow \forall i, \lambda_i = 0

  3. Base : Une famille est une base si elle est à la fois libre et génératrice.

  4. Dimension : Si VV admet une base finie, le nombre d’éléments dans cette base est appelé la dimension de VV, notée dim(V)\dim(V).

Propriétés Clés

  • Unicité des coordonnées : Si B\mathfrak{B} est une base, tout vecteur vVv \in V s’écrit de manière unique comme combinaison linéaire des éléments de la base.
  • Théorème de la base incomplète : Toute famille libre peut être complétée pour former une base.
  • Indépendance de la dimension : Toutes les bases d’un espace vectoriel de dimension finie ont le même cardinal (nombre d’éléments).

Exemples

Exemple 1

Dans R3\mathbb{R}^3, la base canonique est B={e1,e2,e3}\mathfrak{B} = \{e_1, e_2, e_3\} avec :

e1=(1,0,0),e2=(0,1,0),e3=(0,0,1)e_1 = (1, 0, 0), \quad e_2 = (0, 1, 0), \quad e_3 = (0, 0, 1)

C’est une famille libre et génératrice. La dimension est 3.

Exemple 2

Dans l’espace des polynômes K2[X]K_2[X] (degré 2\le 2), la famille {1,X,X2}\{1, X, X^2\} est une base. La dimension est 33.

Si l’on considère le polynôme P=2+3X+5X2P = 2 + 3X + 5X^2, ses coordonnées dans cette base sont le vecteur colonne :

[P]B=(235)[P]_{\mathfrak{B}} = \begin{pmatrix} 2 \\ 3 \\ 5 \end{pmatrix}

Exemple 3

Dans C\mathbb{C} considéré comme un R\mathbb{R}-espace vectoriel, la famille {1,i}\{1, i\} est une base. On a dimR(C)=2\dim_{\mathbb{R}}(\mathbb{C}) = 2.

Cependant, C\mathbb{C} comme C\mathbb{C}-espace vectoriel a pour base {1}\{1\} et est de dimension 1.

Contre-exemples

  • La famille {(1,0),(0,1),(1,1)}\{(1,0), (0,1), (1,1)\} dans R2\mathbb{R}^2 est génératrice mais n’est pas libre (car (1,1)=(1,0)+(0,1)(1,1) = (1,0) + (0,1)). Ce n’est pas une base.
  • La famille {(1,0)}\{(1,0)\} dans R2\mathbb{R}^2 est libre mais pas génératrice. Ce n’est pas une base.

Concepts Liés

  • Isomorphisme avec KnK^n
  • Matrice colonne des coordonnées

Applications

  • Représentation numérique de signaux ou d’images.
  • Compression de données (changement de base).

Concept 3 : Applications Linéaires et Matrices

Prérequis

  • Espace vectoriel
  • Bases
  • Matrices (Mm,n(K)M_{m,n}(K))

Définition

Une application linéaire f:VWf : V \to W est une fonction entre deux KK-espaces vectoriels qui respecte la structure vectorielle :

u,vV,λK,f(λu+v)=λf(u)+f(v)\forall u, v \in V, \forall \lambda \in K, \quad f(\lambda u + v) = \lambda f(u) + f(v)

La matrice d’une application linéaire dans des bases fixées B={ej}\mathfrak{B} = \{e_j\} (de VV) et C\mathcal{C} (de WW) est la matrice MMm,n(K)M \in M_{m,n}(K) dont la jj-ème colonne contient les coordonnées du vecteur image f(ej)f(e_j) exprimé dans la base d’arrivée C\mathcal{C}.

Propriétés Clés

  • Morphisme : Une application linéaire envoie le vecteur nul sur le vecteur nul : f(0V)=0Wf(0_V) = 0_W.

  • Composition et Produit : La composition des applications linéaires correspond à la multiplication des matrices associées :

    MatB,D(gf)=MatC,D(g)MatB,C(f)\text{Mat}_{\mathfrak{B}, \mathcal{D}}(g \circ f) = \text{Mat}_{\mathcal{C}, \mathcal{D}}(g) \cdot \text{Mat}_{\mathfrak{B}, \mathcal{C}}(f)

  • Calcul matriciel : L’image d’un vecteur vv se calcule par produit matriciel :

    [f(v)]C=MatB,C(f)[v]B[f(v)]_{\mathcal{C}} = \text{Mat}_{\mathfrak{B}, \mathcal{C}}(f) \cdot [v]_{\mathfrak{B}}

Exemples

Exemple 1

L’application identité idV:VV\text{id}_V : V \to V définie par idV(v)=v\text{id}_V(v) = v. Sa matrice dans n’importe quelle base B\mathfrak{B} est la matrice identité InI_n.

Exemple 2

Soit f:R2R2f : \mathbb{R}^2 \to \mathbb{R}^2 définie par f(x,y)=(x+y,y)f(x, y) = (x+y, y). Dans la base canonique B={(1,0),(0,1)}\mathfrak{B} = \{(1,0), (0,1)\}, on a f(1,0)=(1,0)f(1,0) = (1,0) et f(0,1)=(1,1)f(0,1) = (1,1). La matrice est :

MatB(f)=(1101)\text{Mat}_{\mathfrak{B}}(f) = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}

Exemple 3

La dérivation D:K[X]K[X]D : K[X] \to K[X] définie par D(P)=PD(P) = P' est une application linéaire.

D(λP+Q)=(λP+Q)=λP+Q=λD(P)+D(Q)D(\lambda P + Q) = (\lambda P + Q)' = \lambda P' + Q' = \lambda D(P) + D(Q)

Contre-exemples

  • L’application f(x)=x2f(x) = x^2 n’est pas linéaire car f(2x)=4x22f(x)f(2x) = 4x^2 \neq 2f(x).
  • Une application affine f(x)=ax+bf(x) = ax + b avec b0b \neq 0 n’est pas linéaire car f(0)=b0f(0) = b \neq 0.

Concepts Liés

  • Espace dual VV^*
  • Endomorphismes (End(V)\text{End}(V))

Applications

  • Transformations géométriques (rotations, homothéties, projections).
  • Systèmes dynamiques linéaires.

Concept 4 : Changement de Base

Prérequis

  • Applications linéaires
  • Matrices
  • Matrice inverse

Définition

Le changement de base permet de relier les coordonnées d’un vecteur ou la matrice d’une application linéaire lorsqu’on change les bases de référence.

La matrice de passage PB,CP_{\mathfrak{B}, \mathcal{C}} de la base B\mathfrak{B} à la base C\mathcal{C} contient en colonnes les coordonnées des vecteurs de la base B\mathfrak{B} exprimés dans la base C\mathcal{C}.

Pour un endomorphisme f:VVf: V \to V, si A=MatB(f)A = \text{Mat}_{\mathfrak{B}}(f) et B=MatC(f)B = \text{Mat}_{\mathcal{C}}(f), alors :

B=P1APB = P^{-1} A P

P=PC,BP = P_{\mathcal{C}, \mathfrak{B}} est la matrice de passage de la nouvelle base C\mathcal{C} vers l’ancienne base B\mathfrak{B} (matrice dont les colonnes sont les vecteurs de C\mathcal{C} exprimés dans B\mathfrak{B}).

Propriétés Clés

  • Conjugaison : Deux matrices représentant le même endomorphisme dans des bases différentes sont dites semblables.
  • Inverse : La matrice de passage est toujours inversible. PB,C=(PC,B)1P_{\mathfrak{B}, \mathcal{C}} = (P_{\mathcal{C}, \mathfrak{B}})^{-1}.

Exemples

Exemple 1

Dans R2\mathbb{R}^2, passons de la base canonique B={e1,e2}\mathfrak{B} = \{e_1, e_2\} à la base C={v1,v2}\mathcal{C} = \{v_1, v_2\} avec v1=(1,1)v_1 = (1, 1) et v2=(1,1)v_2 = (1, -1).

La matrice de passage PP (de C\mathcal{C} dans B\mathfrak{B}, souvent notée simplement PP) est :

P=(1111)P = \begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix}

Si un endomorphisme a pour matrice AA dans B\mathfrak{B}, sa matrice dans C\mathcal{C} sera P1APP^{-1} A P.

Exemple 2

Si vv a pour coordonnées XX dans B\mathfrak{B} et XX' dans C\mathcal{C}, alors X=PXX = P X' (attention au sens : PP “traduit” les nouvelles coordonnées en anciennes).

Exemple 3

Si ff est une homothétie de rapport kk, sa matrice est kInk I_n. Pour toute matrice inversible PP, on a P1(kIn)P=kP1InP=kInP^{-1} (k I_n) P = k P^{-1} I_n P = k I_n. La matrice d’une homothétie est invariante par changement de base.

Contre-exemples

  • On ne peut pas changer de base si la famille d’arrivée n’est pas une base (par exemple pas libre ou pas génératrice).
  • La formule B=PAP1B = P A P^{-1} est incorrecte (inversion de l’ordre de PP et P1P^{-1}).

Concepts Liés

  • Diagonalisation
  • Matrices semblables

Applications

  • Simplification des équations (choisir une base où la matrice est diagonale ou simple).

Concept 5 : Noyau, Image et Théorème du Rang

Prérequis

  • Application linéaire
  • Sous-espace vectoriel
  • Dimension

Définition

Soit f:VWf : V \to W une application linéaire.

  1. Noyau (Ker(f)\text{Ker}(f)) : L’ensemble des vecteurs de VV qui s’annulent par ff.

    Ker(f)={vVf(v)=0W}\text{Ker}(f) = \{v \in V \mid f(v) = 0_W\}

  2. Image (Im(f)\text{Im}(f)) : L’ensemble des vecteurs de WW qui sont atteints par ff.

    Im(f)={wWvV,f(v)=w}=f(V)\text{Im}(f) = \{w \in W \mid \exists v \in V, f(v) = w\} = f(V)

  3. Rang : La dimension de l’image de ff. rang(f)=dim(Im(f))\text{rang}(f) = \dim(\text{Im}(f)).

Théorème du rang : Si VV est de dimension finie, alors :

dim(V)=dim(Ker(f))+dim(Im(f))\dim(V) = \dim(\text{Ker}(f)) + \dim(\text{Im}(f))

Propriétés Clés

  • Injectivité : ff est injective si et seulement si Ker(f)={0V}\text{Ker}(f) = \{0_V\}.
  • Surjectivité : ff est surjective si et seulement si Im(f)=W\text{Im}(f) = W (ce qui équivaut à rang(f)=dim(W)\text{rang}(f) = \dim(W) en dimension finie).
  • Bijectivité : Si dim(V)=dim(W)\dim(V) = \dim(W) (dimension finie), alors ff est injective     \iff ff est surjective     \iff ff est bijective.

Exemples

Exemple 1

Soit la projection p:R3R3p : \mathbb{R}^3 \to \mathbb{R}^3 sur le plan xyxy définie par p(x,y,z)=(x,y,0)p(x, y, z) = (x, y, 0).

  • Im(p)\text{Im}(p) est le plan xyxy (dim 2).
  • Ker(p)\text{Ker}(p) est l’axe zz (les vecteurs (0,0,z)(0, 0, z), dim 1).
  • Théorème du rang : 3=1+23 = 1 + 2.

Exemple 2

Soit l’application nulle 0:VW0 : V \to W.

  • Ker(0)=V\text{Ker}(0) = V, Im(0)={0W}\text{Im}(0) = \{0_W\}.
  • Rang = 0.
  • dim(V)=dim(V)+0\dim(V) = \dim(V) + 0.

Exemple 3

Pour une matrice AMm,n(K)A \in M_{m,n}(K), le rang de l’application associée est égal au nombre de colonnes linéairement indépendantes (ou de pivots dans la forme échelonnée).

Contre-exemples

  • Si l’espace de départ est de dimension infinie, le théorème du rang ne s’applique pas directement sous cette forme arithmétique simple.
  • Une application peut avoir un noyau trivial ({0}\{0\}) sans être surjective (si dim(W)>dim(V)\dim(W) > \dim(V)).

Concepts Liés

  • Quotient d’espaces vectoriels
  • Pivot de Gauss

Applications

  • Étude de l’existence et de l’unicité des solutions de systèmes linéaires Ax=bAx = b.

Concept 6 : Espace Vectoriel Quotient

Prérequis

  • Sous-espace vectoriel
  • Relation d’équivalence (Groupes quotients)

Définition

Soit WW un sous-espace vectoriel de VV. L’espace quotient V/WV/W est l’ensemble des “classes” de vecteurs modulo WW. Un élément de V/WV/W est noté v+Wv + W.

La structure d’espace vectoriel sur V/WV/W est définie par :

(v+W)+(v+W)=(v+v)+W(v + W) + (v' + W) = (v + v') + W

λ(v+W)=(λv)+W\lambda \cdot (v + W) = (\lambda v) + W

La propriété universelle stipule que pour toute application linéaire f:VVf : V \to V' qui s’annule sur WW (i.e., WKer(f)W \subset \text{Ker}(f)), il existe une unique application linéaire fˉ:V/WV\bar{f} : V/W \to V' telle que f=fˉclWf = \bar{f} \circ \text{cl}_W, où clW\text{cl}_W est la projection canonique vv+Wv \mapsto v+W.

Propriétés Clés

  • Isomorphisme canonique : V/Ker(f)Im(f)V / \text{Ker}(f) \cong \text{Im}(f). C’est une reformulation structurelle du théorème du rang.
  • Dimension : En dimension finie, dim(V/W)=dim(V)dim(W)\dim(V/W) = \dim(V) - \dim(W).

Exemples

Exemple 1

Soit V=R2V = \mathbb{R}^2 et WW l’axe des abscisses (y=0y=0). L’espace quotient R2/W\mathbb{R}^2/W “écrase” l’axe des xx. Deux vecteurs (x,y)(x, y) et (x,y)(x', y') sont dans la même classe si leur différence est dans WW, c’est-à-dire si y=yy = y'. L’espace quotient est isomorphe à l’axe des yy (dimension 1).

Exemple 2

Construction de R\mathbb{R}. R\mathbb{R} peut être vu comme le quotient de l’espace des suites de Cauchy rationnelles par le sous-espace des suites tendant vers 0.

Exemple 3

Si on considère l’espace des fonctions intégrables et qu’on “quotiente” par les fonctions nulles presque partout, on obtient les espaces LpL^p (concepts avancés d’analyse).

Contre-exemples

  • On ne peut pas quotienter par un sous-ensemble qui n’est pas un sous-espace vectoriel (la structure ne serait pas bien définie).

Concepts Liés

  • Supplémentaire (un supplémentaire de WW est isomorphe à V/WV/W).

Applications

  • Construction de nouveaux espaces mathématiques.
  • Simplification de problèmes en “ignorant” certaines directions (celles de WW).

Concept 7 : Déterminant

Prérequis

  • Matrices carrées
  • Groupe symétrique (permutations)
  • Anneaux commutatifs

Définition

Le déterminant est une application det:Mn(K)K\det : M_n(K) \to K unique vérifiant trois propriétés fondamentales :

  1. Linéarité par rapport à chaque colonne (multilinéarité).
  2. Alternance : Si deux colonnes sont égales, le déterminant est nul.
  3. Normalisation : Le déterminant de la matrice identité vaut 1 (det(In)=1\det(I_n) = 1).

Pour une matrice 2×22 \times 2, det(abcd)=adbc\det \begin{pmatrix} a & b \\ c & d \end{pmatrix} = ad - bc.

Propriétés Clés

  • Multiplicativité : det(AB)=det(A)det(B)\det(AB) = \det(A)\det(B).
  • Inversibilité : Une matrice AA est inversible si et seulement si det(A)0\det(A) \neq 0. Dans ce cas det(A1)=det(A)1\det(A^{-1}) = \det(A)^{-1}.
  • Transposition : det(tA)=det(A)\det(^tA) = \det(A).
  • Opérations élémentaires : Ajouter à une colonne un multiple d’une autre ne change pas le déterminant. Échanger deux colonnes (ou lignes) multiplie le déterminant par 1-1.

Exemples

Exemple 1

Matrice diagonale ou triangulaire : Le déterminant est le produit des termes diagonaux.

det(259031004)=2×3×4=24\det \begin{pmatrix} 2 & 5 & 9 \\ 0 & 3 & 1 \\ 0 & 0 & 4 \end{pmatrix} = 2 \times 3 \times 4 = 24

Exemple 2

Développement selon une ligne (Ex: ligne 1) :

det(A)=j=1n(1)1+ja1jdet(A1j)\det(A) = \sum_{j=1}^n (-1)^{1+j} a_{1j} \det(A_{1j})

A1jA_{1j} est la sous-matrice obtenue en supprimant la ligne 1 et la colonne jj.

Exemple 3

Calcul par pivot de Gauss : On transforme la matrice en matrice triangulaire supérieure en utilisant des opérations sur les lignes, en suivant les changements de signe éventuels, puis on fait le produit de la diagonale.

Contre-exemples

  • det(A+B)det(A)+det(B)\det(A+B) \neq \det(A) + \det(B) en général.
  • det(λA)λdet(A)\det(\lambda A) \neq \lambda \det(A). La formule correcte est det(λA)=λndet(A)\det(\lambda A) = \lambda^n \det(A) pour une matrice de taille nn.

Concepts Liés

  • Volume orienté
  • Polynôme caractéristique
  • Cofacteurs

Applications

  • Critère d’inversibilité de matrices.
  • Calcul de volumes en géométrie.
  • Changement de variables dans les intégrales multiples (Jacobien).

Concept 8 : Valeurs Propres, Vecteurs Propres et Polynôme Caractéristique

Prérequis

  • Déterminant
  • Endomorphismes
  • Polynômes

Définition

Soit uu un endomorphisme d’un espace vectoriel VV.

  1. Valeur propre : Un scalaire λK\lambda \in K est une valeur propre si l’endomorphisme (uλidV)(u - \lambda \text{id}_V) n’est pas injectif (i.e., a un noyau non nul).
  2. Vecteur propre : Un vecteur non nul vVv \in V est un vecteur propre associé à λ\lambda si u(v)=λvu(v) = \lambda v.
  3. Polynôme caractéristique : C’est le polynôme défini par Pu(X)=det(AXIn)P_u(X) = \det(A - X I_n), où AA est la matrice de uu. Ses racines sont exactement les valeurs propres de uu.

Propriétés Clés

  • Existence : λ\lambda est valeur propre     Pu(λ)=0\iff P_u(\lambda) = 0.
  • Espace propre : L’ensemble Vλ=Ker(uλidV)V_\lambda = \text{Ker}(u - \lambda \text{id}_V) est un sous-espace vectoriel appelé espace propre associé à λ\lambda.
  • Trace et Déterminant : La somme des racines (comptées avec multiplicité) vaut la trace de la matrice. Le produit des racines vaut le déterminant (au signe près : (1)ndet(A)(-1)^n \det(A) est le terme constant).

Exemples

Exemple 1

Soit A=(2003)A = \begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix}.

PA(X)=det(2X003X)=(2X)(3X)P_A(X) = \det \begin{pmatrix} 2-X & 0 \\ 0 & 3-X \end{pmatrix} = (2-X)(3-X).

Les valeurs propres sont 22 et 33. Les vecteurs propres sont les vecteurs de la base canonique.

Exemple 2

Soit uu l’endomorphisme de dérivation sur V=Vect(et,tet)V = \text{Vect}(e^t, t e^t).

Les valeurs propres se trouvent en résolvant l’équation différentielle ou en écrivant la matrice dans cette base.

Exemple 3

Si vv est vecteur propre pour λ\lambda, alors vv est vecteur propre de uku^k pour la valeur propre λk\lambda^k.

Contre-exemples

  • La matrice de rotation de 9090^\circ dans R2\mathbb{R}^2, (0110)\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}, a pour polynôme caractéristique X2+1X^2 + 1. Elle n’a pas de valeurs propres réelles (mais elle en a dans C\mathbb{C} : ±i\pm i).
  • Le vecteur nul 0V0_V n’est jamais considéré comme un vecteur propre (par définition), bien qu’il appartienne à tous les espaces propres.

Concepts Liés

  • Diagonalisation
  • Trigonalisation

Applications

  • Résolution d’équations différentielles linéaires.
  • Étude de stabilité des systèmes (signe des parties réelles des valeurs propres).
  • Mécanique quantique (états propres).

Concept 9 : Somme Directe et Sous-espaces Supplémentaires

Prérequis

  • Sous-espace vectoriel
  • Familles libres
  • Base

Définition

  1. Somme directe : Des sous-espaces E1,,EnE_1, \dots, E_n sont en somme directe (notée E1EnE_1 \oplus \dots \oplus E_n) si tout vecteur de leur somme se décompose de manière unique comme somme de vecteurs viEiv_i \in E_i.

    Cela équivaut à dire que si vi=0\sum v_i = 0 avec viEiv_i \in E_i, alors tous les vi=0v_i = 0.

  2. Supplémentaires : Deux sous-espaces EE et FF sont supplémentaires dans VV si V=EFV = E \oplus F. Cela signifie que EF={0}E \cap F = \{0\} et E+F=VE + F = V.

Propriétés Clés

  • Intersection : Pour deux sous-espaces, la somme est directe si et seulement si leur intersection est réduite au vecteur nul.
  • Dimension : Si la somme est directe, dim(E1En)=dim(Ei)\dim(E_1 \oplus \dots \oplus E_n) = \sum \dim(E_i).
  • Espaces propres : Les espaces propres associés à des valeurs propres distinctes sont toujours en somme directe.

Exemples

Exemple 1

Dans R2\mathbb{R}^2, deux droites distinctes passant par l’origine sont toujours supplémentaires. Si D1D_1 est l’axe xx et D2D_2 l’axe yy, alors R2=D1D2\mathbb{R}^2 = D_1 \oplus D_2.

Exemple 2

Soit ss une symétrie (s2=ids^2 = \text{id}). Alors V=Ker(sid)Ker(s+id)V = \text{Ker}(s - \text{id}) \oplus \text{Ker}(s + \text{id}). Tout vecteur se décompose en une partie “symétrique” et une partie “antisymétrique”.

Exemple 3

Les fonctions paires et les fonctions impaires forment deux sous-espaces supplémentaires de l’espace des fonctions de R\mathbb{R} dans R\mathbb{R}. Toute fonction s’écrit de manière unique f(x)=fpair(x)+fimpair(x)f(x) = f_{pair}(x) + f_{impair}(x).

Contre-exemples

  • Dans R2\mathbb{R}^2, trois droites distinctes D1,D2,D3D_1, D_2, D_3 vérifient DiDj={0}D_i \cap D_j = \{0\} deux à deux, mais leur somme n’est pas directe (car D1+D2=R2D_1 + D_2 = \mathbb{R}^2 contient déjà D3D_3).
  • L’union de sous-espaces n’est pas un sous-espace, c’est leur somme qu’il faut considérer.

Concepts Liés

  • Projection (la projection sur EE parallèlement à FF).

Applications

  • Décomposition de signaux.
  • Simplification de l’analyse d’un endomorphisme en le restreignant à des sous-espaces stables.

Concept 10 : Diagonalisation

Prérequis

  • Valeurs propres / Vecteurs propres
  • Somme directe
  • Dimension

Définition

Un endomorphisme uu (ou une matrice AA) est diagonalisable s’il existe une base de VV constituée uniquement de vecteurs propres de uu.

Dans cette base, la matrice de uu est diagonale, avec les valeurs propres sur la diagonale.

Propriétés Clés

  • Critère de la somme : uu est diagonalisable     V=λSpec(u)Vλ\iff V = \bigoplus_{\lambda \in \text{Spec}(u)} V_\lambda.
  • Critère des dimensions : uu est diagonalisable si et seulement si la somme des dimensions des espaces propres est égale à la dimension de l’espace entier VV.
  • Multiplicités : Pour chaque valeur propre λ\lambda, sa multiplicité géométrique (dimVλ\dim V_\lambda) doit être égale à sa multiplicité algébrique (ordre de la racine dans le polynôme caractéristique).
  • Condition suffisante : Si uu possède n=dim(V)n = \dim(V) valeurs propres distinctes, alors uu est diagonalisable.

Exemples

Exemple 1

La matrice A=(1002)A = \begin{pmatrix} 1 & 0 \\ 0 & 2 \end{pmatrix} est déjà diagonale. Elle est diagonalisable.

Exemple 2

La matrice A=(0110)A = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} a pour valeurs propres 11 et 1-1. Comme elles sont distinctes et que la dimension est 2, AA est diagonalisable. Elle est semblable à (1001)\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}.

Exemple 3

Une symétrie ss (s2=ids^2 = \text{id}) est diagonalisable (si la caractéristique du corps n’est pas 2), avec des valeurs propres 11 et 1-1.

Contre-exemples

  • La matrice A=(1101)A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} n’est pas diagonalisable. Sa seule valeur propre est 11 (multiplicité algébrique 2). L’espace propre associé est engendré par (10)\begin{pmatrix} 1 \\ 0 \end{pmatrix} (dimension 1). Comme 1<21 < 2, elle n’est pas diagonalisable.
  • Une rotation de plan d’angle θkπ\theta \neq k\pi n’est pas diagonalisable sur R\mathbb{R}.

Concepts Liés

  • Trigonalisation (forme triangulaire).
  • Puissance de matrices (Ak=PDkP1A^k = P D^k P^{-1}).

Applications

  • Calcul rapide de AnA^n pour nn grand.
  • Résolution de systèmes d’équations différentielles couplées.
  • Algorithmes de classement (ex: PageRank de Google utilise des concepts liés aux vecteurs propres).