Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Rappels d’algèbre linéaire - fiches de révision (A)

Qu'est-ce qu'un sous-espace vectoriel et comment démontrer qu'un ensemble en est un ?

Solution

Un sous-espace vectoriel WW d'un espace vectoriel VV est un sous-ensemble non vide qui conserve la structure d'espace vectoriel (il est stable par les opérations).

Méthode de vérification (Stabilité) :

Pour prouver que WVW \subset V est un sous-espace, il suffit de vérifier 3 points :

  1. Non-vacuité : WW contient le vecteur nul 0V0_V.
  2. Stabilité par addition : Si u,vWu, v \in W, alors u+vWu + v \in W.
  3. Stabilité par multiplication scalaire : Si uWu \in W et λK\lambda \in K, alors λuW\lambda \cdot u \in W.

Exemple :

Dans R2\mathbb{R}^2, la droite d'équation y=2xy = 2x est un sous-espace vectoriel car elle passe par (0,0)(0,0) et toute combinaison linéaire de points de la droite reste sur la droite.

Quelle est la définition d'une famille libre et d'une famille génératrice ?

Solution

Soit une famille de vecteurs F={v1,,vn}\mathcal{F} = \{v_1, \dots, v_n\} dans un espace VV.

  1. Famille Génératrice :

    F\mathcal{F} engendre VV si tout vecteur de VV peut s'écrire comme une combinaison linéaire des vecteurs de F\mathcal{F}.

    V=Vect(v1,,vn)V = \text{Vect}(v_1, \dots, v_n)

  2. Famille Libre (Linéairement indépendante) :

    F\mathcal{F} est libre si la seule façon d'obtenir le vecteur nul par combinaison linéaire est de choisir tous les coefficients nuls.

    λ1v1++λnvn=0    λ1==λn=0\lambda_1 v_1 + \dots + \lambda_n v_n = 0 \implies \lambda_1 = \dots = \lambda_n = 0

Note : Une famille qui est à la fois libre et génératrice est une base.

Quelle est la définition d'une application linéaire ?

Solution

Une application f:VWf : V \to W est dite linéaire si elle respecte les deux opérations de l'espace vectoriel (addition et multiplication externe).

Formule générale :

Pour tous vecteurs u,vVu, v \in V et tout scalaire λK\lambda \in K :

f(λu+v)=λf(u)+f(v)f(\lambda u + v) = \lambda f(u) + f(v)

Conséquence importante :

Une application linéaire envoie toujours l'origine sur l'origine :

f(0V)=0Wf(0_V) = 0_W

Exemple : La dérivation PPP \mapsto P' dans l'espace des polynômes est linéaire.

Quelle est la formule de changement de base pour un endomorphisme ?

Solution

Si un endomorphisme ff est représenté par la matrice AA dans une base B\mathfrak{B} et par la matrice BB dans une base C\mathcal{C}, alors :

B=P1APB = P^{-1} A P

Où :

  • BB est la matrice dans la nouvelle base.
  • AA est la matrice dans l'ancienne base.
  • PP est la matrice de passage de l'ancienne base B\mathfrak{B} vers la nouvelle base C\mathcal{C} (ses colonnes sont les vecteurs de la nouvelle base exprimés dans l'ancienne).

Moyen mnémotechnique : On "insère" la nouvelle base au milieu via PP.

Qu'est-ce que le Théorème du rang ?

Solution

Le théorème du rang relie les dimensions de l'espace de départ, du noyau et de l'image d'une application linéaire f:VWf: V \to W (lorsque VV est de dimension finie).

Formule :

dim(V)=dim(Ker(f))+dim(Im(f))\dim(V) = \dim(\text{Ker}(f)) + \dim(\text{Im}(f))

Interprétation :

La dimension totale de l'espace de départ se divise en deux parties :

  1. Ce qui est "écrasé" sur 0 (le noyau).
  2. Ce qui "survit" dans l'arrivée (l'image, ou le rang).

Rappel : rang(f)=dim(Im(f))\text{rang}(f) = \dim(\text{Im}(f)).

Comment définir le Noyau (Ker\text{Ker}) et l'Image (Im\text{Im}) d'une application linéaire ?

Solution

Soit f:VWf : V \to W une application linéaire.

  1. Noyau (Ker(f)\text{Ker}(f)) :

    C'est l'ensemble des vecteurs de départ qui sont envoyés sur le vecteur nul de l'arrivée.

    Ker(f)={vVf(v)=0W}\text{Ker}(f) = \{ v \in V \mid f(v) = 0_W \}

    Propriété : ff est injective     Ker(f)={0V}\iff \text{Ker}(f) = \{0_V\}.

  2. Image (Im(f)\text{Im}(f)) :

    C'est l'ensemble des vecteurs d'arrivée qui sont atteints par l'application.

    Im(f)={wWvV,f(v)=w}\text{Im}(f) = \{ w \in W \mid \exists v \in V, f(v) = w \}

    Propriété : ff est surjective     Im(f)=W\iff \text{Im}(f) = W.

Qu'est-ce qu'un espace vectoriel quotient V/WV/W ?

Solution

Si WW est un sous-espace vectoriel de VV, l'espace quotient V/WV/W est l'ensemble constitué des "classes" de vecteurs modulo WW. On "assimile" tous les vecteurs dont la différence appartient à WW.

Éléments :

Un élément de V/WV/W s'écrit v+Wv + W.

Dimension (si finie) :

dim(V/W)=dim(V)dim(W)\dim(V/W) = \dim(V) - \dim(W)

Intuition :

Si on imagine V=R3V = \mathbb{R}^3 et WW est une droite verticale (axe zz), l'espace quotient V/WV/W correspond au plan horizontal (plan xyxy) obtenu en "écrasant" la dimension zz.

Comment calculer les valeurs propres d'une matrice (Polynôme caractéristique) ?

Solution

Les valeurs propres d'une matrice carrée AA sont les racines de son polynôme caractéristique.

Étapes :

  1. Calculer le polynôme caractéristique PA(X)P_A(X) défini par le déterminant :

    PA(X)=det(AXIn)P_A(X) = \det(A - X I_n)

    (On soustrait l'inconnue XX sur la diagonale de AA).

  2. Résoudre l'équation PA(X)=0P_A(X) = 0.

    Les solutions λ\lambda trouvées sont les valeurs propres.

Exemple :

Pour A=(2003)A = \begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix}, PA(X)=(2X)(3X)P_A(X) = (2-X)(3-X). Les valeurs propres sont 2 et 3.

Que signifie que deux sous-espaces sont en somme directe (EFE \oplus F) ?

Solution

Deux sous-espaces EE et FF de VV sont en somme directe si tout vecteur de leur somme se décompose de manière unique sur EE et FF.

Condition pratique :

La somme est directe si et seulement si leur intersection est réduite au vecteur nul :

EF={0V}E \cap F = \{0_V\}

Si de plus E+F=VE + F = V, on dit que EE et FF sont supplémentaires dans VV. On a alors dim(E)+dim(F)=dim(V)\dim(E) + \dim(F) = \dim(V) (en dimension finie).

Quelles sont les conditions pour qu'une matrice soit diagonalisable ?

Solution

Une matrice carrée AA de taille nn est diagonalisable si elle est semblable à une matrice diagonale.

Critères principaux :

  1. Somme des dimensions : La somme des dimensions des espaces propres est égale à nn (dimension de l'espace entier).

    dim(Vλ)=n\sum \dim(V_\lambda) = n

  2. Condition suffisante (racines distinctes) : Si AA possède nn valeurs propres distinctes, alors elle est automatiquement diagonalisable.

Note : Si le polynôme caractéristique n'est pas scindé (ne se factorise pas complètement dans le corps KK), la matrice n'est pas diagonalisable sur ce corps.

Quelle est la relation entre le déterminant et l'inversibilité d'une matrice ?

Solution

Le déterminant est un scalaire qui indique si une matrice est inversible.

Propriété fondamentale :

Une matrice carrée AA est inversible si et seulement si son déterminant est non nul.

A est inversible    det(A)0A \text{ est inversible} \iff \det(A) \neq 0

Lien avec l'inverse :

Si AA est inversible, alors :

det(A1)=1det(A)\det(A^{-1}) = \frac{1}{\det(A)}