Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.
Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".
Espaces Euclidiens et Hermitiens (A)
Concept 1: Formes bilinéaires et sesquilinéaires
Prérequis
Espace vectoriel sur un corps K (principalement R ou C)
Applications (fonctions) d’un ensemble produit vers un corps
Propriétés des corps R et C (notamment la conjugaison complexe)
Algèbre matricielle de base (produit matriciel, transposée)
Définition
Soit E un espace vectoriel sur un corps K (K=R ou C).
Une application φ:E×E→K est appelée :
Forme bilinéaire si elle est linéaire par rapport à chacune de ses deux variables. Formellement, pour tous vecteurs u,v,u1,u2,v1,v2∈E et tout scalaire λ∈K :
Linéarité à gauche : φ(u1+λu2,v)=φ(u1,v)+λφ(u2,v)
Linéarité à droite : φ(u,v1+λv2)=φ(u,v1)+λφ(u,v2)
Forme sesquilinéaire (uniquement pour K=C) si elle est linéaire par rapport à sa première variable et semi-linéaire (ou anti-linéaire) par rapport à sa seconde. Formellement, pour tous vecteurs u,v,u1,u2,v1,v2∈E et tout scalaire λ∈C :
Linéarité à gauche : φ(u1+λu2,v)=φ(u1,v)+λφ(u2,v)
Semi-linéarité à droite : φ(u,v1+λv2)=φ(u,v1)+λˉφ(u,v2), où λˉ est le conjugué de λ.
De plus, on introduit des propriétés de symétrie :
Une forme bilinéaire φ est dite symétrique si pour tous x,y∈E, φ(x,y)=φ(y,x).
Une forme sesquilinéaire φ est dite hermitienne symétrique (ou simplement hermitienne) si pour tous x,y∈E, φ(x,y)=φ(y,x).
Explication détaillée :
Une forme bilinéaire peut être vue comme une généralisation du produit usuel de nombres. L’idée est de “multiplier” deux vecteurs pour obtenir un scalaire, de manière à ce que la distributivité et la compatibilité avec la multiplication par un scalaire soient conservées pour chaque vecteur. Par exemple, si on fixe le deuxième vecteur v, l’application u↦φ(u,v) est une application linéaire. De même si on fixe le premier.
Dans le cas complexe, la forme sesquilinéaire est une adaptation nécessaire pour obtenir des propriétés géométriques intéressantes (comme une norme à valeurs réelles). La semi-linéarité à droite, avec le conjugué, est la clé.
Propriétés Clés
Pour toute forme bilinéaire ou sesquilinéaire φ, on a φ(x,0E)=φ(0E,x)=0 pour tout x∈E.
Une forme bilinéaire symétrique sur Rn peut toujours s’écrire sous la forme φ(X,Y)=tXSY où S est une matrice symétrique.
Pour une forme hermitienne φ, la valeur φ(x,x) est toujours un nombre réel, car φ(x,x)=φ(x,x).
Exemples
Exemple 1 (Forme bilinéaire symétrique canonique sur Rn)
Soit E=Rn. Pour x=(x1,…,xn) and y=(y1,…,yn), l’application φ(x,y)=∑i=1nxiyi est une forme bilinéaire symétrique.
Bilinéarité : φ(x+λz,y)=∑(xi+λzi)yi=∑xiyi+λ∑ziyi=φ(x,y)+λφ(z,y). La linéarité à droite est similaire.
Symétrie : φ(x,y)=∑xiyi=∑yixi=φ(y,x).
Exemple 2 (Forme sesquilinéaire hermitienne canonique sur Cn)
Soit E=Cn. Pour x=(x1,…,xn) and y=(y1,…,yn), l’application φ(x,y)=∑i=1nxiyiˉ est une forme sesquilinéaire hermitienne.
Linéarité à gauche : φ(x+λz,y)=∑(xi+λzi)yiˉ=∑xiyiˉ+λ∑ziyiˉ=φ(x,y)+λφ(z,y).
Semi-linéarité à droite : φ(x,y+λz)=∑xi(yi+λzi)=∑xi(yiˉ+λˉziˉ)=∑xiyiˉ+λˉ∑xiziˉ=φ(x,y)+λˉφ(x,z).
Exemple 3 (Forme bilinéaire sur un espace de polynômes)
Soit E=Rn[X] l’espace des polynômes de degré au plus n. L’application φ(P,Q)=∫01P(t)Q(t)dt est une forme bilinéaire symétrique.
La bilinéarité découle de la linéarité de l’intégrale: ∫01(P1(t)+λP2(t))Q(t)dt=∫01P1(t)Q(t)dt+λ∫01P2(t)Q(t)dt.
La symétrie est évidente car P(t)Q(t)=Q(t)P(t).
Contre-exemples
Contre-exemple 1 (Non-linéarité)
Soit E=R2. L’application ψ(x,y)=x12+y2 n’est ni bilinéaire, ni sesquilinéaire. Elle n’est pas linéaire par rapport à la première variable : ψ(2x,y)=(2x1)2+y2=4x12+y2=2ψ(x,y).
Contre-exemple 2 (Forme bilinéaire non symétrique)
Soit E=R2. L’application ψ(x,y)=x1y2−x2y1 (le déterminant des vecteurs colonnes x et y) est bilinéaire.
Cependant, elle n’est pas symétrique. On a ψ(y,x)=y1x2−y2x1=−(x1y2−x2y1)=−ψ(x,y). C’est une forme antisymétrique.
Concepts Connexes
Produit Scalaire : Un produit scalaire est un cas particulier de forme bilinéaire symétrique (ou sesquilinéaire hermitienne) qui est de plus “définie positive”.
Forme quadratique : À toute forme bilinéaire symétrique φ est associée une forme quadratique q(x)=φ(x,x).
Applications
Les formes bilinéaires sont fondamentales en géométrie (définition des angles, longueurs) et en physique (produit scalaire en mécanique, métrique de l’espace-temps en relativité).
Les formes sesquilinéaires sont la pierre angulaire de la mécanique quantique pour décrire les espaces d’états (espaces de Hilbert).
Concept 2: Produit Scalaire et Espace Préhilbertien
Prérequis
Formes bilinéaires et sesquilinéaires
Nombres réels positifs (R+)
Notion de vecteur nul (0E)
Définition
Soit E un K-espace vectoriel (K=R ou C) et φ une forme sur E×E.
φ est dite positive si pour tout vecteur x∈E, la valeur φ(x,x) est un nombre réel positif ou nul (φ(x,x)∈R+).
φ est dite définie si pour tout vecteur x∈E, l’implication suivante est vraie :
φ(x,x)=0⟹x=0E
Autrement dit, le seul vecteur qui “multiplié par lui-même” donne 0 est le vecteur nul.
Un produit scalaire est une forme qui combine ces propriétés avec la symétrie.
Sur un R-espace vectoriel E, c’est une forme bilinéaire symétrique définie positive.
Sur un C-espace vectoriel E, c’est une forme sesquilinéaire hermitienne définie positive.
Un espace vectoriel muni d’un produit scalaire est appelé espace préhilbertien. S’il est de dimension finie, on l’appelle :
Espace euclidien dans le cas réel.
Espace hermitien dans le cas complexe.
On note souvent le produit scalaire par ⟨x,y⟩ au lieu de φ(x,y).
(Semi-)Linéarité à droite : ⟨x,y+λz⟩=⟨x,y⟩+c⟨x,z⟩, où c=λ si K=R et c=λˉ si K=C.
Exemples
Exemple 1 (Produit scalaire usuel sur Rn)
L’espace Rn muni de ⟨x,y⟩=∑i=1nxiyi est un espace euclidien.
Vérifions le caractère défini positif :
⟨x,x⟩=∑i=1nxi2. C’est une somme de carrés de réels, donc ≥0.
Si ⟨x,x⟩=0, alors ∑xi2=0. Comme chaque xi2≥0, la somme est nulle si et seulement si chaque terme est nul, i.e., xi2=0 pour tout i. Donc xi=0 pour tout i, et x=0E.
C’est donc bien un produit scalaire.
Exemple 2 (Produit scalaire usuel sur Cn)
L’espace Cn muni de ⟨x,y⟩=∑i=1nxiyiˉ est un espace hermitien.
Vérifions le caractère défini positif :
⟨x,x⟩=∑i=1nxixiˉ=∑i=1n∣xi∣2. C’est une somme de modules au carré (qui sont des réels positifs), donc ≥0.
Si ⟨x,x⟩=0, alors ∑∣xi∣2=0. Ceci implique ∣xi∣2=0 pour tout i, donc xi=0 pour tout i, et x=0E.
Exemple 3 (Produit scalaire sur un espace de fonctions)
Soit E l’espace des fonctions continues de [a,b] dans R, noté C([a,b],R).
L’application ⟨f,g⟩=∫abf(t)g(t)dt est un produit scalaire.
Vérifions le caractère défini positif :
⟨f,f⟩=∫abf(t)2dt. Comme f(t)2≥0 pour tout t, l’intégrale est positive.
Si ⟨f,f⟩=0, alors ∫abf(t)2dt=0. Puisque f2 est une fonction continue et positive, son intégrale est nulle si et seulement si la fonction est identiquement nulle. Donc f(t)2=0 pour tout t, ce qui signifie f(t)=0 pour tout t. Donc f est la fonction nulle.
Contre-exemples
Contre-exemple 1 (Forme non positive)
Sur R2, considérons la forme bilinéaire symétrique φ(x,y)=x1y1−x2y2.
Elle n’est pas positive. Prenons x=(0,1). Alors φ(x,x)=02−12=−1<0. Ce n’est pas un produit scalaire. (C’est la métrique de Minkowski en 2D).
Contre-exemple 2 (Forme positive mais non définie)
Sur R2, considérons la forme bilinéaire symétrique φ(x,y)=x1y1.
Elle est positive : φ(x,x)=x12≥0.
Mais elle n’est pas définie. Prenons le vecteur non nul x=(0,1). On a φ(x,x)=02=0. Comme un vecteur non nul donne 0, la forme n’est pas définie. Ce n’est pas un produit scalaire.
Concepts Connexes
Norme : Tout produit scalaire induit naturellement une notion de “longueur” appelée norme.
Orthogonalité : Deux vecteurs dont le produit scalaire est nul sont dits orthogonaux. Cette notion est centrale en géométrie euclidienne.
Espace de Hilbert : Un espace préhilbertien qui est complet (une propriété d’analyse) est appelé un espace de Hilbert. C’est le cadre naturel pour la mécanique quantique et l’analyse fonctionnelle.
Concept 3: Inégalité de Cauchy-Schwarz
Prérequis
Produit scalaire
Notion de module d’un nombre réel ou complexe
Définition
Soit (E,⟨⋅,⋅⟩) un espace euclidien ou hermitien. Pour tous vecteurs x,y∈E, on a l’inégalité suivante :
∣⟨x,y⟩∣≤⟨x,x⟩⟨y,y⟩
En utilisant la notation de la norme ∥v∥=⟨v,v⟩ (voir concept suivant), l’inégalité se réécrit de façon plus compacte :
∣⟨x,y⟩∣≤∥x∥∥y∥
De plus, il y a égalité si et seulement si les vecteurs x et y sont colinéaires (c’est-à-dire, il existe un scalaire λ tel que x=λy ou y=λx).
Explication détaillée :
Cette inégalité est l’une des plus importantes en mathématiques. Elle établit une relation fondamentale entre le produit scalaire de deux vecteurs et leurs longueurs respectives. Intuitivement, dans R2 ou R3, on sait que ⟨x,y⟩=∥x∥∥y∥cos(θ), où θ est l’angle entre les deux vecteurs. L’inégalité de Cauchy-Schwarz ∣⟨x,y⟩∣≤∥x∥∥y∥ découle alors du fait que ∣cos(θ)∣≤1. L’inégalité généralise cette idée à n’importe quel espace euclidien ou hermitien, même là où la notion d’angle n’est pas directement visible.
Propriétés Clés
Fondamentale : Elle est cruciale pour démontrer l’inégalité triangulaire pour la norme associée au produit scalaire.
Cas d’égalité : L’analyse du cas d’égalité (colinéarité) est souvent aussi importante que l’inégalité elle-même. Si ∥x∥∥y∥=0, l’égalité a lieu si et seulement si y=∥x∥2⟨y,x⟩x.
Exemples
Exemple 1 (Dans Rn)
Soient x=(x1,…,xn) et y=(y1,…,yn) deux vecteurs de Rn. L’inégalité s’écrit :
∣∑i=1nxiyi∣≤∑i=1nxi2∑i=1nyi2
Par exemple, pour x=(1,2,3) et y=(4,5,6),
∣⟨x,y⟩∣=∣1⋅4+2⋅5+3⋅6∣=∣4+10+18∣=32.
∥x∥=12+22+32=14.
∥y∥=42+52+62=16+25+36=77.
On vérifie que 32≤1477≈1078≈32.8. L’inégalité est bien satisfaite.
Exemple 2 (Dans un espace de fonctions)
Soit E=C([0,1],R) avec ⟨f,g⟩=∫01f(t)g(t)dt. L’inégalité de Cauchy-Schwarz devient :
∫01f(t)g(t)dt≤∫01f(t)2dt∫01g(t)2dt
Par exemple, pour f(t)=1 et g(t)=t.
∣⟨f,g⟩∣=∣∫01tdt∣=∣[t2/2]01∣=1/2.
∥f∥2=∫0112dt=1⟹∥f∥=1.
∥g∥2=∫01t2dt=[t3/3]01=1/3⟹∥g∥=1/3.
On vérifie que 1/2≤1⋅(1/3)≈0.577.
Exemple 3 (Cas d’égalité)
Dans R3, soient x=(1,2,3) et y=(2,4,6). Ces vecteurs sont colinéaires car y=2x.
∣⟨x,y⟩∣=∣1⋅2+2⋅4+3⋅6∣=∣2+8+18∣=28.
∥x∥=12+22+32=14.
∥y∥=22+42+62=4+16+36=56=4⋅14=214.
On a bien ∣⟨x,y⟩∣=28 et ∥x∥∥y∥=14⋅(214)=2⋅14=28. Il y a égalité.
Contre-exemples
L’inégalité de Cauchy-Schwarz est un théorème, elle est donc toujours vraie pour un produit scalaire. Les “contre-exemples” illustrent des situations où elle ne s’applique pas car l’hypothèse (la forme est un produit scalaire) n’est pas vérifiée.
Contre-exemple 1 (Forme non positive)
Reprenons la forme φ(x,y)=x1y1−x2y2 sur R2.
Soit x=(2,1) et y=(1,2).
∣φ(x,y)∣=∣2⋅1−1⋅2∣=0.
φ(x,x)=22−12=3.
φ(y,y)=12−22=−3.
Ici φ(y,y) n’est même pas un nombre réel. L’inégalité n’a pas de sens.
Contre-exemple 2 (Forme non positive, un autre cas)
Toujours avec φ(x,y)=x1y1−x2y2, choisissons x=(3,2) et y=(3,−2).
∣φ(x,y)∣=∣3⋅3−2⋅(−2)∣=∣9+4∣=13.
φ(x,x)=32−22=5.
φ(y,y)=32−(−2)2=5.
On a 13>55=5. L’inégalité est violée.
Concepts Connexes
Norme : L’inégalité de Cauchy-Schwarz est la clé pour prouver que la norme induite par un produit scalaire satisfait l’inégalité triangulaire.
Angle entre vecteurs : Dans un espace euclidien, elle permet de définir le cosinus de l’angle entre deux vecteurs non nuls par cos(θ)=∥x∥∥y∥⟨x,y⟩, car elle garantit que cette valeur est bien dans l’intervalle [−1,1].
Concept 4: Norme associée à un produit scalaire
Prérequis
Produit scalaire
Inégalité de Cauchy-Schwarz
Définition
Soit (E,⟨⋅,⋅⟩) un espace euclidien ou hermitien. On définit la norme d’un vecteur x∈E, notée ∥x∥, comme la racine carrée de son produit scalaire avec lui-même :
∥x∥:=⟨x,x⟩
Cette application ∥⋅∥:E→R+ est bien une norme, car elle vérifie les trois axiomes suivants pour tous x,y∈E et tout λ∈K:
Séparation (ou caractère défini) : ∥x∥=0⟺x=0E.
Homogénéité : ∥λx∥=∣λ∣∥x∥.
Inégalité triangulaire (ou de Minkowski) : ∥x+y∥≤∥x∥+∥y∥.
La norme mesure la “longueur” ou la “magnitude” d’un vecteur. Un espace vectoriel muni d’une norme est appelé un espace vectoriel normé.
Propriétés Clés
Théorème de Pythagore : Si deux vecteurs x et y sont orthogonaux (c’est-à-dire ⟨x,y⟩=0), alors :
∥x+y∥2=∥x∥2+∥y∥2
Ceci se généralise à une famille de n vecteurs deux à deux orthogonaux (v1,…,vn):
∥∑i=1nvi∥2=∑i=1n∥vi∥2
Identités de polarisation : Elles permettent de reconstituer le produit scalaire à partir de la norme, montrant que la “géométrie des longueurs” détermine la “géométrie des angles”.
Cas euclidien (K=R) :
⟨x,y⟩=21(∥x+y∥2−∥x∥2−∥y∥2)
Cas hermitien (K=C) :
⟨x,y⟩=41(∥x+y∥2−∥x−y∥2+i(∥x+iy∥2−∥x−iy∥2))
Identité du parallélogramme : Une norme dérive d’un produit scalaire si et seulement si elle vérifie cette identité pour tous vecteurs x,y∈E :
∥x+y∥2+∥x−y∥2=2(∥x∥2+∥y∥2)
Géométriquement, cela signifie que la somme des carrés des longueurs des diagonales d’un parallélogramme est égale à la somme des carrés des longueurs de ses quatre côtés.
Exemples
Exemple 1 (Norme euclidienne sur R3)
Pour x=(x1,x2,x3)∈R3, la norme associée au produit scalaire usuel est :
∥x∥=x12+x22+x32.
Si x=(1,−2,2), ∥x∥=12+(−2)2+22=1+4+4=9=3.
Exemple 2 (Vérification de l’inégalité triangulaire)
Soit x=(1,0) et y=(0,1) dans R2.
∥x∥=1, ∥y∥=1.
x+y=(1,1), donc ∥x+y∥=12+12=2.
On vérifie bien que ∥x+y∥=2≤∥x∥+∥y∥=1+1=2.
Exemple 3 (Identité du parallélogramme)
Soit x=(2,1) et y=(1,3) dans R2.
∥x∥2=22+12=5, ∥y∥2=12+32=10.
x+y=(3,4), ∥x+y∥2=32+42=25.
x−y=(1,−2), ∥x−y∥2=12+(−2)2=5.
Vérifions l’identité :
∥x+y∥2+∥x−y∥2=25+5=30.
2(∥x∥2+∥y∥2)=2(5+10)=2(15)=30.
L’identité est bien vérifiée.
Contre-exemples
Ce sont des exemples de normes qui ne proviennent pas d’un produit scalaire, ce que l’on démontre en montrant que l’identité du parallélogramme n’est pas satisfaite.
Contre-exemple 1 (La norme 1)
Sur R2, on définit ∥x∥1=∣x1∣+∣x2∣. C’est bien une norme.
Prenons x=(1,0) et y=(0,1).
∥x∥1=1, ∥y∥1=1.
x+y=(1,1), ∥x+y∥1=1+1=2.
x−y=(1,−1), ∥x−y∥1=∣1∣+∣−1∣=2.
Vérifions l’identité du parallélogramme :
∥x+y∥12+∥x−y∥12=22+22=8.
2(∥x∥12+∥y∥12)=2(12+12)=4.
Puisque 8=4, cette norme ne dérive pas d’un produit scalaire.
Contre-exemple 2 (La norme infinie)
Sur R2, on définit ∥x∥∞=max(∣x1∣,∣x2∣). C’est bien une norme.
Prenons les mêmes x=(1,0) et y=(0,1).
∥x∥∞=1, ∥y∥∞=1.
x+y=(1,1), ∥x+y∥∞=max(1,1)=1.
x−y=(1,−1), ∥x−y∥∞=max(1,1)=1.
Vérifions l’identité du parallélogramme :
∥x+y∥∞2+∥x−y∥∞2=12+12=2.
2(∥x∥∞2+∥y∥∞2)=2(12+12)=4.
Puisque 2=4, cette norme ne dérive pas d’un produit scalaire.
Concepts Connexes
Distance : Une norme induit une distance d(x,y)=∥x−y∥. Un espace euclidien est donc un cas particulier d’espace métrique.
Vecteur unitaire : Un vecteur u tel que ∥u∥=1 est dit unitaire ou normé.
Normalisation : Le processus de remplacer un vecteur non nul x par le vecteur unitaire u=∥x∥x.
Espaces Euclidiens et Hermitiens (A)
Concept 1: Formes Bilinéaires et Sesquilinéaires
Prérequis
Algèbre Linéaire : Espaces vectoriels sur un corps K (principalement R ou C), applications linéaires.
Nombres Complexes : Conjugué d’un nombre complexe.
Définition
Soit E un espace vectoriel sur un corps K (soit K=R ou K=C).
Forme bilinéaire (cas K=R ou C) :
Une application φ:E×E→K est une forme bilinéaire si elle est linéaire par rapport à chacune de ses deux variables. C’est-à-dire, pour tous vecteurs u,u1,u2,v,v1,v2∈E et tout scalaire λ∈K :
Linéarité à gauche : φ(u1+λu2,v)=φ(u1,v)+λφ(u2,v).
Linéarité à droite : φ(u,v1+λv2)=φ(u,v1)+λφ(u,v2).
Forme sesquilinéaire (cas K=C) :
Une application φ:E×E→C est une forme sesquilinéaire si elle est linéaire par rapport à sa première variable et “semi-linéaire” (ou anti-linéaire) par rapport à sa seconde. C’est-à-dire :
Linéarité à gauche : φ(u1+λu2,v)=φ(u1,v)+λφ(u2,v).
Semi-linéarité à droite : φ(u,v1+λv2)=φ(u,v1)+λˉφ(u,v2), où λˉ est le conjugué de λ.
Une forme bilinéaire est dite symétrique si ∀x,y∈E,φ(x,y)=φ(y,x).
Une forme sesquilinéaire est dite hermitienne (ou hermitienne symétrique) si ∀x,y∈E,φ(x,y)=φ(y,x).
Explications Détaillées
L’idée d’une forme bilinéaire ou sesquilinéaire est de généraliser le concept de produit. Tout comme on multiplie deux nombres pour en obtenir un troisième, ces formes “multiplient” deux vecteurs pour obtenir un scalaire.
La bilinéarité (pour les espaces réels) signifie que l’application se comporte comme une multiplication distributive. Si on fixe le deuxième vecteur, l’application est linéaire par rapport au premier, et vice-versa.
La sesquilinéarité (pour les espaces complexes) est une adaptation nécessaire pour obtenir des propriétés géométriques intéressantes, comme une “longueur” (norme) qui soit un nombre réel positif. La semi-linéarité à droite, avec le conjugué, assure cette propriété.
La symétrie (ou symétrie hermitienne) est une condition naturelle qui garantit que “l’ordre des vecteurs ne change pas le résultat” (ou le change d’une manière prévisible, par conjugaison).
Exemples
Exemple 1 (Forme bilinéaire symétrique sur R2)
Soit E=R2. Pour x=(x1,x2) et y=(y1,y2), on définit φ(x,y)=x1y1+x2y2. C’est le produit scalaire standard.
Linéarité à gauche : φ(λu+v,w)=(λu1+v1)w1+(λu2+v2)w2=λ(u1w1+u2w2)+(v1w1+v2w2)=λφ(u,w)+φ(v,w).
Soit E=Rn[X] l’espace des polynômes de degré ≤n. L’application φ(P,Q)=∫01P(t)Q(t)dt est une forme bilinéaire symétrique. La linéarité découle de la linéarité de l’intégrale. La symétrie est évidente car P(t)Q(t)=Q(t)P(t).
Contre-exemples
Contre-exemple 1 (Non bilinéaire)
Sur R2, soit φ(x,y)=x1y1+1. Cette forme n’est pas bilinéaire car φ(2x,y)=(2x1)y1+1=2x1y1+1, ce qui est différent de 2φ(x,y)=2(x1y1+1)=2x1y1+2.
Contre-exemple 2 (Bilinéaire mais non symétrique)
Sur R2, soit φ(x,y)=x1y2−x2y1 (le déterminant). C’est une forme bilinéaire. Cependant, φ(y,x)=y1x2−y2x1=−(x1y2−x2y1)=−φ(x,y). Elle est donc anti-symétrique, et non symétrique (sauf si elle est nulle).
Concepts Liés
Produit Scalaire : Un produit scalaire est un cas particulier de forme bilinéaire symétrique (ou sesquilinéaire hermitienne) qui est de plus “définie positive”. C’est le concept central de ce chapitre.
Matrice de Gram : Toute forme bilinéaire ou sesquilinéaire sur un espace de dimension finie peut être représentée par une matrice une fois qu’une base est choisie.
Concept 2: Produit Scalaire et Espaces Préhilbertiens
Prérequis
Concept 1 : Formes Bilinéaires et Sesquilinéaires.
Algèbre Linéaire : Espaces vectoriels, notion de positivité pour les nombres réels.
Définition
Soit E un espace vectoriel de dimension finie sur K (R ou C).
Soit φ:E×E→K une forme.
Si K=R, φ est une forme bilinéaire symétrique.
Si K=C, φ est une forme sesquilinéaire hermitienne.
On dit que φ est positive si pour tout vecteur x∈E, φ(x,x)≥0. (Note : si la forme est hermitienne, φ(x,x)=φ(x,x), donc φ(x,x) est toujours un nombre réel, ce qui rend la condition de positivité bien définie).
On dit que φ est définie si pour tout vecteur x∈E, l’implication suivante est vraie :
φ(x,x)=0⟹x=0E
où 0E est le vecteur nul de E.
Un produit scalaire (noté ⟨⋅,⋅⟩) est une forme qui est à la fois positive et définie.
Sur un espace réel, c’est une forme bilinéaire symétrique définie positive.
Sur un espace complexe, c’est une forme sesquilinéaire hermitienne définie positive.
Un espace vectoriel muni d’un produit scalaire est appelé un espace préhilbertien.
S’il est réel et de dimension finie, on l’appelle espace Euclidien.
S’il est complexe et de dimension finie, on l’appelle espace Hermitien.
Explications Détaillées
Un produit scalaire dote un espace vectoriel d’une structure géométrique. Il permet de définir des notions intuitives comme la longueur d’un vecteur, l’angle entre deux vecteurs, et l’orthogonalité.
La condition de symétrie (ou hermitienne) assure que ⟨x,y⟩ et ⟨y,x⟩ sont liés de manière simple.
La positivité (⟨x,x⟩≥0) est essentielle pour que la “longueur au carré” d’un vecteur soit positive ou nulle.
La condition définie (⟨x,x⟩=0⟺x=0E) garantit que seul le vecteur nul a une longueur nulle. C’est ce qui permet de distinguer des vecteurs non nuls.
En résumé, un produit scalaire est l’outil algébrique qui capture les propriétés fondamentales du produit scalaire usuel que l’on connaît dans R2 ou R3.
Exemples
Exemple 1 (Produit scalaire canonique sur Rn)
Soit E=Rn. Pour x=(x1,…,xn) et y=(y1,…,yn), le produit scalaire canonique est ⟨x,y⟩=∑i=1nxiyi.
C’est une forme bilinéaire symétrique.
Positive : ⟨x,x⟩=∑i=1nxi2≥0, car c’est une somme de carrés de réels.
Définie : Si ⟨x,x⟩=∑i=1nxi2=0, alors chaque xi2 doit être nul (car ils sont tous positifs). Donc xi=0 pour tout i, ce qui signifie x=0E.
(Rn,⟨⋅,⋅⟩) est donc un espace euclidien.
Exemple 2 (Produit scalaire canonique sur Cn)
Soit E=Cn. Pour x=(x1,…,xn) et y=(y1,…,yn), le produit scalaire canonique est ⟨x,y⟩=∑i=1nxiyiˉ.
C’est une forme sesquilinéaire hermitienne.
Positive : ⟨x,x⟩=∑i=1nxixiˉ=∑i=1n∣xi∣2≥0, car le module au carré est un réel positif.
Définie : Si ⟨x,x⟩=∑i=1n∣xi∣2=0, alors chaque ∣xi∣2 doit être nul, donc xi=0 pour tout i, et x=0E.
(Cn,⟨⋅,⋅⟩) est un espace hermitien.
Exemple 3 (Produit scalaire sur un espace de fonctions)
Soit E=C([a,b],R) l’espace des fonctions continues de [a,b] dans R. On définit ⟨f,g⟩=∫abf(t)g(t)dt.
C’est une forme bilinéaire symétrique.
Positive : ⟨f,f⟩=∫abf(t)2dt≥0 car f(t)2≥0 et l’intégrale d’une fonction positive est positive.
Définie : Si ⟨f,f⟩=∫abf(t)2dt=0, comme f2 est continue et positive, cela implique que f(t)2=0 pour tout t∈[a,b], donc f(t)=0 pour tout t. La fonction f est la fonction nulle.
C’est donc un produit scalaire.
Contre-exemples
Contre-exemple 1 (Positive mais non définie)
Sur R2, soit φ(x,y)=x1y1.
C’est une forme bilinéaire symétrique.
Positive : φ(x,x)=x12≥0.
Non définie : Soit x=(0,1). C’est un vecteur non nul, mais φ(x,x)=02=0. La condition “définie” n’est pas remplie.
Contre-exemple 2 (Non positive)
Sur R2, soit φ(x,y)=x1y1−x2y2 (la forme de Minkowski en 2D).
C’est une forme bilinéaire symétrique.
Non positive : Soit x=(0,1). Alors φ(x,x)=02−12=−1<0.
Concepts Liés
Norme : Tout produit scalaire induit naturellement une notion de longueur, appelée norme.
Inégalité de Cauchy-Schwarz : Une inégalité fondamentale qui relie le produit scalaire de deux vecteurs à leurs longueurs.
Orthogonalité : Deux vecteurs sont dits orthogonaux si leur produit scalaire est nul.
Concept 3: Inégalité de Cauchy-Schwarz
Prérequis
Concept 2 : Produit Scalaire.
Analyse : Polynômes du second degré, discriminant.
Définition
Soit (E,⟨⋅,⋅⟩) un espace euclidien ou hermitien. Pour tous vecteurs x,y∈E, on a l’inégalité suivante :
∣⟨x,y⟩∣≤⟨x,x⟩⟨y,y⟩
En utilisant la notation de la norme ∥x∥=⟨x,x⟩, l’inégalité s’écrit :
∣⟨x,y⟩∣≤∥x∥∥y∥
De plus, il y a égalité si et seulement si les vecteurs x et y sont colinéaires (c’est-à-dire, il existe un scalaire λ tel que x=λy ou y=λx).
Explications Détaillées
L’inégalité de Cauchy-Schwarz est l’un des résultats les plus importants des espaces préhilbertiens. Elle établit un lien fondamental entre le produit scalaire (qui contient des informations sur l’angle) et la norme (la longueur).
L’idée de la preuve (dans le cas réel) est d’étudier la fonction f(λ)=⟨x+λy,x+λy⟩=∥x+λy∥2.
Par la propriété de positivité du produit scalaire, on sait que f(λ)≥0 pour tout λ∈R.
En développant par bilinéarité, on obtient :
f(λ)=⟨x,x⟩+2λ⟨x,y⟩+λ2⟨y,y⟩=∥x∥2+2λ⟨x,y⟩+λ2∥y∥2.
C’est un polynôme du second degré en λ. Puisqu’il est toujours positif ou nul, son discriminant doit être négatif ou nul :
Δ=(2⟨x,y⟩)2−4∥y∥2∥x∥2≤0
4⟨x,y⟩2≤4∥x∥2∥y∥2
⟨x,y⟩2≤∥x∥2∥y∥2
En prenant la racine carrée, on obtient ∣⟨x,y⟩∣≤∥x∥∥y∥.
Le cas d’égalité, Δ=0, correspond à l’existence d’une racine réelle unique λ0. Pour cette valeur, ∥x+λ0y∥2=0. Comme le produit scalaire est défini, cela implique x+λ0y=0E, c’est-à-dire que x et y sont colinéaires.
Exemples
Exemple 1 (Dans Rn)
Soient x=(x1,…,xn) et y=(y1,…,yn) deux vecteurs de Rn. L’inégalité s’écrit :
∣∑i=1nxiyi∣≤(∑i=1nxi2)1/2(∑i=1nyi2)1/2
Par exemple, pour x=(1,2) et y=(3,4) dans R2:
⟨x,y⟩=1⋅3+2⋅4=11.
∥x∥=12+22=5.
∥y∥=32+42=25=5.
On vérifie : ∣11∣≤5⋅5≈11.18. L’inégalité est respectée.
Exemple 2 (Dans l’espace des fonctions continues)
Soit E=C([0,1],R) avec le produit scalaire ⟨f,g⟩=∫01f(t)g(t)dt. L’inégalité de Cauchy-Schwarz devient l’inégalité de Bouniakowsky-Schwarz :
∫01f(t)g(t)dt≤(∫01f(t)2dt)1/2(∫01g(t)2dt)1/2
Pour f(t)=t et g(t)=1:
⟨f,g⟩=∫01t⋅1dt=[t2/2]01=1/2.
∥f∥2=∫01t2dt=[t3/3]01=1/3⟹∥f∥=1/3.
∥g∥2=∫0112dt=[t]01=1⟹∥g∥=1.
On vérifie : ∣1/2∣≤(1/3)⋅1≈0.577. L’inégalité est respectée.
Exemple 3 (Cas d’égalité)
Soient x=(1,2,3) et y=(2,4,6) dans R3. On a y=2x, donc ils sont colinéaires.
⟨x,y⟩=1⋅2+2⋅4+3⋅6=2+8+18=28.
∥x∥=12+22+32=14.
∥y∥=22+42+62=4+16+36=56=4⋅14=214.
On vérifie : ∣⟨x,y⟩∣=28 et ∥x∥∥y∥=14⋅214=2⋅14=28. Il y a bien égalité.
Contre-exemples
Il n’y a pas de “contre-exemple” à un théorème valide. On peut montrer des cas où une inégalité similaire serait fausse si l’on n’utilisait pas un produit scalaire.
Contre-exemple 1 (Avec une forme non positive)
Dans R2 avec la forme de Minkowski φ(x,y)=x1y1−x2y2. Soit x=(1,2) et y=(1,2).
∣φ(x,y)∣=∣1−4∣=3. Mais φ(x,x)φ(y,y)=−3−3 n’est même pas un nombre réel. L’inégalité n’a pas de sens.
Contre-exemple 2 (Rappel du cas de non-égalité)
Pour des vecteurs non colinéaires, l’inégalité est stricte. Reprenons x=(1,2) et y=(3,4). On a bien ∣11∣<55.
Concepts Liés
Norme : L’inégalité est cruciale pour démontrer que la norme induite par un produit scalaire vérifie l’inégalité triangulaire.
Angle entre deux vecteurs : Dans un espace euclidien, on définit le cosinus de l’angle θ entre deux vecteurs non nuls x et y par cos(θ)=∥x∥∥y∥⟨x,y⟩. L’inégalité de Cauchy-Schwarz garantit que cette valeur est bien comprise entre -1 et 1.
Concept 4: Norme Associée et ses Propriétés
Prérequis
Concept 2 : Produit Scalaire.
Concept 3 : Inégalité de Cauchy-Schwarz.
Algèbre Linéaire : Définition d’une norme.
Définition
Soit (E,⟨⋅,⋅⟩) un espace euclidien ou hermitien. La norme associée au produit scalaire est l’application ∥⋅∥:E→R+ définie pour tout vecteur x∈E par :
∥x∥=⟨x,x⟩
Cette application est bien définie car ⟨x,x⟩≥0 (positivité du produit scalaire). Une norme issue d’un produit scalaire est dite euclidienne (ou hermitienne).
Cette norme vérifie les trois axiomes qui définissent une norme sur un espace vectoriel :
Séparation : Pour tout x∈E, ∥x∥=0⟺x=0E.
Homogénéité : Pour tout x∈E et tout λ∈K, ∥λx∥=∣λ∣∥x∥.
Inégalité triangulaire (ou de Minkowski) : Pour tout x,y∈E, ∥x+y∥≤∥x∥+∥y∥.
Explications Détaillées
La norme est l’abstraction de la notion de longueur d’un vecteur.
La propriété de séparation découle directement de la propriété “définie” du produit scalaire.
L’homogénéité montre comment la longueur d’un vecteur change lorsqu’on le multiplie par un scalaire : elle est multipliée par la valeur absolue (ou le module) du scalaire.
L’inégalité triangulaire est la propriété la plus profonde. Elle formalise l’idée que le chemin le plus court entre deux points est la ligne droite. La longueur du côté d’un triangle (x+y) est toujours inférieure ou égale à la somme des longueurs des deux autres côtés (x et y). Sa preuve repose de manière cruciale sur l’inégalité de Cauchy-Schwarz.
Propriétés Clés
Théorème de Pythagore : Si deux vecteurs x et y sont orthogonaux (c’est-à-dire ⟨x,y⟩=0), alors :
∥x+y∥2=∥x∥2+∥y∥2
Généralisation : Si v1,…,vn sont des vecteurs deux à deux orthogonaux, alors ∥∑i=1nvi∥2=∑i=1n∥vi∥2.
Identités de polarisation : Elles permettent de reconstituer le produit scalaire à partir de la norme, montrant que la norme contient toute l’information du produit scalaire.
Cas euclidien (K=R) : ⟨x,y⟩=21(∥x+y∥2−∥x∥2−∥y∥2).
Cas hermitien (K=C) : ⟨x,y⟩=41(∥x+y∥2−∥x−y∥2+i∥x−iy∥2−i∥x+iy∥2). (Une forme plus simple existe dans le texte)
Identité du parallélogramme : Pour tous vecteurs x,y∈E :
∥x+y∥2+∥x−y∥2=2(∥x∥2+∥y∥2)
Géométriquement, cela signifie que la somme des carrés des longueurs des diagonales d’un parallélogramme est égale à la somme des carrés des longueurs de ses quatre côtés. Cette identité caractérise les normes qui proviennent d’un produit scalaire.
Exemples
Exemple 1 (Norme euclidienne sur R3)
Soit x=(1,2,2)∈R3. La norme euclidienne est ∥x∥=12+22+22=1+4+4=9=3.
Exemple 2 (Théorème de Pythagore)
Dans R3, soient x=(1,0,0) et y=(0,1,0). Ils sont orthogonaux car ⟨x,y⟩=1⋅0+0⋅1+0⋅0=0.
x+y=(1,1,0).
∥x∥2=12=1.
∥y∥2=12=1.
∥x+y∥2=12+12+02=2.
On vérifie bien ∥x+y∥2=∥x∥2+∥y∥2⟹2=1+1.
Exemple 3 (Identité du parallélogramme)
Dans R2, soient x=(2,1) et y=(1,3).
x+y=(3,4) et x−y=(1,−2).
∥x+y∥2=32+42=25.
∥x−y∥2=12+(−2)2=5.
∥x∥2=22+12=5.
∥y∥2=12+32=10.
On vérifie : ∥x+y∥2+∥x−y∥2=25+5=30. Et 2(∥x∥2+∥y∥2)=2(5+10)=30. L’identité est vérifiée.
Contre-exemples
Contre-exemple 1 (Norme non euclidienne)
Sur R2, considérons la “norme 1” : ∥x∥1=∣x1∣+∣x2∣. C’est une norme valide.
Soient x=(1,0) et y=(0,1).
∥x∥1=1, ∥y∥1=1.
x+y=(1,1), x−y=(1,−1).
∥x+y∥1=∣1∣+∣1∣=2, ∥x−y∥1=∣1∣+∣−1∣=2.
Vérifions l’identité du parallélogramme :
∥x+y∥12+∥x−y∥12=22+22=8.
2(∥x∥12+∥y∥12)=2(12+12)=4.
Puisque 8=4, l’identité du parallélogramme n’est pas vérifiée. Cette norme ne provient donc d’aucun produit scalaire.
Contre-exemple 2 (Non-application de Pythagore)
Avec la même norme ∥⋅∥1, si on définit l’orthogonalité par le produit scalaire usuel, x=(1,0) et y=(0,1) sont orthogonaux.
∥x∥12=12=1, ∥y∥12=12=1.
∥x+y∥12=22=4.
On voit que ∥x+y∥12=∥x∥12+∥y∥12. Le théorème de Pythagore ne s’applique qu’aux normes euclidiennes.
Concepts Liés
Distance : La norme permet de définir la distance entre deux vecteurs x et y comme d(x,y)=∥x−y∥.
Vecteur unitaire : Un vecteur u est dit unitaire si sa norme est 1, i.e., ∥u∥=1. “Normaliser” un vecteur non nul x consiste à le diviser par sa norme : u=x/∥x∥.
Concept 5: Orthogonalité et Bases Orthonormées
Prérequis
Concept 2 : Produit Scalaire.
Concept 4 : Norme Associée.
Algèbre Linéaire : Bases d’un espace vectoriel, famille libre.
Définition
Soit (E,⟨⋅,⋅⟩) un espace euclidien ou hermitien.
Orthogonalité :
Deux vecteurs x,y∈E sont dits orthogonaux si leur produit scalaire est nul : ⟨x,y⟩=0. On note parfois x⊥y.
Une famille de vecteurs (v1,…,vk) est dite orthogonale si ses vecteurs sont deux à deux orthogonaux, c’est-à-dire ∀i=j,⟨vi,vj⟩=0.
Orthonormalité :
Une famille de vecteurs (e1,…,ek) est dite orthonormée (ou orthonormale) si elle est orthogonale et si tous ses vecteurs sont unitaires (de norme 1). C’est-à-dire :
∀i,j∈{1,…,k},⟨ei,ej⟩=δij
où δij est le symbole de Kronecker (δij=1 si i=j et δij=0 si i=j).
Base Orthonormée :
Une base orthonormée (B.O.N.) d’un espace E est une base de E qui est aussi une famille orthonormée.
Propriétés Clés
Indépendance linéaire : Toute famille orthogonale composée de vecteurs non nuls est une famille libre. Par conséquent, une famille orthonormée est toujours libre.
Simplification des calculs : Le principal intérêt des bases orthonormées est qu’elles simplifient énormément les calculs de coordonnées, produits scalaires et normes.
Soit B=(e1,…,en) une base orthonormée de E.
Coordonnées : Pour tout x∈E, ses coordonnées (x1,…,xn) dans la base B sont données par xi=⟨x,ei⟩ (dans le cas hermitien, c’est la même chose car on projette sur ei).
On a donc la décomposition très utile :
x=∑i=1n⟨x,ei⟩ei
Produit Scalaire : Si x=∑xiei et y=∑yiei, alors le produit scalaire devient le produit scalaire canonique des coordonnées :
Cas euclidien : ⟨x,y⟩=∑i=1nxiyi.
Cas hermitien : ⟨x,y⟩=∑i=1nxiyiˉ.
Norme (Identité de Parseval) : ∥x∥2=∑i=1n∣xi∣2=∑i=1n∣⟨x,ei⟩∣2.
Matrice de Gram : La matrice de Gram d’une base (v1,…,vn) est G=(⟨vi,vj⟩)ij. Une base est orthonormée si et seulement si sa matrice de Gram est la matrice identité In.
Exemples
Exemple 1 (Base canonique de Rn)
Dans Rn muni du produit scalaire usuel, la base canonique (e1,…,en) où ei=(0,…,1,…,0) (le 1 est en i-ème position) est une base orthonormée.
⟨ei,ei⟩=12=1 (normée).
⟨ei,ej⟩=0 pour i=j (orthogonale).
Exemple 2 (Une base orthonormée de R2)
Dans R2, la famille B=(u1,u2) avec u1=(21,21) et u2=(−21,21) est une base orthonormée.
∥u1∥2=(21)2+(21)2=21+21=1.
∥u2∥2=(−21)2+(21)2=21+21=1.
⟨u1,u2⟩=21(−21)+21(21)=−21+21=0.
C’est la base canonique tournée de 45 degrés.
Exemple 3 (Polynômes de Legendre - orthogonalisation)
Sur l’espace R2[X] avec le produit scalaire ⟨P,Q⟩=∫−11P(t)Q(t)dt. La base canonique (1,X,X2) n’est pas orthonormée.
⟨1,X⟩=∫−11tdt=0. Donc 1 et X sont orthogonaux.
⟨1,X2⟩=∫−11t2dt=[t3/3]−11=2/3=0.
∥1∥2=∫−1112dt=2.
Pour la rendre orthonormée, il faudrait utiliser le procédé de Gram-Schmidt.
Contre-exemples
Contre-exemple 1 (Orthogonale mais pas orthonormée)
Dans R2, la famille v1=(2,0),v2=(0,3) est orthogonale : ⟨v1,v2⟩=0.
Cependant, elle n’est pas orthonormée car ∥v1∥=2 et ∥v2∥=3. Pour la normaliser, on prendrait e1=v1/2=(1,0) et e2=v2/3=(0,1).
Contre-exemple 2 (Base non orthogonale)
Dans R2, la base v1=(1,0),v2=(1,1) est une base valide, mais elle n’est pas orthogonale.
⟨v1,v2⟩=1⋅1+0⋅1=1=0.
Concepts Liés
Procédé d’Orthonormalisation de Gram-Schmidt : L’algorithme qui permet de construire une base orthonormée à partir de n’importe quelle base.
Projection Orthogonale : La décomposition d’un vecteur sur une base orthonormée est une somme de projections orthogonales sur les lignes générées par chaque vecteur de base.
Concept 6: Procédé d’Orthonormalisation de Gram-Schmidt
Prérequis
Concept 5 : Orthogonalité et Bases Orthonormées.
Algèbre Linéaire : Famille libre, base, sous-espace vectoriel engendré.
Définition
Le procédé de Gram-Schmidt est un algorithme qui permet de transformer une base quelconque (v1,…,vn) d’un espace euclidien ou hermitien E en une base orthonormée (e1,…,en).
L’algorithme fonctionne par récurrence. On construit la famille (e1,…,en) étape par étape de telle sorte que pour tout k∈{1,…,n}, le sous-espace engendré par les k premiers vecteurs soit le même :
Vect(e1,…,ek)=Vect(v1,…,vk)
Algorithme :
Soit (v1,…,vn) une base de E.
Étape 1 : On normalise le premier vecteur.
On pose e1=∥v1∥v1.
Étape k+1 (pour k=1,…,n−1) : On suppose avoir construit une famille orthonormée (e1,…,ek) telle que Vect(e1,…,ek)=Vect(v1,…,vk).
a. Orthogonalisation : On prend le vecteur suivant vk+1 et on lui soustrait sa projection sur le sous-espace déjà construit, Vect(e1,…,ek). On obtient un vecteur ek+1′ qui est orthogonal à tous les ej pour j≤k.
ek+1′=vk+1−∑j=1k⟨vk+1,ej⟩ej
b. Normalisation : On normalise le vecteur ek+1′ pour obtenir ek+1.
ek+1=∥ek+1′∥ek+1′
Le résultat principal est le Corollaire 1.2.4 : Tout espace euclidien ou hermitien de dimension finie possède une base orthonormée.
Explications Détaillées
L’idée fondamentale de l’étape k+1 est de “nettoyer” le vecteur vk+1 de toutes ses composantes qui se trouvent dans la direction des vecteurs e1,…,ek déjà construits. Le terme ⟨vk+1,ej⟩ej est précisément la projection du vecteur vk+1 sur la droite dirigée par le vecteur unitaire ej. En soustrayant la somme de ces projections, on obtient un vecteur ek+1′ qui est par construction dans l’orthogonal du sous-espace Vect(e1,…,ek).
Comme la famille (v1,…,vn) est une base, vk+1 n’est pas dans Vect(v1,…,vk)=Vect(e1,…,ek). Par conséquent, le vecteur ek+1′ ne peut pas être le vecteur nul, et on peut donc toujours le normaliser.
Exemples
Exemple 1 (Tiré du cours, sur R3)
Soit E=R3 avec le produit scalaire usuel. On part de la base v1=(1,0,0), v2=(1,1,0), v3=(1,1,1).
On obtient le vecteur nul. On ne peut pas le normaliser. L’algorithme échoue car la famille de départ n’était pas libre.
Contre-exemples
L’algorithme de Gram-Schmidt n’a pas de “contre-exemple” au sens d’une situation où il donnerait un mauvais résultat à partir d’une base. Le seul cas d’échec est celui où la famille de départ n’est pas libre, comme vu dans l’Exemple 3. Dans ce cas, l’algorithme produit le vecteur nul à une certaine étape, ce qui signifie que le vecteur de départ correspondant était une combinaison linéaire des précédents.
Concepts Liés
Projection Orthogonale : Le cœur de l’algorithme est de calculer et soustraire la projection d’un vecteur sur un sous-espace. La formule ∑j=1k⟨vk+1,ej⟩ej est précisément la formule du projeté orthogonal de vk+1 sur Vect(e1,…,ek).
Décomposition QR : L’algorithme de Gram-Schmidt est la base de la décomposition QR d’une matrice, une technique très importante en algèbre linéaire numérique.
Soit A⊂E une partie de E. L’orthogonal de A, noté A⊥, est l’ensemble des vecteurs de E qui sont orthogonaux à tous les vecteurs de A :
A⊥:={x∈E∣∀a∈A,⟨x,a⟩=0}
A⊥ est toujours un sous-espace vectoriel de E.
Somme directe orthogonale
Si F est un sous-espace vectoriel de E, alors E est la somme directe de F et de son orthogonal F⊥ :
E=F⊕F⊥
Cela signifie que tout vecteur x∈E peut s’écrire de manière unique comme la somme d’un vecteur de F et d’un vecteur de F⊥: x=xF+xF⊥.
Projection orthogonale
L’application PF:E→E qui à un vecteur x associe sa composante xF dans la décomposition ci-dessus est appelée la projection orthogonale sur F.
C’est un projecteur : PF∘PF=PF.
Son image est F : Im(PF)=F.
Son noyau est F⊥ : Ker(PF)=F⊥.
Formule de calcul : Si (e1,…,ep) est une base orthonormée de F, alors pour tout x∈E :
PF(x)=∑i=1p⟨x,ei⟩ei
Distance à un sous-espace
La distance d’un point x à un sous-espace F est définie par :
d(x,F):=infy∈F∥x−y∥
Propriétés Clés
Théorème de la meilleure approximation (Théorème 1.3.3)
Le projeté orthogonal PF(x) est l’unique vecteur de F qui est le plus proche de x. Autrement dit, la distance de x à F est atteinte en y=PF(x) et seulement en ce point.
d(x,F)=∥x−PF(x)∥
De plus, le vecteur x−PF(x) est la composante de x dans F⊥, donc x−PF(x)∈F⊥.
Explications Détaillées
La projection orthogonale est une notion géométrique fondamentale. Imaginez un point x et un plan F dans l’espace R3. Le projeté orthogonal de x sur F est le “pied de la perpendiculaire” abaissée de x sur le plan. C’est le point du plan qui est le plus proche de x. La distance de x au plan est la longueur du segment qui relie x à son projeté.
La formule de calcul de PF(x) est très puissante : elle ramène le problème géométrique de la projection à une série de calculs de produits scalaires avec les vecteurs d’une base orthonormée de F. C’est une raison de plus pour laquelle les bases orthonormées sont si utiles.
La preuve du théorème de la meilleure approximation utilise le théorème de Pythagore. Pour tout y∈F, on a x−y=(x−PF(x))+(PF(x)−y). Le premier terme, x−PF(x), est dans F⊥. Le second terme, PF(x)−y, est une différence de deux vecteurs de F, il est donc dans F. Ces deux termes sont orthogonaux. Par Pythagore :
∥x−y∥2=∥x−PF(x)∥2+∥PF(x)−y∥2.
Cette quantité est minimale lorsque ∥PF(x)−y∥2=0, c’est-à-dire quand y=PF(x).
Exemples
Exemple 1 (Projection sur une droite dans R2)
Soit E=R2 et F la droite dirigée par le vecteur v=(3,4). On veut projeter le point x=(10,5) sur F.
Trouver une B.O.N. de F : F est de dimension 1. On normalise v.
∥v∥=32+42=5. Une base orthonormée de F est (e1) avec e1=5v=(3/5,4/5).
Exemple 3 (Projection dans un espace de polynômes)
Soit E=R2[X] avec ⟨P,Q⟩=∫−11P(t)Q(t)dt. Soit F=R1[X]. On veut projeter P(X)=X2 sur F. Une base orthogonale de F est (1,X). On normalise : ∥1∥2=2,∥X∥2=2/3. Une B.O.N de F est (e1,e2) avec e1=21, e2=23X.
PF(X2)=⟨X2,e1⟩e1+⟨X2,e2⟩e2.
⟨X2,e1⟩=∫−11t221dt=21[3t3]−11=322.
⟨X2,e2⟩=∫−11t223tdt=0 (intégrale d’une fonction impaire).
PF(X2)=322e1+0⋅e2=32221=62=1/3.
La meilleure approximation de X2 par un polynôme de degré ≤1 sur [−1,1] est le polynôme constant 1/3.
Contre-exemples
Contre-exemple 1 (Projection non orthogonale)
Dans R2, considérons la projection p sur l’axe des abscisses (F=Vect((1,0))) parallèlement à la droite dirigée par d=(1,1).
p((x,y))=(x−y,0). Prenons le point A=(2,2). Son projeté est p(A)=(0,0).
La distance de A à F est 2 (atteinte au point (2,0)). Mais ∥A−p(A)∥=∥(2,2)−(0,0)∥=8=2. Une projection non orthogonale ne minimise pas la distance euclidienne.
Contre-exemple 2 (Unicité du minimum)
Le théorème garantit que le minimum de la distance est atteint uniquement au projeté orthogonal. Tout autre point y∈F sera strictement plus loin de x que PF(x).
Concepts Liés
Procédé de Gram-Schmidt : La formule de Gram-Schmidt vk+1−∑⟨vk+1,ej⟩ej calcule la composante de vk+1 orthogonale au sous-espace Vect(e1,…,ek).
Moindres carrés : En statistiques et en analyse de données, la méthode des moindres carrés consiste à trouver la “meilleure” solution à un système d’équations surdéterminé. Ce problème est équivalent à trouver la projection orthogonale d’un vecteur sur un sous-espace.
Concept 8: Endomorphisme Adjoint
Prérequis
Algèbre Linéaire : Endomorphismes, matrice d’un endomorphisme dans une base.
Concept 2 : Produit Scalaire.
Concept 5 : Bases Orthonormées.
Définition
Soit (E,⟨⋅,⋅⟩) un espace euclidien ou hermitien de dimension finie. Soit f:E→E un endomorphisme (une application linéaire de E dans E).
L’adjoint de f, noté f∗, est l’unique endomorphisme de E qui vérifie la relation suivante pour tous les vecteurs x,y∈E :
⟨f(x),y⟩=⟨x,f∗(y)⟩
L’existence et l’unicité de f∗ sont garanties en dimension finie (c’est une conséquence du théorème de représentation de Riesz).
Explications Détaillées
L’adjoint est en quelque sorte le “pendant” d’un endomorphisme par rapport au produit scalaire. Il permet de “transférer” l’action de l’endomorphisme d’un côté du produit scalaire à l’autre. Cette opération de transfert est fondamentale pour étudier les propriétés géométriques des endomorphismes (conservation des longueurs, des angles, etc.).
Dans le cas hermitien (complexe), la semi-linéarité à droite du produit scalaire fait que la définition ⟨f(x),y⟩=⟨x,f∗(y)⟩ est la plus naturelle et mène aux propriétés les plus intéressantes.
La manière la plus simple de comprendre l’adjoint est à travers sa représentation matricielle.
Propriétés Clés
Matrice de l’adjoint : Soit B une base orthonormée de E. Si A=MatB(f) est la matrice de f dans cette base, alors la matrice de l’adjoint f∗ dans la même base, notée A∗=MatB(f∗), est :
Cas euclidien (K=R) : La transposée de A.
A∗=tA
Cas hermitien (K=C) : La transconjuguée (ou adjointe) de A.
A∗=tA
Attention : Cette relation simple n’est vraie que dans une base orthonormée.
Propriétés algébriques :
(f+g)∗=f∗+g∗
(λf)∗=λˉf∗
(f∘g)∗=g∗∘f∗ (l’ordre est inversé)
(f∗)∗=f
Lien entre Noyau et Image :
Ker(f)=(Im(f∗))⊥
Im(f)=(Ker(f∗))⊥
Ces relations sont extrêmement utiles. Par exemple, un vecteur est dans le noyau de f si et seulement s’il est orthogonal à l’image de f∗.
Exemples
Exemple 1 (Cas réel, R2)
Soit E=R2 avec le produit scalaire usuel. Soit f l’endomorphisme dont la matrice dans la base canonique (qui est orthonormée) est A=(1234).
La matrice de l’adjoint f∗ est A∗=tA=(1324).
Vérifions la définition pour x=(x1,x2) et y=(y1,y2).
Soit E=C2 avec le produit scalaire usuel. Matrice de f dans la base canonique : A=(11−ii2).
La matrice de l’adjoint f∗ est A∗=tA=(1i1−i2)=(1−i1+i2).
Exemple 3 (Opérateur de dérivation)
Cet exemple est de dimension infinie, mais illustre bien l’idée. Soit E l’espace des fonctions C∞2π-périodiques, avec ⟨f,g⟩=∫02πf(t)g(t)dt. Soit D l’opérateur de dérivation D(f)=f′.
Cela équivaut à la condition : ∀x,y∈E,⟨f(x),y⟩=⟨x,f(y)⟩.
Dans une base orthonormée, sa matrice A vérifie :
Cas euclidien : A=tA (matrice symétrique).
Cas hermitien : A=tA (matrice hermitienne).
Endomorphisme unitaire (ou orthogonal)
f est dit unitaire (cas complexe) ou orthogonal (cas réel) s’il préserve le produit scalaire. C’est-à-dire :
∀x,y∈E,⟨f(x),f(y)⟩=⟨x,y⟩
Cela équivaut à f∗∘f=Id, et comme on est en dimension finie, aussi à f∘f∗=Id et f−1=f∗.
Dans une base orthonormée, sa matrice A vérifie A∗A=I, i.e. tAA=I (cas réel) ou tAA=I (cas complexe).
Endomorphisme normal
f est dit normal si f et son adjoint f∗ commutent :
f∘f∗=f∗∘f
Dans une base orthonormée, sa matrice A vérifie AA∗=A∗A.
Propriétés Clés
Relations entre les classes :
Tout endomorphisme auto-adjoint est normal (f=f∗⟹ff∗=f2=f∗f).
Tout endomorphisme unitaire/orthogonal est normal (f−1=f∗⟹ff∗=ff−1=Id=f−1f=f∗f).
La réciproque est fausse : un endomorphisme normal n’est pas forcément auto-adjoint ou unitaire.
Propriétés des endomorphismes unitaires/orthogonaux :
Ils préservent la norme : ∥f(x)∥=∥x∥. Ce sont des isométries.
Ils transforment une base orthonormée en une autre base orthonormée.
Géométriquement, en dimension 2 ou 3, les endomorphismes orthogonaux sont des rotations, des réflexions, ou des composées de celles-ci.
Théorème Spectral (Hors programme, mais fondamental) : La grande importance des endomorphismes normaux (et donc des auto-adjoints et unitaires) est qu’ils sont toujours diagonalisables dans une base orthonormée (dans C). Les endomorphismes auto-adjoints sont diagonalisables dans une base orthonormée dans R.
Exemples
Exemple 1 (Auto-adjoint / Symétrique)
Dans R3 avec base canonique, l’endomorphisme de matrice A=123245356 est auto-adjoint car A est symétrique.
Exemple 2 (Unitaire / Orthogonal)
Dans R2, l’endomorphisme de rotation d’angle θ a pour matrice Rθ=(cosθsinθ−sinθcosθ).
Il est orthogonal car tRθRθ=(cosθ−sinθsinθcosθ)(cosθsinθ−sinθcosθ)=(cos2θ+sin2θ00sin2θ+cos2θ)=(1001)=I2.
Exemple 3 (Normal, mais ni auto-adjoint ni unitaire)
Dans C2, soit l’endomorphisme de matrice A=(1ii1).
Contre-exemple 1 (Ni normal, ni auto-adjoint, ni unitaire)
Dans R2, soit l’endomorphisme de matrice A=(1011) (un cisaillement).
A=tA, donc pas auto-adjoint.
tAA=(1101)(1011)=(1112)=I, donc pas orthogonal.
AtA=(1011)(1101)=(2111).
tAA=(1112).
Puisque AtA=tAA, il n’est pas normal.
Concepts Liés
Diagonalisation : Les propriétés de ces endomorphismes sont intimement liées à leur diagonalisabilité. Le théorème spectral est l’un des résultats les plus importants de l’algèbre linéaire.
Isométries : Les endomorphismes unitaires et orthogonaux sont les isométries vectorielles, c’est-à-dire les transformations qui préservent les distances et les angles.
Concept 10: Théorème de Représentation de Riesz
Prérequis
Algèbre Linéaire : Espace dual, formes linéaires.
Concept 2 : Produit Scalaire.
Définition
Soit E un espace vectoriel. L’espace dual de E, noté E∗, est l’espace vectoriel de toutes les formes linéaires sur E, c’est-à-dire les applications linéaires l:E→K.
Théorème de représentation de Riesz (en dimension finie)
Soit (E,⟨⋅,⋅⟩) un espace euclidien ou hermitien de dimension finie. Pour toute forme linéaire l∈E∗, il existe un unique vecteur yl∈E tel que pour tout x∈E, on ait :
l(x)=⟨x,yl⟩
Ce théorème établit une correspondance canonique entre l’espace E et son dual E∗.
Explications Détaillées
Une forme linéaire est une “mesure” d’un vecteur : elle prend un vecteur en entrée et renvoie un scalaire. Le théorème de Riesz nous dit que dans un espace euclidien ou hermitien, toute “mesure” linéaire peut être réalisée en faisant un produit scalaire avec un vecteur “représentant” fixe. Chaque forme linéaire a son propre vecteur représentant, et cette correspondance est unique.
L’application Φ:E→E∗ définie par Φ(y)=(x↦⟨x,y⟩) est :
Linéaire dans le cas euclidien : Φ est un isomorphisme d’espaces vectoriels.
Anti-linéaire (ou semi-linéaire) dans le cas hermitien : Φ(λy)=λˉΦ(y). C’est un anti-isomorphisme.
La preuve repose sur le fait que cette application Φ est injective (car le produit scalaire est défini) et que dim(E)=dim(E∗) en dimension finie. Une application (anti-)linéaire injective entre espaces de même dimension finie est un (anti-)isomorphisme, donc elle est surjective. La surjectivité signifie que toute forme linéaire l∈E∗ est l’image d’un certain y∈E, ce qui est exactement l’énoncé du théorème.
Exemples
Exemple 1 (Dans R3)
Soit E=R3 avec le produit scalaire usuel. Considérons la forme linéaire l:R3→R définie par l(x1,x2,x3)=2x1−x2+3x3.
Le théorème de Riesz affirme qu’il existe un unique vecteur yl=(y1,y2,y3) tel que l(x)=⟨x,yl⟩.
⟨x,yl⟩=x1y1+x2y2+x3y3.
Par identification, on doit avoir 2x1−x2+3x3=x1y1+x2y2+x3y3 pour tout x.
Cela impose y1=2,y2=−1,y3=3.
Le vecteur représentant de l est donc yl=(2,−1,3).
Exemple 2 (Tiré du cours, sur les polynômes)
Soit E=Rn[X]. On munit E d’un produit scalaire un peu inhabituel pour simplifier : si P(X)=∑aiXi et Q(X)=∑biXi, on pose ⟨P,Q⟩=∑aibi. (C’est le produit scalaire qui rend la base canonique (1,X,…,Xn) orthonormée).
Considérons la forme linéaire l(P)=∫01P(t)dt.
On cherche le polynôme Q0(X)=∑biXi tel que l(P)=⟨P,Q0⟩.
l(P)=∫01(∑aiti)dt=∑ai∫01tidt=∑aii+11.
D’autre part, ⟨P,Q0⟩=∑aibi.
Par identification des coefficients de ai, on doit avoir bi=i+11.
Le polynôme représentant est donc Q0(X)=∑i=0ni+11Xi=1+21X+31X2+…
Exemple 3 (Forme linéaire d’évaluation)
Soit E=R2[X] avec le produit scalaire ⟨P,Q⟩=∫01P(t)Q(t)dt.
Soit l(P)=P(0) (l’évaluation en 0). C’est une forme linéaire.
Le théorème de Riesz garantit qu’il existe un polynôme Q0∈R2[X] tel que P(0)=∫01P(t)Q0(t)dt pour tout polynôme P de degré ≤2. La recherche explicite de Q0 est plus complexe que dans les autres exemples et nécessite de résoudre un système linéaire.
Contre-exemples
Contre-exemple 1 (Espace sans produit scalaire)
Soit E=R2, mais sans produit scalaire défini. L’espace dual E∗ existe, mais il n’y a pas de moyen canonique de “représenter” une forme linéaire par un vecteur de E. Le concept même de ⟨x,y⟩ n’a pas de sens.
Contre-exemple 2 (Dimension infinie)
Le théorème est encore vrai pour les espaces de Hilbert (espaces préhilbertiens complets), qui sont généralement de dimension infinie. Cependant, il peut être faux pour des espaces préhilbertiens non complets. L’hypothèse de complétude (ou de dimension finie, qui implique la complétude) est cruciale.
Concepts Liés
Espace Dual : Le théorème établit un lien concret et puissant entre un espace et son dual, à condition qu’une structure euclidienne ou hermitienne soit présente.
Analyse Fonctionnelle : Le théorème de Riesz est un pilier de l’analyse fonctionnelle, où il est généralisé aux espaces de Hilbert de dimension infinie. Il est fondamental pour l’étude des équations aux dérivées partielles et de la mécanique quantique.