Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Espaces Euclidiens et Hermitiens - fiches de révision (B)

Prouver l'inégalité de Cauchy-Schwarz dans un espace préhilbertien complexe (E,,)(E, \langle \cdot, \cdot \rangle).

Solution

Théorème (Inégalité de Cauchy-Schwarz) : Pour tous vecteurs x,yEx, y \in E, on a x,yxy|\langle x, y \rangle| \le \|x\| \|y\|. L'égalité a lieu si et seulement si xx et yy sont colinéaires.

Preuve :

  1. Cas trivial : Si y=0Ey = 0_E, alors x,y=0\langle x, y \rangle = 0 et y=0\|y\| = 0. L'inégalité devient 000 \le 0, ce qui est vrai.

  2. Cas général (y0Ey \neq 0_E) : Pour tout scalaire λC\lambda \in \mathbb{C}, la positivité de la norme implique xλy20\|x - \lambda y\|^2 \ge 0. Développons cette expression :

    0xλy,xλy=x,xλy,xλˉx,y+λλˉy,y0 \le \langle x - \lambda y, x - \lambda y \rangle = \langle x, x \rangle - \lambda \langle y, x \rangle - \bar{\lambda} \langle x, y \rangle + \lambda \bar{\lambda} \langle y, y \rangle

    0x2λx,yλˉx,y+λ2y20 \le \|x\|^2 - \lambda \overline{\langle x, y \rangle} - \bar{\lambda} \langle x, y \rangle + |\lambda|^2 \|y\|^2

  3. Choix optimal de λ\lambda : Le minimum de la distance xλy\|x - \lambda y\| est atteint pour λy\lambda y égal à la projection de xx sur yy. On choisit donc λ=x,yy2\lambda = \frac{\langle x, y \rangle}{\|y\|^2}. Ce choix est bien défini car y0Ey \neq 0_E.

  4. Substitution : En remplaçant λ\lambda dans l'inégalité :

    0x2x,yy2x,yx,yy2x,y+x,y2y4y20 \le \|x\|^2 - \frac{\langle x, y \rangle}{\|y\|^2} \overline{\langle x, y \rangle} - \frac{\overline{\langle x, y \rangle}}{\|y\|^2} \langle x, y \rangle + \frac{|\langle x, y \rangle|^2}{\|y\|^4} \|y\|^2

    0x2x,y2y2x,y2y2+x,y2y20 \le \|x\|^2 - \frac{|\langle x, y \rangle|^2}{\|y\|^2} - \frac{|\langle x, y \rangle|^2}{\|y\|^2} + \frac{|\langle x, y \rangle|^2}{\|y\|^2}

    0x2x,y2y20 \le \|x\|^2 - \frac{|\langle x, y \rangle|^2}{\|y\|^2}

  5. Conclusion : En multipliant par y2>0\|y\|^2 > 0, on obtient x,y2x2y2|\langle x, y \rangle|^2 \le \|x\|^2 \|y\|^2. En prenant la racine carrée, on a l'inégalité voulue : x,yxy|\langle x, y \rangle| \le \|x\| \|y\|.

Cas d'égalité : L'égalité a lieu si et seulement si xλy2=0\|x - \lambda y\|^2 = 0, ce qui, par la propriété de définition de la norme, équivaut à xλy=0Ex - \lambda y = 0_E, c'est-à-dire x=λyx = \lambda y. La famille (x,y)(x, y) est donc liée. Réciproquement, si x=αyx = \alpha y, on a αy,y=αy,y=αy2|\langle \alpha y, y \rangle| = |\alpha| |\langle y, y \rangle| = |\alpha| \|y\|^2 et αyy=αyy=αy2\|\alpha y\|\|y\| = |\alpha|\|y\|\|y\| = |\alpha|\|y\|^2, d'où l'égalité.

Énoncer le théorème de Fréchet-von Neumann-Jordan et expliquer sa signification.

Solution

Théorème (Fréchet-von Neumann-Jordan) : Une norme \|\cdot\| sur un K\mathbb{K}-espace vectoriel EE (avec K=R\mathbb{K}=\mathbb{R} ou C\mathbb{C}) dérive d'un produit scalaire si et seulement si elle satisfait l'identité du parallélogramme :

x,yE,x+y2+xy2=2(x2+y2)\forall x,y \in E, \quad \|x+y\|^2 + \|x-y\|^2 = 2(\|x\|^2 + \|y\|^2)

Signification et implications :

Ce théorème fournit un critère fondamental pour déterminer si un espace normé est également un espace préhilbertien. Il établit un pont entre la structure géométrique (liée aux longueurs et aux parallélogrammes) et la structure algébrique d'un produit scalaire.

  • Suffisance : Si une norme vérifie cette identité, on peut construire explicitement le produit scalaire qui l'induit en utilisant les identités de polarisation.

    • Cas réel : x,y=14(x+y2xy2)\langle x, y \rangle = \frac{1}{4}(\|x+y\|^2 - \|x-y\|^2).
    • Cas complexe : x,y=14(x+y2xy2+ix+iy2ixiy2)\langle x, y \rangle = \frac{1}{4}(\|x+y\|^2 - \|x-y\|^2 + i\|x+iy\|^2 - i\|x-iy\|^2).

    La partie non triviale de la preuve consiste à montrer que les formes ainsi définies sont bien bilinéaires (ou sesquilinéaires) symétriques (ou hermitiennes) définies positives.

  • Nécessité : Si la norme dérive d'un produit scalaire, i.e., v2=v,v\|v\|^2 = \langle v, v \rangle, la vérification de l'identité est un calcul direct :

    x+y2=x2+2Re(x,y)+y2\|x+y\|^2 = \|x\|^2 + 2\text{Re}(\langle x,y \rangle) + \|y\|^2

    xy2=x22Re(x,y)+y2\|x-y\|^2 = \|x\|^2 - 2\text{Re}(\langle x,y \rangle) + \|y\|^2

    En les sommant, on obtient le résultat.

Exemple de norme non-euclidienne : La norme x1=xi\|x\|_1 = \sum |x_i| sur Rn\mathbb{R}^n (n2n \ge 2) ne dérive pas d'un produit scalaire car elle ne vérifie pas l'identité du parallélogramme.

Pourquoi utilise-t-on des formes sesquilinéaires plutôt que bilinéaires pour définir le produit scalaire sur des espaces vectoriels complexes ?

Solution

L'utilisation de formes sesquilinéaires (linéaires à gauche, semi-linéaires à droite) au lieu de formes bilinéaires sur un C\mathbb{C}-espace vectoriel EE est cruciale pour obtenir une norme ayant les propriétés désirées, notamment d'être à valeurs réelles et positive.

Soit φ:E×EC\varphi: E \times E \to \mathbb{C} une forme servant à définir une norme via x2=φ(x,x)\|x\|^2 = \varphi(x,x).

Hypothèse 1 : φ\varphi est bilinéaire.

Si φ\varphi était bilinéaire, on aurait φ(λx,λx)=λ2φ(x,x)\varphi(\lambda x, \lambda x) = \lambda^2 \varphi(x,x).

Pour xEx \in E et λ=iC\lambda=i \in \mathbb{C}, cela donnerait :

ix2=φ(ix,ix)=i2φ(x,x)=φ(x,x)=x2\|ix\|^2 = \varphi(ix, ix) = i^2 \varphi(x,x) = - \varphi(x,x) = -\|x\|^2.

Cela pose deux problèmes majeurs :

  1. Positivité non garantie : Si x2>0\|x\|^2 > 0, alors ix2<0\|ix\|^2 < 0. Une "norme au carré" ne peut pas être négative.
  2. Homogénéité de la norme : La propriété de la norme λx=λx\|\lambda x\| = |\lambda| \|x\| ne serait pas respectée. On aurait ix=x2\|ix\| = \sqrt{-\|x\|^2} qui n'est même pas un nombre réel si x0\|x\| \neq 0.

Hypothèse 2 : φ\varphi est sesquilinéaire hermitienne.

Si φ\varphi est sesquilinéaire, on a φ(λx,λx)=λλˉφ(x,x)=λ2φ(x,x)\varphi(\lambda x, \lambda x) = \lambda \bar{\lambda} \varphi(x,x) = |\lambda|^2 \varphi(x,x).

Ainsi, λx2=λ2x2\| \lambda x \|^2 = |\lambda|^2 \|x\|^2, ce qui donne en prenant la racine : λx=λx\|\lambda x\| = |\lambda| \|x\|. C'est la propriété d'homogénéité requise pour une norme.

De plus, la condition de symétrie hermitienne, φ(x,y)=φ(y,x)\varphi(x,y) = \overline{\varphi(y,x)}, implique que φ(x,x)=φ(x,x)\varphi(x,x) = \overline{\varphi(x,x)}, ce qui garantit que φ(x,x)\varphi(x,x) est toujours un nombre réel.

En conclusion, la structure sesquilinéaire est la construction "naturelle" qui assure que la quantité φ(x,x)\varphi(x,x) soit un réel positif, permettant de définir une norme cohérente sur un espace vectoriel complexe.

Démontrer que toute famille orthogonale de vecteurs non nuls est libre.

Solution

Théorème : Soit (v1,v2,...,vn)(v_1, v_2, ..., v_n) une famille orthogonale de vecteurs d'un espace préhilbertien EE. Si tous les viv_i sont non nuls, alors la famille est libre.

Preuve :

Soit une combinaison linéaire nulle de ces vecteurs :

i=1nλivi=0E\sum_{i=1}^n \lambda_i v_i = 0_E

où les λi\lambda_i sont des scalaires du corps K\mathbb{K}.

Pour montrer que la famille est libre, nous devons prouver que tous les coefficients λi\lambda_i sont nuls.

Fixons un indice j{1,...,n}j \in \{1, ..., n\}. Effectuons le produit scalaire de l'équation ci-dessus par le vecteur vjv_j :

i=1nλivi,vj=0E,vj=0\left\langle \sum_{i=1}^n \lambda_i v_i, v_j \right\rangle = \langle 0_E, v_j \rangle = 0

Par linéarité (à gauche) du produit scalaire, nous pouvons développer le membre de gauche :

i=1nλivi,vj=0\sum_{i=1}^n \lambda_i \langle v_i, v_j \rangle = 0

La famille (vi)(v_i) étant orthogonale, on a vi,vj=0\langle v_i, v_j \rangle = 0 pour tout iji \neq j. La somme se simplifie donc radicalement, car seul le terme pour i=ji=j est potentiellement non nul :

λ1v1,vj++λjvj,vj++λnvn,vj=0\lambda_1 \langle v_1, v_j \rangle + \dots + \lambda_j \langle v_j, v_j \rangle + \dots + \lambda_n \langle v_n, v_j \rangle = 0

λjvj,vj=0\lambda_j \langle v_j, v_j \rangle = 0

Cette équation peut s'écrire :

λjvj2=0\lambda_j \|v_j\|^2 = 0

Par hypothèse, les vecteurs viv_i sont non nuls. Par conséquent, vj0\|v_j\| \neq 0, et donc vj20\|v_j\|^2 \neq 0.

Pour que le produit λjvj2\lambda_j \|v_j\|^2 soit nul, il faut nécessairement que λj=0\lambda_j = 0.

Comme ce raisonnement est valable pour n'importe quel indice j{1,...,n}j \in \{1, ..., n\}, nous avons démontré que λ1=λ2==λn=0\lambda_1 = \lambda_2 = \dots = \lambda_n = 0.

Ceci prouve que la famille (v1,...,vn)(v_1, ..., v_n) est libre.

Montrer que A,B=Tr(AB)\langle A, B \rangle = \text{Tr}(A B^*) définit un produit scalaire hermitien sur l'espace Mp(C)M_p(\mathbb{C}).

Solution

Soit E=Mp(C)E = M_p(\mathbb{C}). On définit φ(A,B)=Tr(AB)\varphi(A,B) = \text{Tr}(A B^*)B=tBB^* = \overline{{}^tB} est la transconjuguée de BB. Nous devons vérifier les trois axiomes d'un produit scalaire hermitien.

1. Sesquilinéarité :

  • Linéarité à gauche : Soient A1,A2,BEA_1, A_2, B \in E et λC\lambda \in \mathbb{C}.

    φ(A1+λA2,B)=Tr((A1+λA2)B)=Tr(A1B+λA2B)\varphi(A_1 + \lambda A_2, B) = \text{Tr}((A_1 + \lambda A_2)B^*) = \text{Tr}(A_1 B^* + \lambda A_2 B^*)

    Par linéarité de la trace :

    =Tr(A1B)+λTr(A2B)=φ(A1,B)+λφ(A2,B)= \text{Tr}(A_1 B^*) + \lambda \text{Tr}(A_2 B^*) = \varphi(A_1, B) + \lambda \varphi(A_2, B).

    La linéarité à gauche est vérifiée.

  • Semi-linéarité à droite : Soient A,B1,B2EA, B_1, B_2 \in E et λC\lambda \in \mathbb{C}.

    φ(A,B1+λB2)=Tr(A(B1+λB2))=Tr(A(B1+λB2))\varphi(A, B_1 + \lambda B_2) = \text{Tr}(A (B_1 + \lambda B_2)^*) = \text{Tr}(A (B_1^* + \overline{\lambda} B_2^*))

    =Tr(AB1+λAB2)=Tr(AB1)+λTr(AB2)=φ(A,B1)+λφ(A,B2)= \text{Tr}(A B_1^* + \overline{\lambda} A B_2^*) = \text{Tr}(A B_1^*) + \overline{\lambda} \text{Tr}(A B_2^*) = \varphi(A, B_1) + \overline{\lambda} \varphi(A, B_2).

    La semi-linéarité à droite est vérifiée.

2. Symétrie hermitienne :

Nous devons montrer que φ(A,B)=φ(B,A)\varphi(A,B) = \overline{\varphi(B,A)}.

φ(B,A)=Tr(BA)=Tr(BA)\overline{\varphi(B,A)} = \overline{\text{Tr}(B A^*)} = \text{Tr}(\overline{B A^*}).

En utilisant les propriétés de la conjugaison et de la trace : Tr(M)=Tr(M)\overline{\text{Tr}(M)} = \text{Tr}(\overline{M}) et MN=MN\overline{MN} = \overline{M}\overline{N}.

φ(B,A)=Tr(BA)\overline{\varphi(B,A)} = \text{Tr}(\overline{B} \overline{A^*}).

Puisque A=tA=tA\overline{A^*} = \overline{\overline{{}^tA}} = {}^tA, on a :

φ(B,A)=Tr(BtA)\overline{\varphi(B,A)} = \text{Tr}(\overline{B} {}^tA).

On utilise la propriété Tr(XY)=Tr(YX)\text{Tr}(XY) = \text{Tr}(YX). Soit X=BX=\overline{B} et Y=tAY={}^tA.

Tr(BtA)=Tr(tAB)\text{Tr}(\overline{B} {}^tA) = \text{Tr}({}^tA \overline{B}).

Enfin, on utilise Tr(M)=Tr(tM)\text{Tr}(M) = \text{Tr}({}^tM).

Tr(tAB)=Tr(t(tAB))=Tr(t(B)A)=Tr(BA)=Tr(AB)=φ(A,B)\text{Tr}({}^tA \overline{B}) = \text{Tr}({}^t({}^tA \overline{B})) = \text{Tr}({}^t(\overline{B}) A) = \text{Tr}(B^* A) = \text{Tr}(A B^*) = \varphi(A,B).

La symétrie hermitienne est vérifiée.

3. Définie-positivité :

  • Positivité :

    φ(A,A)=Tr(AA)=i=1p(AA)ii\varphi(A,A) = \text{Tr}(A A^*) = \sum_{i=1}^p (AA^*)_{ii}.

    L'élément (i,i)(i,i) de AAAA^* est donné par le produit de la ii-ème ligne de AA et de la ii-ème colonne de AA^*.

    (AA)ii=j=1paij(A)ji=j=1paijaij=j=1paij2(AA^*)_{ii} = \sum_{j=1}^p a_{ij} (A^*)_{ji} = \sum_{j=1}^p a_{ij} \overline{a_{ij}} = \sum_{j=1}^p |a_{ij}|^2.

    Donc, φ(A,A)=i=1pj=1paij2\varphi(A,A) = \sum_{i=1}^p \sum_{j=1}^p |a_{ij}|^2.

    C'est une somme de termes réels positifs, donc φ(A,A)0\varphi(A,A) \ge 0.

  • Définie :

    φ(A,A)=0    i,jaij2=0\varphi(A,A) = 0 \iff \sum_{i,j} |a_{ij}|^2 = 0.

    Une somme de termes positifs est nulle si et seulement si chaque terme est nul.

        aij2=0\iff |a_{ij}|^2 = 0 pour tous i,ji,j.

        aij=0\iff a_{ij} = 0 pour tous i,ji,j.

        A=0Mp(C)\iff A = 0_{M_p(\mathbb{C})}.

La forme est bien définie positive.

Les trois axiomes étant vérifiés, A,B=Tr(AB)\langle A, B \rangle = \text{Tr}(A B^*) est un produit scalaire hermitien sur Mp(C)M_p(\mathbb{C}).

Énoncer les identités de polarisation dans les cas euclidien et hermitien, et expliquer leur rôle fondamental.

Solution

Les identités de polarisation expriment le produit scalaire en termes de la norme qu'il induit. Elles sont différentes dans le cas réel (euclidien) et complexe (hermitien).

Cas Euclidien (K=R\mathbb{K}=\mathbb{R})

Pour une forme bilinéaire symétrique φ(x,y)=x,y\varphi(x,y) = \langle x,y \rangle et sa norme associée x2=x,x\|x\|^2 = \langle x,x \rangle:

x,y=12(x+y2x2y2)\langle x, y \rangle = \frac{1}{2} (\|x+y\|^2 - \|x\|^2 - \|y\|^2)

ou, de manière plus symétrique :

x,y=14(x+y2xy2)\langle x, y \rangle = \frac{1}{4}(\|x+y\|^2 - \|x-y\|^2)

Preuve (pour la 2ème forme) : x+y2xy2=(x,x+2x,y+y,y)(x,x2x,y+y,y)=4x,y\|x+y\|^2 - \|x-y\|^2 = (\langle x,x \rangle + 2\langle x,y \rangle + \langle y,y \rangle) - (\langle x,x \rangle - 2\langle x,y \rangle + \langle y,y \rangle) = 4\langle x,y \rangle.

Cas Hermitien (K=C\mathbb{K}=\mathbb{C})

Pour une forme sesquilinéaire hermitienne φ(x,y)=x,y\varphi(x,y) = \langle x,y \rangle :

x,y=14k=03ikx+iky2=14(x+y2xy2+ix+iy2ixiy2)\langle x, y \rangle = \frac{1}{4} \sum_{k=0}^3 i^k \|x+i^k y\|^2 = \frac{1}{4} (\|x+y\|^2 - \|x-y\|^2 + i\|x+iy\|^2 - i\|x-iy\|^2)

Note : La partie réelle de x,y\langle x,y \rangle est Re(x,y)=14(x+y2xy2)\text{Re}(\langle x,y \rangle) = \frac{1}{4}(\|x+y\|^2 - \|x-y\|^2) et sa partie imaginaire est Im(x,y)=Re(x,iy)=14(xiy2x+iy2)\text{Im}(\langle x,y \rangle) = \text{Re}(\langle x, -iy \rangle) = \frac{1}{4}(\|x-iy\|^2 - \|x+iy\|^2), ce qui mène à la formule complète.

Rôle Fondamental :

  1. Unicité : Les identités de polarisation montrent qu'un produit scalaire est entièrement déterminé par la norme qu'il induit. Si deux produits scalaires sur un même espace engendrent la même norme, alors ces produits scalaires sont identiques.

  2. Caractérisation : Elles sont au cœur de la preuve du théorème de Fréchet-von Neumann-Jordan. Si une norme vérifie l'identité du parallélogramme, on peut définir une forme bilinéaire ou sesquilinéaire via ces identités et ensuite prouver qu'elle a bien toutes les propriétés d'un produit scalaire.

  3. Lien entre géométrie et algèbre : Elles formalisent le lien intime entre la notion "géométrique" de longueur (la norme) et la notion "algébrique/géométrique" d'angle et de projection (le produit scalaire).

Expliquer la nature de l'espace-temps de Minkowski R4\mathbb{R}^4 muni de la forme φ(x,y)=x1y1+x2y2+x3y3x4y4\varphi(x,y) = x_1y_1 + x_2y_2 + x_3y_3 - x_4y_4. En quoi diffère-t-il d'un espace euclidien ?

Solution

L'espace-temps de Minkowski est l'espace vectoriel R4\mathbb{R}^4 muni de la forme bilinéaire symétrique φ\varphi définie par :

φ(x,y)=x1y1+x2y2+x3y3x4y4\varphi(x,y) = x_1y_1 + x_2y_2 + x_3y_3 - x_4y_4

où les trois premières coordonnées sont spatiales et la quatrième est temporelle (parfois notée x0x_0 et affectée du signe ++, avec un signe - pour l'espace, selon les conventions). On l'appelle souvent une métrique de Lorentz.

Différences fondamentales avec un espace euclidien :

  1. Non-positivité : La forme φ\varphi n'est pas positive, et donc encore moins définie positive. La quantité φ(x,x)\varphi(x,x) peut être positive, négative ou nulle pour des vecteurs xx non nuls.

    • φ(x,x)>0\varphi(x,x) > 0 : xx est un vecteur de genre espace.
    • φ(x,x)<0\varphi(x,x) < 0 : xx est un vecteur de genre temps.
    • φ(x,x)=0\varphi(x,x) = 0 (avec x0x \neq 0) : xx est un vecteur de genre lumière (ou isotrope). Ces vecteurs forment le cône de lumière.

    Exemple : Soit x=(0,0,0,1)x = (0,0,0,1). Alors φ(x,x)=1<0\varphi(x,x) = -1 < 0. xx est de genre temps.

    Exemple : Soit v=(1,0,0,1)v = (1,0,0,1). Alors φ(v,v)=1212=0\varphi(v,v) = 1^2 - 1^2 = 0. vv est un vecteur de genre lumière.

  2. Pas un produit scalaire : Puisque la forme n'est pas définie positive, ce n'est pas un produit scalaire euclidien. L'espace de Minkowski n'est pas un espace euclidien.

  3. Géométrie non-euclidienne : La géométrie induite est radicalement différente.

    • La "norme au carré" φ(x,x)\varphi(x,x) n'est pas toujours positive, donc on ne peut pas définir une norme au sens usuel. On parle de pseudo-norme.
    • L'inégalité de Cauchy-Schwarz n'est pas valide dans sa forme habituelle. Pour deux vecteurs de genre temps orientés vers le futur, elle est même inversée.
    • La notion d'orthogonalité est différente. Un vecteur non nul peut être orthogonal à lui-même (φ(x,x)=0\varphi(x,x)=0).

Signification en physique :

L'espace de Minkowski est le cadre mathématique de la relativité restreinte.

  • Les trajectoires des particules massives sont des courbes de genre temps.
  • Les trajectoires des photons (particules de lumière) sont des courbes de genre lumière.
  • La quantité φ(xy,xy)\varphi(x-y, x-y) représente le carré de l'intervalle d'espace-temps entre deux événements xx et yy. Sa valeur est invariante par les transformations de Lorentz, qui sont les "isométries" de cet espace, remplaçant les rotations et translations de l'espace euclidien.

Démontrer l'inégalité triangulaire pour une norme induite par un produit scalaire.

Solution

Théorème (Inégalité triangulaire) : Soit (E,,)(E, \langle \cdot, \cdot \rangle) un espace préhilbertien. Pour tous x,yEx, y \in E, on a :

x+yx+y\|x+y\| \le \|x\| + \|y\|

Preuve :

La preuve repose sur l'utilisation de l'inégalité de Cauchy-Schwarz.

  1. On commence par calculer le carré de la norme de la somme :

    x+y2=x+y,x+y\|x+y\|^2 = \langle x+y, x+y \rangle

  2. Par bilinéarité (ou sesquilinéarité) du produit scalaire :

    x+y2=x,x+x,y+y,x+y,y\|x+y\|^2 = \langle x,x \rangle + \langle x,y \rangle + \langle y,x \rangle + \langle y,y \rangle

    En utilisant la définition de la norme et le fait que y,x=x,y\langle y,x \rangle = \overline{\langle x,y \rangle} (symétrie hermitienne), on obtient :

    x+y2=x2+x,y+x,y+y2\|x+y\|^2 = \|x\|^2 + \langle x,y \rangle + \overline{\langle x,y \rangle} + \|y\|^2

  3. Rappelons que pour tout nombre complexe zz, z+zˉ=2Re(z)z + \bar{z} = 2 \text{Re}(z). Donc :

    x+y2=x2+2Re(x,y)+y2\|x+y\|^2 = \|x\|^2 + 2 \text{Re}(\langle x,y \rangle) + \|y\|^2

  4. On utilise maintenant l'inégalité de Cauchy-Schwarz, x,yxy|\langle x,y \rangle| \le \|x\|\|y\|.

    Pour tout nombre complexe zz, on a Re(z)z\text{Re}(z) \le |z|. Donc, Re(x,y)x,y\text{Re}(\langle x,y \rangle) \le |\langle x,y \rangle|.

    En combinant ces deux inégalités, on a :

    Re(x,y)xy\text{Re}(\langle x,y \rangle) \le \|x\|\|y\|

  5. En substituant cette majoration dans l'expression de x+y2\|x+y\|^2 :

    x+y2x2+2xy+y2\|x+y\|^2 \le \|x\|^2 + 2 \|x\|\|y\| + \|y\|^2

  6. Le membre de droite est une identité remarquable :

    x+y2(x+y)2\|x+y\|^2 \le (\|x\| + \|y\|)^2

  7. La norme étant une quantité positive, on peut prendre la racine carrée des deux côtés de l'inégalité pour obtenir le résultat final :

    x+yx+y\|x+y\| \le \|x\| + \|y\|

Soit E=Rn[X]E = \mathbb{R}_n[X] l'espace des polynômes de degré au plus nn. Montrer que l'application P,Q=11P(t)Q(t)dt\langle P, Q \rangle = \int_{-1}^{1} P(t)Q(t) dt définit bien un produit scalaire euclidien.

Solution

Pour montrer que ,\langle \cdot, \cdot \rangle est un produit scalaire euclidien sur E=Rn[X]E = \mathbb{R}_n[X], nous devons vérifier qu'il s'agit d'une forme bilinéaire symétrique définie positive.

1. Forme bilinéaire :

Soient P1,P2,QEP_1, P_2, Q \in E et λR\lambda \in \mathbb{R}.

  • Linéarité à gauche :

    P1+λP2,Q=11(P1(t)+λP2(t))Q(t)dt\langle P_1 + \lambda P_2, Q \rangle = \int_{-1}^{1} (P_1(t) + \lambda P_2(t))Q(t) dt

    =11(P1(t)Q(t)+λP2(t)Q(t))dt= \int_{-1}^{1} (P_1(t)Q(t) + \lambda P_2(t)Q(t)) dt

    Par linéarité de l'intégrale :

    =11P1(t)Q(t)dt+λ11P2(t)Q(t)dt= \int_{-1}^{1} P_1(t)Q(t) dt + \lambda \int_{-1}^{1} P_2(t)Q(t) dt

    =P1,Q+λP2,Q= \langle P_1, Q \rangle + \lambda \langle P_2, Q \rangle.

  • La linéarité à droite se démontre de manière identique.

2. Symétrie :

Soient P,QEP, Q \in E.

P,Q=11P(t)Q(t)dt\langle P, Q \rangle = \int_{-1}^{1} P(t)Q(t) dt.

La multiplication dans R\mathbb{R} étant commutative, P(t)Q(t)=Q(t)P(t)P(t)Q(t) = Q(t)P(t).

Donc, P,Q=11Q(t)P(t)dt=Q,P\langle P, Q \rangle = \int_{-1}^{1} Q(t)P(t) dt = \langle Q, P \rangle.

La forme est symétrique.

3. Définie-positivité :

Soit PEP \in E.

  • Positivité :

    P,P=11P(t)2dt\langle P, P \rangle = \int_{-1}^{1} P(t)^2 dt.

    Pour tout t[1,1]t \in [-1, 1], P(t)20P(t)^2 \ge 0. L'intégrale d'une fonction positive est positive.

    Donc, P,P0\langle P, P \rangle \ge 0.

  • Définie :

    Supposons que P,P=0\langle P, P \rangle = 0, c'est-à-dire 11P(t)2dt=0\int_{-1}^{1} P(t)^2 dt = 0.

    La fonction tP(t)2t \mapsto P(t)^2 est :

    • Continue sur l'intervalle [1,1][-1, 1] (car PP est un polynôme).
    • Positive sur cet intervalle.

    Le théorème de positivité de l'intégrale affirme que si l'intégrale d'une fonction continue et positive sur un intervalle [a,b][a,b] (avec a<ba<b) est nulle, alors la fonction est identiquement nulle sur cet intervalle.

    Donc, P(t)2=0P(t)^2 = 0 pour tout t[1,1]t \in [-1, 1].

    Ceci implique que P(t)=0P(t) = 0 pour tout t[1,1]t \in [-1, 1].

    Un polynôme qui a une infinité de racines est nécessairement le polynôme nul. Puisque PP s'annule sur tout l'intervalle [1,1][-1, 1], PP est le polynôme nul, P=0EP=0_E.

La forme est donc bien définie positive.

Ayant vérifié les trois propriétés, nous concluons que P,Q=11P(t)Q(t)dt\langle P, Q \rangle = \int_{-1}^{1} P(t)Q(t) dt est un produit scalaire sur Rn[X]\mathbb{R}_n[X], qui devient ainsi un espace euclidien de dimension n+1n+1.

Prouver le théorème de Pythagore généralisé pour une famille orthogonale de vecteurs.

Solution

Théorème de Pythagore généralisé : Soit (v1,v2,...,vn)(v_1, v_2, ..., v_n) une famille orthogonale de vecteurs dans un espace préhilbertien (E,,)(E, \langle \cdot, \cdot \rangle). Alors :

i=1nvi2=i=1nvi2\left\| \sum_{i=1}^n v_i \right\|^2 = \sum_{i=1}^n \|v_i\|^2

Preuve :

  1. Par définition de la norme, le carré de la norme de la somme est le produit scalaire de la somme avec elle-même :

    i=1nvi2=i=1nvi,j=1nvj\left\| \sum_{i=1}^n v_i \right\|^2 = \left\langle \sum_{i=1}^n v_i, \sum_{j=1}^n v_j \right\rangle

  2. On utilise la bilinéarité (ou sesquilinéarité) du produit scalaire pour développer cette expression. Cela donne une double somme :

    i=1nvi,j=1nvj=i=1nj=1nvi,vj\left\langle \sum_{i=1}^n v_i, \sum_{j=1}^n v_j \right\rangle = \sum_{i=1}^n \sum_{j=1}^n \langle v_i, v_j \rangle

  3. On utilise maintenant l'hypothèse cruciale : la famille (vk)(v_k) est orthogonale. Par définition, cela signifie que pour tous indices ii et jj distincts (iji \neq j), on a vi,vj=0\langle v_i, v_j \rangle = 0.

  4. La double somme se simplifie donc considérablement. Les seuls termes qui ne s'annulent pas sont ceux pour lesquels i=ji=j :

    i=1nj=1nvi,vj=i=1nvi,vi\sum_{i=1}^n \sum_{j=1}^n \langle v_i, v_j \rangle = \sum_{i=1}^n \langle v_i, v_i \rangle

    (Tous les termes croisés vi,vj\langle v_i, v_j \rangle avec iji \neq j sont nuls).

  5. Enfin, on reconnaît que vi,vi\langle v_i, v_i \rangle est, par définition, le carré de la norme de viv_i :

    i=1nvi,vi=i=1nvi2\sum_{i=1}^n \langle v_i, v_i \rangle = \sum_{i=1}^n \|v_i\|^2

En combinant les étapes, nous avons montré que :

i=1nvi2=i=1nvi2\left\| \sum_{i=1}^n v_i \right\|^2 = \sum_{i=1}^n \|v_i\|^2

ce qui achève la démonstration.