Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Espaces Euclidiens et Hermitiens - preuves (A)

Propriété de Réalité de la Forme Quadratique Hermitienne

Prouver que pour une forme sesquilinéaire hermitienne φ\varphi sur un C\mathbb{C}-espace vectoriel EE, la valeur φ(x,x)\varphi(x, x) est un nombre réel pour tout vecteur xEx \in E.

Indice

Utilisez la définition de la symétrie hermitienne, qui relie φ(x,y)\varphi(x, y) à φ(y,x)\varphi(y, x).

Appliquez cette propriété au cas particulier où y=xy = x.

Rappelez-vous qu'un nombre complexe zz est réel si et seulement si z=zˉz = \bar{z}.

Solution

Soit φ:E×EC\varphi: E \times E \to \mathbb{C} une forme sesquilinéaire hermitienne.

Étape 1 : Rappel de la définition de la symétrie hermitienne

Par définition, une forme sesquilinéaire φ\varphi est hermitienne si pour tous vecteurs x,yEx, y \in E, on a :

φ(x,y)=φ(y,x)\varphi(x, y) = \overline{\varphi(y, x)}

Étape 2 : Appliquer la définition au cas y=xy=x

Nous nous intéressons à la valeur φ(x,x)\varphi(x, x). Appliquons la propriété de symétrie hermitienne en posant y=xy = x. On obtient :

φ(x,x)=φ(x,x)\varphi(x, x) = \overline{\varphi(x, x)}

Étape 3 : Conclure sur la nature de φ(x,x)\varphi(x, x)

Soit z=φ(x,x)z = \varphi(x, x). L'équation de l'étape 2 s'écrit z=zˉz = \bar{z}.

Un nombre complexe est égal à son propre conjugué si et seulement si sa partie imaginaire est nulle. C'est la définition d'un nombre réel.

Conclusion :

Par conséquent, pour tout xEx \in E, la valeur φ(x,x)\varphi(x, x) est un nombre réel.

Inégalité de Cauchy-Schwarz (Cas Réel)

Soit (E,,)(E, \langle \cdot, \cdot \rangle) un espace euclidien. Prouver que pour tous vecteurs x,yEx, y \in E, on a :

x,yxy|\langle x, y \rangle| \le \|x\| \|y\|

Indice

Considérez le vecteur x+λyx + \lambda y pour un scalaire réel λ\lambda.

Utilisez la propriété de positivité du produit scalaire, qui stipule que v,v0\langle v, v \rangle \ge 0 pour tout vecteur vEv \in E.

Développez x+λy,x+λy\langle x + \lambda y, x + \lambda y \rangle et analysez l'expression obtenue comme un polynôme du second degré en λ\lambda. Quel doit être le signe de son discriminant ?

Solution

Soient x,yEx, y \in E.

Cas 1 : y=0Ey = 0_E

Si yy est le vecteur nul, alors x,y=x,0E=0\langle x, y \rangle = \langle x, 0_E \rangle = 0 et y=0\|y\| = 0. L'inégalité devient 000 \le 0, ce qui est vrai.

Cas 2 : y0Ey \neq 0_E

Soit λR\lambda \in \mathbb{R} un scalaire quelconque. Considérons le vecteur v=x+λyv = x + \lambda y.

Étape 1 : Utiliser la positivité de la norme

Par définition de la norme associée à un produit scalaire, nous savons que v2=v,v0\|v\|^2 = \langle v, v \rangle \ge 0.

Donc, pour tout λR\lambda \in \mathbb{R} :

x+λy,x+λy0\langle x + \lambda y, x + \lambda y \rangle \ge 0

Étape 2 : Développer l'expression

En utilisant la bilinéarité du produit scalaire réel :

x+λy,x+λy=x,x+x,λy+λy,x+λy,λy\langle x + \lambda y, x + \lambda y \rangle = \langle x, x \rangle + \langle x, \lambda y \rangle + \langle \lambda y, x \rangle + \langle \lambda y, \lambda y \rangle

=x,x+λx,y+λy,x+λ2y,y= \langle x, x \rangle + \lambda \langle x, y \rangle + \lambda \langle y, x \rangle + \lambda^2 \langle y, y \rangle

Comme le produit scalaire est symétrique (x,y=y,x\langle x, y \rangle = \langle y, x \rangle), cela se simplifie en :

=x,x+2λx,y+λ2y,y= \langle x, x \rangle + 2\lambda \langle x, y \rangle + \lambda^2 \langle y, y \rangle

En notation de norme, on a le polynôme P(λ)P(\lambda):

P(λ)=y2λ2+2x,yλ+x2P(\lambda) = \|y\|^2 \lambda^2 + 2\langle x, y \rangle \lambda + \|x\|^2

Étape 3 : Analyser le signe du discriminant

Nous avons établi que P(λ)0P(\lambda) \ge 0 pour tout λR\lambda \in \mathbb{R}. C'est un polynôme du second degré en λ\lambda qui est toujours positif ou nul. Cela signifie qu'il a au plus une racine réelle. Par conséquent, son discriminant Δ\Delta doit être négatif ou nul.

Le discriminant de Aλ2+Bλ+CA\lambda^2 + B\lambda + C est Δ=B24AC\Delta = B^2 - 4AC. Ici, A=y2A=\|y\|^2, B=2x,yB=2\langle x, y \rangle, C=x2C=\|x\|^2.

Δ=(2x,y)24(y2)(x2)0\Delta = (2\langle x, y \rangle)^2 - 4 (\|y\|^2) (\|x\|^2) \le 0

4x,y24x2y204 \langle x, y \rangle^2 - 4 \|x\|^2 \|y\|^2 \le 0

x,y2x2y2\langle x, y \rangle^2 \le \|x\|^2 \|y\|^2

Étape 4 : Conclure

En prenant la racine carrée des deux côtés (qui sont des nombres réels positifs), on obtient :

x,y2x2y2\sqrt{\langle x, y \rangle^2} \le \sqrt{\|x\|^2 \|y\|^2}

x,yxy|\langle x, y \rangle| \le \|x\| \|y\|

Conclusion :

L'inégalité est donc prouvée pour tous les vecteurs x,yx, y de l'espace euclidien EE.

Cas d'Égalité de l'Inégalité de Cauchy-Schwarz

Prouver que dans l'inégalité de Cauchy-Schwarz x,yxy|\langle x, y \rangle| \le \|x\| \|y\|, l'égalité a lieu si et seulement si les vecteurs xx et yy sont colinéaires (c'est-à-dire, linéairement dépendants).

Indice

Reprenez la démonstration de l'inégalité de Cauchy-Schwarz. L'égalité se produit lorsque le discriminant du polynôme P(λ)=x+λy2P(\lambda) = \|x+\lambda y\|^2 est nul.

Que signifie, pour un polynôme du second degré toujours positif, d'avoir un discriminant nul ? Cela signifie qu'il admet une unique racine réelle λ0\lambda_0.

Quelle est la signification de P(λ0)=x+λ0y2=0P(\lambda_0) = \|x+\lambda_0 y\|^2 = 0 ? Utilisez la propriété de séparation de la norme (ou le caractère défini du produit scalaire).

Solution

Nous devons prouver l'équivalence : x,y=xy    (x et y sont colineˊaires)|\langle x, y \rangle| = \|x\| \|y\| \iff (x \text{ et } y \text{ sont colinéaires}).

Partie 1 : (Colinéarité     \implies Égalité)

Supposons que xx et yy sont colinéaires. Il existe donc un scalaire kk tel que x=kyx = ky.

Calculons les deux membres de l'inégalité :

  • x,y=ky,y=ky,y=ky,y=ky2|\langle x, y \rangle| = |\langle ky, y \rangle| = |k \langle y, y \rangle| = |k| \langle y, y \rangle = |k| \|y\|^2.
  • xy=kyy=(ky)y=ky2\|x\| \|y\| = \|ky\| \|y\| = (|k| \|y\|) \|y\| = |k| \|y\|^2.

Les deux membres sont égaux. Donc, si les vecteurs sont colinéaires, il y a égalité.

Partie 2 : (Égalité     \implies Colinéarité)

Supposons que x,y=xy|\langle x, y \rangle| = \|x\| \|y\|. Cela équivaut à x,y2=x2y2\langle x, y \rangle^2 = \|x\|^2 \|y\|^2.

Reprenons la preuve de Cauchy-Schwarz, basée sur le polynôme P(λ)=x+λy2=y2λ2+2x,yλ+x2P(\lambda) = \|x+\lambda y\|^2 = \|y\|^2 \lambda^2 + 2\langle x, y \rangle \lambda + \|x\|^2.

L'hypothèse d'égalité signifie que le discriminant Δ\Delta de ce polynôme est nul :

Δ=(2x,y)24y2x2=4(x,y2x2y2)=0\Delta = (2\langle x, y \rangle)^2 - 4 \|y\|^2 \|x\|^2 = 4(\langle x, y \rangle^2 - \|x\|^2 \|y\|^2) = 0

Si y=0Ey=0_E, xx et yy sont colinéaires (car y=0xy=0x). Supposons donc y0Ey \neq 0_E.

Un polynôme du second degré avec un discriminant nul admet une unique racine réelle, notée λ0\lambda_0.

Pour cette valeur λ0\lambda_0, on a P(λ0)=0P(\lambda_0) = 0.

P(λ0)=x+λ0y2=0P(\lambda_0) = \|x + \lambda_0 y\|^2 = 0

Par la propriété de séparation de la norme (ou le caractère défini du produit scalaire), une norme nulle implique un vecteur nul :

x+λ0y=0    x+λ0y=0E\|x + \lambda_0 y\| = 0 \iff x + \lambda_0 y = 0_E

Cette dernière égalité s'écrit x=λ0yx = -\lambda_0 y. Ceci est la définition de la colinéarité de xx et yy.

Conclusion :

Nous avons montré les deux implications. L'égalité dans l'inégalité de Cauchy-Schwarz est vérifiée si et seulement si les vecteurs xx et yy sont colinéaires.

Inégalité Triangulaire pour la Norme

Soit (E,,)(E, \langle \cdot, \cdot \rangle) un espace préhilbertien. Prouver que la norme associée x=x,x\|x\| = \sqrt{\langle x, x \rangle} vérifie l'inégalité triangulaire :

x+yx+y\|x+y\| \le \|x\| + \|y\|

pour tous vecteurs x,yEx, y \in E.

Indice

Comme la norme est toujours positive, l'inégalité est équivalente à x+y2(x+y)2\|x+y\|^2 \le (\|x\| + \|y\|)^2.

Commencez par développer x+y2=x+y,x+y\|x+y\|^2 = \langle x+y, x+y \rangle.

Dans l'expression obtenue, utilisez l'inégalité de Cauchy-Schwarz sur le terme x,y\langle x, y \rangle. Dans le cas complexe, vous devrez manipuler le terme x,y+x,y=2Re(x,y)\langle x,y \rangle + \overline{\langle x,y \rangle} = 2 \text{Re}(\langle x,y \rangle).

Solution

Soient x,yEx, y \in E.

Étape 1 : Travailler avec le carré de la norme

Les termes de l'inégalité sont positifs, il est donc équivalent de prouver x+y2(x+y)2\|x+y\|^2 \le (\|x\| + \|y\|)^2.

Développons le membre de gauche en utilisant les propriétés du produit scalaire :

x+y2=x+y,x+y=x,x+x,y+y,x+y,y\|x+y\|^2 = \langle x+y, x+y \rangle = \langle x,x \rangle + \langle x,y \rangle + \langle y,x \rangle + \langle y,y \rangle

En utilisant la symétrie (hermitienne), on sait que y,x=x,y\langle y,x \rangle = \overline{\langle x,y \rangle}.

x+y2=x2+x,y+x,y+y2\|x+y\|^2 = \|x\|^2 + \langle x,y \rangle + \overline{\langle x,y \rangle} + \|y\|^2

Rappelons que pour tout nombre complexe zz, z+zˉ=2Re(z)z + \bar{z} = 2 \text{Re}(z).

x+y2=x2+2Re(x,y)+y2\|x+y\|^2 = \|x\|^2 + 2 \text{Re}(\langle x,y \rangle) + \|y\|^2

(Dans le cas réel, Re(x,y)=x,y\text{Re}(\langle x,y \rangle) = \langle x,y \rangle, la formule reste donc juste).

Étape 2 : Appliquer l'inégalité de Cauchy-Schwarz

Pour tout nombre complexe zz, on a Re(z)z\text{Re}(z) \le |z|. Donc :

2Re(x,y)2x,y2 \text{Re}(\langle x,y \rangle) \le 2 |\langle x,y \rangle|

L'inégalité de Cauchy-Schwarz nous dit que x,yxy|\langle x,y \rangle| \le \|x\|\|y\|. En combinant ces deux inégalités :

2Re(x,y)2xy2 \text{Re}(\langle x,y \rangle) \le 2 \|x\|\|y\|

Étape 3 : Substituer et conclure

En substituant ce résultat dans l'expression de x+y2\|x+y\|^2 :

x+y2x2+2xy+y2\|x+y\|^2 \le \|x\|^2 + 2 \|x\|\|y\| + \|y\|^2

On reconnaît le développement d'une identité remarquable :

x+y2(x+y)2\|x+y\|^2 \le (\|x\| + \|y\|)^2

Étape 4 : Revenir à la norme

Puisque la norme est une quantité positive, on peut prendre la racine carrée des deux côtés de l'inégalité pour obtenir le résultat final :

x+yx+y\|x+y\| \le \|x\| + \|y\|

Conclusion :

La norme induite par un produit scalaire satisfait bien l'inégalité triangulaire.

Identité du Parallélogramme

Soit (E,,)(E, \langle \cdot, \cdot \rangle) un espace préhilbertien. Prouver que pour tous vecteurs x,yEx, y \in E, la norme associée au produit scalaire vérifie l'identité du parallélogramme :

x+y2+xy2=2(x2+y2)\|x+y\|^2 + \|x-y\|^2 = 2(\|x\|^2 + \|y\|^2)

Indice

Exprimez les termes x+y2\|x+y\|^2 et xy2\|x-y\|^2 en utilisant la définition de la norme, c'est-à-dire v2=v,v\|v\|^2 = \langle v, v \rangle.

Développez les deux expressions x+y,x+y\langle x+y, x+y \rangle et xy,xy\langle x-y, x-y \rangle en utilisant la linéarité (et semi-linéarité) du produit scalaire.

Additionnez les deux expressions développées et observez les simplifications.

Solution

Soient x,yEx, y \in E.

Étape 1 : Développer x+y2\|x+y\|^2

En utilisant la définition de la norme et les propriétés du produit scalaire :

x+y2=x+y,x+y=x,x+x,y+y,x+y,y\|x+y\|^2 = \langle x+y, x+y \rangle = \langle x,x \rangle + \langle x,y \rangle + \langle y,x \rangle + \langle y,y \rangle

x+y2=x2+x,y+y,x+y2(1)\|x+y\|^2 = \|x\|^2 + \langle x,y \rangle + \langle y,x \rangle + \|y\|^2 \quad (1)

Étape 2 : Développer xy2\|x-y\|^2

De manière similaire :

xy2=xy,xy=x,xx,yy,x+y,y\|x-y\|^2 = \langle x-y, x-y \rangle = \langle x,x \rangle - \langle x,y \rangle - \langle y,x \rangle + \langle y,y \rangle

xy2=x2x,yy,x+y2(2)\|x-y\|^2 = \|x\|^2 - \langle x,y \rangle - \langle y,x \rangle + \|y\|^2 \quad (2)

Étape 3 : Additionner les deux expressions

Additionnons les équations (1) et (2) :

x+y2+xy2=(x2+x,y+y,x+y2)+(x2x,yy,x+y2)\|x+y\|^2 + \|x-y\|^2 = (\|x\|^2 + \langle x,y \rangle + \langle y,x \rangle + \|y\|^2) + (\|x\|^2 - \langle x,y \rangle - \langle y,x \rangle + \|y\|^2)

Les termes "croisés" x,y\langle x,y \rangle et y,x\langle y,x \rangle s'annulent :

x+y2+xy2=x2+y2+x2+y2\|x+y\|^2 + \|x-y\|^2 = \|x\|^2 + \|y\|^2 + \|x\|^2 + \|y\|^2

x+y2+xy2=2x2+2y2\|x+y\|^2 + \|x-y\|^2 = 2\|x\|^2 + 2\|y\|^2

Conclusion :

En factorisant le membre de droite, on obtient l'identité du parallélogramme :

x+y2+xy2=2(x2+y2)\|x+y\|^2 + \|x-y\|^2 = 2(\|x\|^2 + \|y\|^2)

Théorème de Pythagore

Soit (E,,)(E, \langle \cdot, \cdot \rangle) un espace préhilbertien. Prouver que si deux vecteurs x,yEx, y \in E sont orthogonaux, alors :

x+y2=x2+y2\|x+y\|^2 = \|x\|^2 + \|y\|^2

Indice

Commencez par développer x+y2\|x+y\|^2 en utilisant sa définition en termes de produit scalaire : x+y,x+y\langle x+y, x+y \rangle.

Utilisez la définition de l'orthogonalité. Que vaut x,y\langle x, y \rangle si xx et yy sont orthogonaux ?

Solution

Soient x,yEx, y \in E deux vecteurs orthogonaux.

Étape 1 : Définition de l'orthogonalité

Par définition, xx et yy sont orthogonaux si leur produit scalaire est nul :

x,y=0\langle x, y \rangle = 0

Dans un espace hermitien, cela implique aussi y,x=x,y=0=0\langle y, x \rangle = \overline{\langle x, y \rangle} = \overline{0} = 0.

Étape 2 : Développer le carré de la norme de la somme

On exprime x+y2\|x+y\|^2 à l'aide du produit scalaire :

x+y2=x+y,x+y\|x+y\|^2 = \langle x+y, x+y \rangle

Par (sesqui-)linéarité du produit scalaire, on développe :

x+y2=x,x+x,y+y,x+y,y\|x+y\|^2 = \langle x, x \rangle + \langle x, y \rangle + \langle y, x \rangle + \langle y, y \rangle

En utilisant la notation de la norme, cela devient :

x+y2=x2+x,y+y,x+y2\|x+y\|^2 = \|x\|^2 + \langle x, y \rangle + \langle y, x \rangle + \|y\|^2

Étape 3 : Appliquer l'hypothèse d'orthogonalité

Puisque xx et yy sont orthogonaux, x,y=0\langle x, y \rangle = 0 et y,x=0\langle y, x \rangle = 0. En substituant ces valeurs dans l'équation précédente :

x+y2=x2+0+0+y2\|x+y\|^2 = \|x\|^2 + 0 + 0 + \|y\|^2

x+y2=x2+y2\|x+y\|^2 = \|x\|^2 + \|y\|^2

Conclusion :

Nous avons démontré que pour deux vecteurs orthogonaux, le carré de la norme de leur somme est égal à la somme de leurs carrés, ce qui est l'énoncé du théorème de Pythagore.

Liberté d'une Famille Orthogonale

Prouver que toute famille orthogonale de vecteurs non nuls d'un espace préhilbertien est une famille libre.

Indice

Soit (v1,v2,,vn)(v_1, v_2, \dots, v_n) une famille orthogonale de vecteurs non nuls.

Pour prouver qu'elle est libre, partez de la définition : supposez qu'il existe une combinaison linéaire nulle de ces vecteurs, i=1nλivi=0E\sum_{i=1}^n \lambda_i v_i = 0_E.

L'objectif est de montrer que tous les scalaires λi\lambda_i sont nuls. Pour isoler un scalaire particulier λj\lambda_j, prenez le produit scalaire de la combinaison linéaire avec le vecteur vjv_j.

Solution

Soit S=(v1,v2,,vn)S = (v_1, v_2, \dots, v_n) une famille orthogonale de vecteurs non nuls dans un espace préhilbertien EE.

Étape 1 : Hypothèses sur la famille SS

  • Orthogonale : Pour tout iji \neq j, vi,vj=0\langle v_i, v_j \rangle = 0.
  • Vecteurs non nuls : Pour tout ii, vi0Ev_i \neq 0_E, ce qui implique vi,vi=vi2>0\langle v_i, v_i \rangle = \|v_i\|^2 > 0.

Étape 2 : Écrire la condition de dépendance linéaire

Pour montrer que SS est une famille libre, nous devons montrer que la seule combinaison linéaire de ses vecteurs qui soit égale au vecteur nul est celle où tous les coefficients sont nuls.

Supposons qu'il existe des scalaires λ1,λ2,,λn\lambda_1, \lambda_2, \dots, \lambda_n tels que :

i=1nλivi=0E\sum_{i=1}^n \lambda_i v_i = 0_E

Étape 3 : Isoler un coefficient λj\lambda_j

Fixons un indice j{1,,n}j \in \{1, \dots, n\}. Pour isoler λj\lambda_j, calculons le produit scalaire de l'équation ci-dessus avec le vecteur vjv_j :

i=1nλivi,vj=0E,vj\left\langle \sum_{i=1}^n \lambda_i v_i, v_j \right\rangle = \langle 0_E, v_j \rangle

Le membre de droite est nul. Utilisons la linéarité à gauche pour le membre de gauche :

i=1nλivi,vj=0\sum_{i=1}^n \lambda_i \langle v_i, v_j \rangle = 0

Étape 4 : Utiliser l'orthogonalité

La famille est orthogonale, donc vi,vj=0\langle v_i, v_j \rangle = 0 pour tous les indices ii différents de jj. La somme se simplifie donc radicalement, car un seul terme est potentiellement non nul (celui pour i=ji=j) :

λ1v1,vj++λjvj,vj++λnvn,vj=0\lambda_1 \langle v_1, v_j \rangle + \dots + \lambda_j \langle v_j, v_j \rangle + \dots + \lambda_n \langle v_n, v_j \rangle = 0

0++λjvj,vj++0=00 + \dots + \lambda_j \langle v_j, v_j \rangle + \dots + 0 = 0

λjvj2=0\lambda_j \|v_j\|^2 = 0

Étape 5 : Conclure sur la nullité du coefficient

Par hypothèse, tous les vecteurs vjv_j de la famille sont non nuls, donc vj20\|v_j\|^2 \neq 0.

Puisque le produit λjvj2\lambda_j \|v_j\|^2 est nul et que vj2\|v_j\|^2 n'est pas nul, c'est nécessairement le scalaire λj\lambda_j qui doit être nul.

λj=0\lambda_j = 0

Comme ce raisonnement est valable pour n'importe quel indice jj de 11 à nn, nous avons montré que λ1=λ2==λn=0\lambda_1 = \lambda_2 = \dots = \lambda_n = 0.

Conclusion :

La seule combinaison linéaire des vecteurs de SS qui donne le vecteur nul est la combinaison triviale. La famille SS est donc libre.

Expression des Coordonnées dans une Base Orthonormée

Soit B=(e1,,en)\mathcal{B} = (e_1, \dots, e_n) une base orthonormée d'un espace préhilbertien EE. Prouver que pour tout vecteur xEx \in E, ses coordonnées (x1,,xn)(x_1, \dots, x_n) dans la base B\mathcal{B} sont données par xi=x,eix_i = \langle x, e_i \rangle. En d'autres termes, prouver que :

x=i=1nx,eieix = \sum_{i=1}^n \langle x, e_i \rangle e_i

Indice

Puisque B\mathcal{B} est une base, tout vecteur xx peut s'écrire de manière unique comme une combinaison linéaire x=j=1nxjejx = \sum_{j=1}^n x_j e_j, où les xjx_j sont les coordonnées de xx.

Votre objectif est de trouver la valeur d'un coefficient particulier, disons xix_i.

Pour cela, calculez le produit scalaire de l'expression de xx avec le vecteur de base eie_i. Utilisez la propriété fondamentale d'une base orthonormée : ej,ei=δji\langle e_j, e_i \rangle = \delta_{ji}.

Solution

Soit B=(e1,,en)\mathcal{B} = (e_1, \dots, e_n) une base orthonormée de EE. Soit xx un vecteur quelconque de EE.

Étape 1 : Décomposition de xx dans la base B\mathcal{B}

Puisque B\mathcal{B} est une base de EE, il existe un unique n-uplet de scalaires (x1,,xn)(x_1, \dots, x_n), appelés coordonnées de xx dans B\mathcal{B}, tel que :

x=j=1nxjejx = \sum_{j=1}^n x_j e_j

Étape 2 : Calcul du produit scalaire avec un vecteur de base eie_i

Fixons un indice i{1,,n}i \in \{1, \dots, n\}. Calculons le produit scalaire de xx avec eie_i :

x,ei=j=1nxjej,ei\langle x, e_i \rangle = \left\langle \sum_{j=1}^n x_j e_j, e_i \right\rangle

Par linéarité (ou semi-linéarité selon la variable) du produit scalaire, on peut écrire :

x,ei=j=1nxjej,ei\langle x, e_i \rangle = \sum_{j=1}^n \langle x_j e_j, e_i \rangle

Dans le cas euclidien (réel) : x,ei=j=1nxjej,ei\langle x, e_i \rangle = \sum_{j=1}^n x_j \langle e_j, e_i \rangle.

Dans le cas hermitien (complexe) : x,ei=j=1nxjej,ei\langle x, e_i \rangle = \sum_{j=1}^n x_j \langle e_j, e_i \rangle. La formule est identique.

Étape 3 : Utilisation de l'orthonormalité de la base

La base B\mathcal{B} est orthonormée, ce qui signifie par définition que ej,ei=δji\langle e_j, e_i \rangle = \delta_{ji}, où δji\delta_{ji} est le symbole de Kronecker (δji=1\delta_{ji}=1 si j=ij=i et δji=0\delta_{ji}=0 si jij \neq i).

Substituons cette propriété dans la somme. Tous les termes de la somme vont s'annuler, sauf celui pour lequel l'indice jj est égal à ii :

x,ei=x1e1,ei++xiei,ei++xnen,ei\langle x, e_i \rangle = x_1 \langle e_1, e_i \rangle + \dots + x_i \langle e_i, e_i \rangle + \dots + x_n \langle e_n, e_i \rangle

x,ei=x10++xi1++xn0\langle x, e_i \rangle = x_1 \cdot 0 + \dots + x_i \cdot 1 + \dots + x_n \cdot 0

x,ei=xi\langle x, e_i \rangle = x_i

Étape 4 : Conclusion

Nous avons montré que la i-ème coordonnée xix_i du vecteur xx est égale au produit scalaire x,ei\langle x, e_i \rangle. Ce résultat étant valable pour tout i{1,,n}i \in \{1, \dots, n\}, on peut substituer ces expressions dans la décomposition de xx :

x=i=1nxiei=i=1nx,eieix = \sum_{i=1}^n x_i e_i = \sum_{i=1}^n \langle x, e_i \rangle e_i

Ceci prouve la formule requise.

Caractérisation des Endomorphismes Orthogonaux

Soit ff un endomorphisme d'un espace euclidien EE. Prouver que ff est un endomorphisme orthogonal (c'est-à-dire qu'il préserve le produit scalaire) si et seulement si il préserve la norme.

(x,yE,f(x),f(y)=x,y)    (zE,f(z)=z)(\forall x,y \in E, \langle f(x), f(y) \rangle = \langle x, y \rangle) \iff (\forall z \in E, \|f(z)\| = \|z\|)

Indice

L'implication "préserve le produit scalaire     \implies préserve la norme" est directe. Il suffit de considérer le cas x=yx=y.

Pour l'implication "préserve la norme     \implies préserve le produit scalaire", utilisez l'identité de polarisation qui exprime le produit scalaire en fonction de la norme. L'identité pour le cas euclidien est :

u,v=12(u+v2u2v2)\langle u, v \rangle = \frac{1}{2} (\|u+v\|^2 - \|u\|^2 - \|v\|^2)

Appliquez cette identité à f(x),f(y)\langle f(x), f(y) \rangle.

Solution

Partie 1 : Un endomorphisme orthogonal préserve la norme.

Supposons que ff est un endomorphisme orthogonal. Par définition, pour tous x,yEx, y \in E, on a :

f(x),f(y)=x,y\langle f(x), f(y) \rangle = \langle x, y \rangle

Pour montrer que ff préserve la norme, nous devons prouver que f(z)=z\|f(z)\| = \|z\| pour tout zEz \in E. Cela est équivalent à f(z)2=z2\|f(z)\|^2 = \|z\|^2.

Soit zEz \in E. On a :

f(z)2=f(z),f(z)\|f(z)\|^2 = \langle f(z), f(z) \rangle

En utilisant la propriété de conservation du produit scalaire avec x=zx=z et y=zy=z, on obtient :

f(z),f(z)=z,z=z2\langle f(z), f(z) \rangle = \langle z, z \rangle = \|z\|^2

Donc, f(z)2=z2\|f(z)\|^2 = \|z\|^2. Comme les normes sont positives, on en déduit f(z)=z\|f(z)\| = \|z\|.

L'implication est démontrée.

Partie 2 : Un endomorphisme qui préserve la norme est orthogonal.

Supposons maintenant que ff préserve la norme, c'est-à-dire que pour tout zEz \in E, f(z)=z\|f(z)\| = \|z\|. Nous voulons montrer que f(x),f(y)=x,y\langle f(x), f(y) \rangle = \langle x, y \rangle pour tous x,yEx,y \in E.

Étape 1 : Utiliser l'identité de polarisation

L'identité de polarisation dans un espace euclidien permet d'exprimer le produit scalaire à partir de la norme :

u,v=12(u+v2u2v2)\langle u, v \rangle = \frac{1}{2} (\|u+v\|^2 - \|u\|^2 - \|v\|^2)

Appliquons cette identité au produit scalaire f(x),f(y)\langle f(x), f(y) \rangle en posant u=f(x)u = f(x) et v=f(y)v = f(y).

f(x),f(y)=12(f(x)+f(y)2f(x)2f(y)2)\langle f(x), f(y) \rangle = \frac{1}{2} (\|f(x)+f(y)\|^2 - \|f(x)\|^2 - \|f(y)\|^2)

Étape 2 : Utiliser la linéarité de ff et l'hypothèse de conservation de la norme

Par linéarité de ff, on a f(x)+f(y)=f(x+y)f(x)+f(y) = f(x+y). On peut donc réécrire le premier terme :

f(x)+f(y)2=f(x+y)2\|f(x)+f(y)\|^2 = \|f(x+y)\|^2

Maintenant, nous utilisons notre hypothèse : ff préserve la norme. Donc, pour tout vecteur zz, f(z)2=z2\|f(z)\|^2 = \|z\|^2. Appliquons ceci à xx, yy et x+yx+y :

  • f(x)2=x2\|f(x)\|^2 = \|x\|^2
  • f(y)2=y2\|f(y)\|^2 = \|y\|^2
  • f(x+y)2=x+y2\|f(x+y)\|^2 = \|x+y\|^2

Étape 3 : Substituer et conclure

En substituant ces égalités dans l'expression de f(x),f(y)\langle f(x), f(y) \rangle :

f(x),f(y)=12(x+y2x2y2)\langle f(x), f(y) \rangle = \frac{1}{2} (\|x+y\|^2 - \|x\|^2 - \|y\|^2)

On reconnaît le membre de droite comme étant l'expression de x,y\langle x, y \rangle par l'identité de polarisation.

f(x),f(y)=x,y\langle f(x), f(y) \rangle = \langle x, y \rangle

Conclusion :

Nous avons démontré les deux implications, ce qui prouve l'équivalence entre la préservation du produit scalaire et la préservation de la norme pour un endomorphisme en espace euclidien.

Adjoint d'une Composition d'Endomorphismes

Soient ff et gg deux endomorphismes d'un espace préhilbertien EE de dimension finie. Prouver que l'adjoint de la composition fgf \circ g est la composition des adjoints en ordre inversé :

(fg)=gf(f \circ g)^* = g^* \circ f^*

Indice

L'adjoint d'un endomorphisme hh, noté hh^*, est défini par la relation unique h(x),y=x,h(y)\langle h(x), y \rangle = \langle x, h^*(y) \rangle pour tous x,yEx, y \in E.

Votre but est de trouver un endomorphisme hh' tel que (fg)(x),y=x,h(y)\langle (f \circ g)(x), y \rangle = \langle x, h'(y) \rangle. Par unicité de l'adjoint, vous aurez alors h=(fg)h' = (f \circ g)^*.

Commencez par (fg)(x),y=f(g(x)),y\langle (f \circ g)(x), y \rangle = \langle f(g(x)), y \rangle et appliquez la définition de l'adjoint successivement pour ff puis pour gg.

Solution

Soient f,gf, g deux endomorphismes de EE. Nous cherchons à déterminer l'endomorphisme (fg)(f \circ g)^*.

Étape 1 : Définition de l'adjoint

Par définition, l'adjoint (fg)(f \circ g)^* est l'unique endomorphisme qui vérifie pour tous x,yEx, y \in E :

(fg)(x),y=x,(fg)(y)\langle (f \circ g)(x), y \rangle = \langle x, (f \circ g)^*(y) \rangle

Notre stratégie est de partir du membre de gauche et de le transformer en une expression de la forme x,h(y)\langle x, h(y) \rangle. L'endomorphisme hh sera alors, par unicité, l'adjoint recherché.

Étape 2 : Application successive de la définition de l'adjoint

Partons du membre de gauche.

(fg)(x),y=f(g(x)),y\langle (f \circ g)(x), y \rangle = \langle f(g(x)), y \rangle

Considérons le vecteur g(x)g(x) comme un seul bloc. On peut appliquer la définition de l'adjoint de ff, qui est ff^*. On a f(u),v=u,f(v)\langle f(u), v \rangle = \langle u, f^*(v) \rangle. En posant u=g(x)u = g(x) et v=yv = y :

f(g(x)),y=g(x),f(y)\langle f(g(x)), y \rangle = \langle g(x), f^*(y) \rangle

Maintenant, nous avons une nouvelle expression g(x),f(y)\langle g(x), f^*(y) \rangle. On peut y appliquer la définition de l'adjoint de gg, qui est gg^*. On a g(u),v=u,g(v)\langle g(u), v \rangle = \langle u, g^*(v) \rangle. En posant u=xu = x et v=f(y)v = f^*(y) :

g(x),f(y)=x,g(f(y))\langle g(x), f^*(y) \rangle = \langle x, g^*(f^*(y)) \rangle

Étape 3 : Identification de l'adjoint

En combinant les étapes, nous avons montré que pour tous x,yEx, y \in E :

(fg)(x),y=x,g(f(y))\langle (f \circ g)(x), y \rangle = \langle x, g^*(f^*(y)) \rangle

L'expression g(f(y))g^*(f^*(y)) peut s'écrire comme la composition (gf)(y)(g^* \circ f^*)(y).

(fg)(x),y=x,(gf)(y)\langle (f \circ g)(x), y \rangle = \langle x, (g^* \circ f^*)(y) \rangle

En comparant cette égalité avec la relation de définition (fg)(x),y=x,(fg)(y)\langle (f \circ g)(x), y \rangle = \langle x, (f \circ g)^*(y) \rangle, par unicité de l'endomorphisme adjoint, on doit avoir :

(fg)=gf(f \circ g)^* = g^* \circ f^*

Conclusion :

L'adjoint de la composition de deux endomorphismes est bien la composition de leurs adjoints, avec inversion de l'ordre.