Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Normes sur Rⁿ et suites convergentes - preuves (A)

Preuve de l'inégalité triangulaire renversée

Démontrer que pour toute norme \| \cdot \| sur Rn\mathbb{R}^n et pour tous vecteurs x,yRnx, y \in \mathbb{R}^n, on a l'inégalité suivante :

xyxy|\|x\| - \|y\|| \le \|x - y\|.

Indice

L'idée est d'utiliser l'inégalité triangulaire standard de deux manières différentes.

  1. Écrivez xx comme x=(xy)+yx = (x-y) + y et appliquez l'inégalité triangulaire pour obtenir une borne pour x\|x\|.
  2. Faites de même pour yy en l'écrivant comme y=(yx)+xy = (y-x) + x.
  3. Combinez les deux inégalités obtenues pour encadrer xy\|x\| - \|y\|.
Solution

Soient x,yRnx, y \in \mathbb{R}^n. Nous utilisons l'axiome de l'inégalité triangulaire de la norme \| \cdot \|.

Étape 1 : Majorer xy\|x\| - \|y\|

On écrit x=(xy)+yx = (x-y) + y. En appliquant l'inégalité triangulaire, on obtient :

x=(xy)+yxy+y\|x\| = \|(x-y) + y\| \le \|x-y\| + \|y\|.

En soustrayant y\|y\| des deux côtés, on a :

xyxy\|x\| - \|y\| \le \|x-y\|. (1)

Étape 2 : Minorer xy\|x\| - \|y\|

De la même manière, on écrit y=(yx)+xy = (y-x) + x. En appliquant l'inégalité triangulaire :

y=(yx)+xyx+x\|y\| = \|(y-x) + x\| \le \|y-x\| + \|x\|.

On sait par l'axiome d'homogénéité que yx=(1)(xy)=1xy=xy\|y-x\| = \|(-1)(x-y)\| = |-1|\|x-y\| = \|x-y\|.

L'inégalité devient donc yxy+x\|y\| \le \|x-y\| + \|x\|.

En réarrangeant les termes, on obtient :

yxxy\|y\| - \|x\| \le \|x-y\|, ce qui est équivalent à (xy)xy-(\|x\| - \|y\|) \le \|x-y\|. (2)

Conclusion

En combinant les inégalités (1) et (2), on a :

xyxyxy- \|x-y\| \le \|x\| - \|y\| \le \|x-y\|.

Ceci est exactement la définition de la valeur absolue, donc on peut conclure :

xyxy|\|x\| - \|y\|| \le \|x - y\|.

Vérification qu'une application est une norme

Démontrer que l'application N:R2R+N: \mathbb{R}^2 \to \mathbb{R}_+ définie par N(x,y)=x+2y+3yN(x, y) = |x + 2y| + 3|y| est une norme sur R2\mathbb{R}^2.

Indice

Pour prouver que NN est une norme, vous devez vérifier les trois axiomes un par un :

  1. Séparation : Montrez que N(x,y)=0N(x,y) = 0 si et seulement si (x,y)=(0,0)(x,y) = (0,0). Rappelez-vous qu'une somme de termes positifs est nulle si et seulement si chaque terme est nul.
  2. Homogénéité : Calculez N(λx,λy)N(\lambda x, \lambda y) et utilisez les propriétés de la valeur absolue pour factoriser λ|\lambda|.
  3. Inégalité triangulaire : Calculez N(x+x,y+y)N(x+x', y+y') et utilisez l'inégalité triangulaire de la valeur absolue sur R\mathbb{R} (a+ba+b|a+b| \le |a|+|b|) pour séparer les termes en N(x,y)N(x,y) et N(x,y)N(x',y').
Solution

Soient v=(x,y)v = (x, y) et v=(x,y)v' = (x', y') des vecteurs de R2\mathbb{R}^2, et λR\lambda \in \mathbb{R} un scalaire. Nous vérifions les trois axiomes d'une norme.

1. Axiome de séparation : N(v)=0    v=(0,0)N(v) = 0 \iff v = (0,0)

(    \implies) Supposons que N(x,y)=0N(x, y) = 0. Par définition, cela signifie x+2y+3y=0|x + 2y| + 3|y| = 0.

Comme x+2y0|x + 2y| \ge 0 et 3y03|y| \ge 0, leur somme est nulle si et seulement si les deux termes sont nuls :

x+2y=0|x + 2y| = 0 et 3y=03|y| = 0.

La deuxième équation, 3y=03|y|=0, implique y=0|y|=0, donc y=0y=0.

En substituant y=0y=0 dans la première équation, on obtient x+2(0)=0|x + 2(0)| = 0, soit x=0|x|=0, ce qui implique x=0x=0.

Ainsi, (x,y)=(0,0)(x, y) = (0,0).

(    \impliedby) Supposons que (x,y)=(0,0)(x, y) = (0,0). Alors N(0,0)=0+2(0)+30=0+0=0N(0,0) = |0 + 2(0)| + 3|0| = 0+0=0.

L'axiome de séparation est donc vérifié.

2. Axiome d'homogénéité : N(λv)=λN(v)N(\lambda v) = |\lambda| N(v)

Calculons N(λv)=N(λx,λy)N(\lambda v) = N(\lambda x, \lambda y) :

\begin{align*} N(\lambda x, \lambda y) &= |(\lambda x) + 2(\lambda y)| + 3|\lambda y| \\ &= |\lambda(x + 2y)| + 3|\lambda||y| \\ &= |\lambda| |x + 2y| + 3|\lambda||y| \quad \text{(propriété de la valeur absolue)} \\ &= |\lambda| (|x + 2y| + 3|y|) \\ &= |\lambda| N(x,y). \end{align*}

L'axiome d'homogénéité est vérifié.

3. Inégalité triangulaire : N(v+v)N(v)+N(v)N(v+v') \le N(v) + N(v')

Calculons N(v+v)=N(x+x,y+y)N(v+v') = N(x+x', y+y') :

\begin{align*} N(x+x', y+y') &= |(x+x') + 2(y+y')| + 3|y+y'| \\ &= |(x+2y) + (x'+2y')| + 3|y+y'| \end{align*}

En utilisant l'inégalité triangulaire pour la valeur absolue sur R\mathbb{R} (c'est-à-dire a+ba+b|a+b| \le |a|+|b|), on peut majorer chaque terme :

\begin{align*} N(x+x', y+y') &\le \left(|x+2y| + |x'+2y'|\right) + 3\left(|y| + |y'|\right) \\ &= (|x+2y| + 3|y|) + (|x'+2y'| + 3|y'|) \\ &= N(x,y) + N(x',y'). \end{align*}

L'inégalité triangulaire est vérifiée.

Conclusion

Puisque les trois axiomes sont satisfaits, NN est bien une norme sur R2\mathbb{R}^2.

Preuve que la norme infinie est une norme

Démontrer que l'application \| \cdot \|_\infty définie pour tout x=(x1,,xn)Rnx = (x_1, \dots, x_n) \in \mathbb{R}^n par x=max1jnxj\|x\|_\infty = \max_{1 \le j \le n} |x_j| est une norme sur Rn\mathbb{R}^n.

Indice

Vérifiez les trois axiomes.

  1. Séparation : Si le maximum des valeurs absolues des composantes est zéro, que pouvez-vous dire de chaque composante ?
  2. Homogénéité : Utilisez la propriété max(caj)=cmax(aj)\max(c \cdot a_j) = c \cdot \max(a_j) pour un scalaire positif cc. Ici, c=λc = |\lambda|.
  3. Inégalité triangulaire : Soit x,yRnx, y \in \mathbb{R}^n. Pour n'importe quelle composante jj, on a xj+yjxj+yj|x_j + y_j| \le |x_j| + |y_j|. Comment pouvez-vous majorer xj|x_j| et yj|y_j| en utilisant x\|x\|_\infty et y\|y\|_\infty ? Appliquez ensuite le maximum sur jj.
Solution

Soient x,yRnx, y \in \mathbb{R}^n et λR\lambda \in \mathbb{R}.

1. Axiome de séparation : x=0    x=0Rn\|x\|_\infty = 0 \iff x = 0_{\mathbb{R}^n}

(    \implies) Supposons x=0\|x\|_\infty = 0. Cela signifie max1jnxj=0\max_{1 \le j \le n} |x_j| = 0.

Comme xj0|x_j| \ge 0 pour tout jj, le maximum ne peut être 0 que si toutes les composantes sont nulles. Donc, xj=0|x_j| = 0 pour tout j{1,,n}j \in \{1, \dots, n\}.

Cela implique xj=0x_j=0 pour tout jj, et donc x=(0,,0)=0Rnx = (0, \dots, 0) = 0_{\mathbb{R}^n}.

(    \impliedby) Si x=0Rnx = 0_{\mathbb{R}^n}, alors xj=0x_j=0 pour tout jj. Ainsi x=max(0,,0)=0\|x\|_\infty = \max(|0|, \dots, |0|) = 0.

L'axiome est vérifié.

2. Axiome d'homogénéité : λx=λx\|\lambda x\|_\infty = |\lambda| \|x\|_\infty

Le vecteur λx\lambda x a pour composantes (λx1,,λxn)(\lambda x_1, \dots, \lambda x_n).

\begin{align*} \|\lambda x\|_\infty &= \max_{1 \le j \le n} |\lambda x_j| \\ &= \max_{1 \le j \le n} (|\lambda| |x_j|) \end{align*}

Comme λ|\lambda| est une constante non-négative, on peut la sortir du maximum :

λx=λ(max1jnxj)=λx.\|\lambda x\|_\infty = |\lambda| \left(\max_{1 \le j \le n} |x_j|\right) = |\lambda| \|x\|_\infty.

L'axiome est vérifié.

3. Inégalité triangulaire : x+yx+y\|x+y\|_\infty \le \|x\|_\infty + \|y\|_\infty

Le vecteur x+yx+y a pour composantes (x1+y1,,xn+yn)(x_1+y_1, \dots, x_n+y_n).

x+y=max1jnxj+yj\|x+y\|_\infty = \max_{1 \le j \le n} |x_j + y_j|

Soit j0j_0 l'indice où ce maximum est atteint : x+y=xj0+yj0\|x+y\|_\infty = |x_{j_0} + y_{j_0}|.

En utilisant l'inégalité triangulaire pour la valeur absolue sur R\mathbb{R}, on a :

xj0+yj0xj0+yj0|x_{j_0} + y_{j_0}| \le |x_{j_0}| + |y_{j_0}|

Par définition de la norme infinie, pour tout indice jj, on a xjmaxkxk=x|x_j| \le \max_{k} |x_k| = \|x\|_\infty et yjmaxkyk=y|y_j| \le \max_{k} |y_k| = \|y\|_\infty.

Ceci est vrai en particulier pour j0j_0 :

xj0xetyj0y|x_{j_0}| \le \|x\|_\infty \quad \text{et} \quad |y_{j_0}| \le \|y\|_\infty

En combinant ces inégalités, on obtient :

x+y=xj0+yj0xj0+yj0x+y.\|x+y\|_\infty = |x_{j_0} + y_{j_0}| \le |x_{j_0}| + |y_{j_0}| \le \|x\|_\infty + \|y\|_\infty.

L'axiome est vérifié.

Conclusion

Les trois axiomes étant satisfaits, \| \cdot \|_\infty est une norme sur Rn\mathbb{R}^n.

Preuve que la norme 1 est une norme

Démontrer que l'application 1\| \cdot \|_1 définie pour tout x=(x1,,xn)Rnx = (x_1, \dots, x_n) \in \mathbb{R}^n par x1=j=1nxj\|x\|_1 = \sum_{j=1}^n |x_j| est une norme sur Rn\mathbb{R}^n.

Indice

Vérifiez les trois axiomes.

  1. Séparation : x1\|x\|_1 est une somme de termes positifs ou nuls. Quand une telle somme est-elle nulle ?
  2. Homogénéité : Utilisez les propriétés de la somme (caj=caj\sum c \cdot a_j = c \sum a_j) et de la valeur absolue.
  3. Inégalité triangulaire : Appliquez l'inégalité triangulaire pour les nombres réels (a+ba+b|a+b| \le |a|+|b|) à chaque composante xj+yj|x_j + y_j| avant de sommer.
Solution

Soient x,yRnx, y \in \mathbb{R}^n et λR\lambda \in \mathbb{R}.

1. Axiome de séparation : x1=0    x=0Rn\|x\|_1 = 0 \iff x = 0_{\mathbb{R}^n}

(    \implies) Supposons x1=0\|x\|_1 = 0. Cela signifie j=1nxj=0\sum_{j=1}^n |x_j| = 0.

Chaque terme xj|x_j| est positif ou nul. Une somme de termes positifs ou nuls est égale à zéro si et seulement si chaque terme de la somme est nul.

Donc, xj=0|x_j| = 0 pour tout j{1,,n}j \in \{1, \dots, n\}, ce qui implique xj=0x_j = 0 pour tout jj.

Ainsi, x=(0,,0)=0Rnx = (0, \dots, 0) = 0_{\mathbb{R}^n}.

(    \impliedby) Si x=0Rnx = 0_{\mathbb{R}^n}, alors xj=0x_j=0 pour tout jj. Ainsi x1=j=1n0=0\|x\|_1 = \sum_{j=1}^n |0| = 0.

L'axiome est vérifié.

2. Axiome d'homogénéité : λx1=λx1\|\lambda x\|_1 = |\lambda| \|x\|_1

Le vecteur λx\lambda x a pour composantes (λx1,,λxn)(\lambda x_1, \dots, \lambda x_n).

\begin{align*} \|\lambda x\|_1 &= \sum_{j=1}^n |\lambda x_j| \\ &= \sum_{j=1}^n |\lambda| |x_j| \\ &= |\lambda| \sum_{j=1}^n |x_j| \quad \text{(mise en facteur de la constante } |\lambda| \text{)} \\ &= |\lambda| \|x\|_1. \end{align*}

L'axiome est vérifié.

3. Inégalité triangulaire : x+y1x1+y1\|x+y\|_1 \le \|x\|_1 + \|y\|_1

Le vecteur x+yx+y a pour composantes (x1+y1,,xn+yn)(x_1+y_1, \dots, x_n+y_n).

x+y1=j=1nxj+yj\|x+y\|_1 = \sum_{j=1}^n |x_j + y_j|

En utilisant l'inégalité triangulaire pour la valeur absolue sur R\mathbb{R} pour chaque composante jj, on a xj+yjxj+yj|x_j + y_j| \le |x_j| + |y_j|.

En sommant sur toutes les composantes :

j=1nxj+yjj=1n(xj+yj)\sum_{j=1}^n |x_j + y_j| \le \sum_{j=1}^n (|x_j| + |y_j|)

Par les propriétés de la somme, on peut la séparer en deux :

j=1n(xj+yj)=j=1nxj+j=1nyj=x1+y1.\sum_{j=1}^n (|x_j| + |y_j|) = \sum_{j=1}^n |x_j| + \sum_{j=1}^n |y_j| = \|x\|_1 + \|y\|_1.

On a donc bien x+y1x1+y1\|x+y\|_1 \le \|x\|_1 + \|y\|_1. L'axiome est vérifié.

Conclusion

Les trois axiomes étant satisfaits, 1\| \cdot \|_1 est une norme sur Rn\mathbb{R}^n.

Inégalité de Minkowski (Inégalité triangulaire pour la norme 2)

Démontrer l'inégalité triangulaire pour la norme euclidienne 2\| \cdot \|_2 sur Rn\mathbb{R}^n. Autrement dit, prouver que pour tous x,yRnx, y \in \mathbb{R}^n, on a x+y2x2+y2\|x+y\|_2 \le \|x\|_2 + \|y\|_2.

Indice

Il est plus facile de travailler avec les carrés des normes pour éviter les racines carrées. Commencez par développer l'expression x+y22=j=1n(xj+yj)2\|x+y\|_2^2 = \sum_{j=1}^n (x_j+y_j)^2.

Séparez la somme en trois parties : xj2\sum x_j^2, yj2\sum y_j^2, et le terme croisé 2xjyj2\sum x_j y_j.

Reconnaissez que le terme croisé est 2x,y2 \langle x, y \rangle, le produit scalaire de xx et yy. Utilisez l'inégalité de Cauchy-Schwarz, x,yx2y2|\langle x, y \rangle| \le \|x\|_2 \|y\|_2, pour majorer ce terme.

Enfin, vous devriez arriver à une expression de la forme (x2+y2)2(\|x\|_2 + \|y\|_2)^2.

Solution

Soient x,yRnx, y \in \mathbb{R}^n. L'inégalité que nous voulons prouver est (xj+yj)2xj2+yj2\sqrt{\sum (x_j+y_j)^2} \le \sqrt{\sum x_j^2} + \sqrt{\sum y_j^2}.

Comme les deux membres sont positifs, cette inégalité est équivalente à l'inégalité entre leurs carrés :

x+y22(x2+y2)2\|x+y\|_2^2 \le (\|x\|_2 + \|y\|_2)^2.

Étape 1 : Développer x+y22\|x+y\|_2^2

Par définition de la norme euclidienne :

\begin{align*} \|x+y\|_2^2 &= \sum_{j=1}^n (x_j+y_j)^2 \\ &= \sum_{j=1}^n (x_j^2 + 2x_j y_j + y_j^2) \\ &= \sum_{j=1}^n x_j^2 + 2 \sum_{j=1}^n x_j y_j + \sum_{j=1}^n y_j^2 \end{align*}

Étape 2 : Reconnaître les termes

On reconnaît les carrés des normes de xx et yy, ainsi que le produit scalaire usuel x,y=j=1nxjyj\langle x, y \rangle = \sum_{j=1}^n x_j y_j.

L'expression devient :

x+y22=x22+2x,y+y22\|x+y\|_2^2 = \|x\|_2^2 + 2 \langle x, y \rangle + \|y\|_2^2.

Étape 3 : Appliquer l'inégalité de Cauchy-Schwarz

L'inégalité de Cauchy-Schwarz nous dit que x,yx,yx2y2\langle x, y \rangle \le |\langle x, y \rangle| \le \|x\|_2 \|y\|_2.

En utilisant cette majoration dans notre expression :

x+y22x22+2x2y2+y22\|x+y\|_2^2 \le \|x\|_2^2 + 2 \|x\|_2 \|y\|_2 + \|y\|_2^2

Étape 4 : Conclure

Le membre de droite est une identité remarquable :

x22+2x2y2+y22=(x2+y2)2\|x\|_2^2 + 2 \|x\|_2 \|y\|_2 + \|y\|_2^2 = (\|x\|_2 + \|y\|_2)^2.

Nous avons donc montré que x+y22(x2+y2)2\|x+y\|_2^2 \le (\|x\|_2 + \|y\|_2)^2.

Puisque la fonction racine carrée est croissante sur R+\mathbb{R}_+, on peut prendre la racine carrée des deux côtés tout en préservant l'inégalité :

x+y2x2+y2\|x+y\|_2 \le \|x\|_2 + \|y\|_2.

Ceci prouve l'inégalité triangulaire pour la norme euclidienne.

Preuve de l'équivalence des normes 1 et infinie

Démontrer que les normes 1\| \cdot \|_1 et \| \cdot \|_\infty sont équivalentes sur Rn\mathbb{R}^n. C'est-à-dire, trouver deux constantes réelles α>0\alpha > 0 et β>0\beta > 0 telles que pour tout xRnx \in \mathbb{R}^n :

αxx1βx\alpha \|x\|_\infty \le \|x\|_1 \le \beta \|x\|_\infty.

Indice

La preuve se fait en deux parties, en montrant les deux inégalités séparément.

  1. Pour l'inégalité x1βx\|x\|_1 \le \beta \|x\|_\infty :

    Écrivez la définition de x1=j=1nxj\|x\|_1 = \sum_{j=1}^n |x_j|. Pour chaque jj, comment pouvez-vous majorer xj|x_j| en utilisant x=maxkxk\|x\|_\infty = \max_k |x_k| ? Appliquez cette majoration à chaque terme de la somme.

  2. Pour l'inégalité αxx1\alpha \|x\|_\infty \le \|x\|_1 :

    Soit j0j_0 l'indice pour lequel la valeur absolue de la composante est maximale, c'est-à-dire xj0=x|x_{j_0}| = \|x\|_\infty. Comparez ce terme seul à la somme de tous les termes (qui est x1\|x\|_1).

Solution

Soit x=(x1,,xn)Rnx = (x_1, \dots, x_n) \in \mathbb{R}^n. Nous devons trouver des constantes α,β>0\alpha, \beta > 0 indépendantes de xx.

Partie 1 : Majoration de x1\|x\|_1 par x\|x\|_\infty

Par définition, x1=j=1nxj=x1+x2++xn\|x\|_1 = \sum_{j=1}^n |x_j| = |x_1| + |x_2| + \dots + |x_n|.

La norme infinie est définie comme x=max1knxk\|x\|_\infty = \max_{1 \le k \le n} |x_k|.

Par définition du maximum, pour n'importe quel indice j{1,,n}j \in \{1, \dots, n\}, on a :

xjx|x_j| \le \|x\|_\infty.

En appliquant cette majoration à chaque terme de la somme définissant x1\|x\|_1 :

x1=j=1nxjj=1nx\|x\|_1 = \sum_{j=1}^n |x_j| \le \sum_{j=1}^n \|x\|_\infty

La somme j=1nx\sum_{j=1}^n \|x\|_\infty est une somme de nn termes identiques, donc elle est égale à nxn \|x\|_\infty.

Nous avons donc montré que :

x1nx\|x\|_1 \le n \|x\|_\infty.

On peut choisir β=n\beta = n. Cette constante est bien strictement positive.

Partie 2 : Minoration de x1\|x\|_1 par x\|x\|_\infty

Soit j0{1,,n}j_0 \in \{1, \dots, n\} un indice tel que le maximum de la norme infinie est atteint, c'est-à-dire :

xj0=max1knxk=x|x_{j_0}| = \max_{1 \le k \le n} |x_k| = \|x\|_\infty.

Considérons la somme définissant la norme 1 :

x1=x1+x2++xj0++xn\|x\|_1 = |x_1| + |x_2| + \dots + |x_{j_0}| + \dots + |x_n|.

Puisque tous les termes xj|x_j| sont non-négatifs, la somme est supérieure ou égale à n'importe lequel de ses termes. En particulier, elle est supérieure ou égale à xj0|x_{j_0}|.

x1xj0\|x\|_1 \ge |x_{j_0}|.

En utilisant le fait que xj0=x|x_{j_0}| = \|x\|_\infty, on obtient :

x1x\|x\|_1 \ge \|x\|_\infty.

On peut aussi l'écrire 1xx11 \cdot \|x\|_\infty \le \|x\|_1.

On peut donc choisir α=1\alpha = 1. Cette constante est bien strictement positive.

Conclusion

Nous avons trouvé deux constantes α=1>0\alpha=1 > 0 et β=n>0\beta=n > 0 telles que pour tout xRnx \in \mathbb{R}^n :

1xx1nx1 \cdot \|x\|_\infty \le \|x\|_1 \le n \cdot \|x\|_\infty.

Les normes 1\| \cdot \|_1 et \| \cdot \|_\infty sont donc équivalentes sur Rn\mathbb{R}^n.

Unicité de la limite d'une suite

Démontrer que si une suite (xk)kN(x^k)_{k \in \mathbb{N}} de vecteurs de Rn\mathbb{R}^n converge, alors sa limite est unique.

Indice

Raisonnez par l'absurde. Supposez que la suite (xk)(x^k) admette deux limites distinctes, aa et bb, avec aba \neq b.

  1. La distance ab\|a-b\| est donc strictement positive.
  2. Utilisez l'inégalité triangulaire en écrivant ab=(axk)+(xkb)\|a-b\| = \|(a-x^k) + (x^k-b)\|.
  3. Par définition de la convergence vers aa et vers bb, les termes axk\|a-x^k\| et xkb\|x^k-b\| peuvent être rendus aussi petits que l'on veut pour kk assez grand.
  4. Montrez que cela conduit à une contradiction avec le fait que ab>0\|a-b\| > 0.
Solution

Soit (xk)kN(x^k)_{k \in \mathbb{N}} une suite de Rn\mathbb{R}^n munie d'une norme \| \cdot \|.

Supposons par l'absurde que la suite admette deux limites distinctes, aRna \in \mathbb{R}^n et bRnb \in \mathbb{R}^n, avec aba \neq b.

Puisque aba \neq b, le vecteur aba-b n'est pas le vecteur nul. Par l'axiome de séparation de la norme, on a ab>0\|a-b\| > 0.

Posons ε=ab2\varepsilon = \frac{\|a-b\|}{2}. Par construction, ε>0\varepsilon > 0.

Par définition de la convergence :

  1. Puisque xkax^k \to a, il existe un rang k1Nk_1 \in \mathbb{N} tel que pour tout kk1k \ge k_1, on a xka<ε\|x^k - a\| < \varepsilon.
  2. Puisque xkbx^k \to b, il existe un rang k2Nk_2 \in \mathbb{N} tel que pour tout kk2k \ge k_2, on a xkb<ε\|x^k - b\| < \varepsilon.

Soit k0=max(k1,k2)k_0 = \max(k_1, k_2). Pour tout entier kk0k \ge k_0, les deux conditions sont satisfaites simultanément.

Considérons la distance ab\|a-b\|. En utilisant l'astuce d'ajouter et de soustraire xkx^k et en appliquant l'inégalité triangulaire, nous avons pour kk0k \ge k_0 :

ab=(axk)+(xkb)axk+xkb\|a-b\| = \|(a-x^k) + (x^k-b)\| \le \|a-x^k\| + \|x^k-b\|

On sait que axk=xka\|a-x^k\| = \|x^k-a\|. Donc pour kk0k \ge k_0 :

abxka+xkb<ε+ε=2ε\|a-b\| \le \|x^k-a\| + \|x^k-b\| < \varepsilon + \varepsilon = 2\varepsilon

En remplaçant ε\varepsilon par sa valeur ab2\frac{\|a-b\|}{2}, on obtient :

ab<2(ab2)\|a-b\| < 2 \left( \frac{\|a-b\|}{2} \right), ce qui simplifie en ab<ab\|a-b\| < \|a-b\|.

Ceci est une contradiction stricte. L'hypothèse de départ (l'existence de deux limites distinctes) est donc fausse.

Conclusion

La limite d'une suite convergente dans Rn\mathbb{R}^n est unique.

Convergence vectorielle et convergence des composantes (Partie 1)

Soit (xk)kN(x^k)_{k \in \mathbb{N}} une suite de vecteurs de Rn\mathbb{R}^n.

Démontrer que si la suite (xk)(x^k) converge vers un vecteur aRna \in \mathbb{R}^n, alors pour chaque composante j{1,,n}j \in \{1, \dots, n\}, la suite réelle (xjk)kN(x_j^k)_{k \in \mathbb{N}} converge vers la composante correspondante aja_j.

Indice

L'objectif est de montrer que xjkaj0|x_j^k - a_j| \to 0 pour chaque jj.

Pour ce faire, il faut relier la quantité xjkaj|x_j^k - a_j| à xka\|x^k - a\|, qui tend vers 0 par hypothèse.

Rappelez-vous la relation entre la valeur absolue d'une composante et les normes usuelles. Par exemple, pour tout vecteur v=(v1,...,vn)v = (v_1, ..., v_n), on a vjv|v_j| \le \|v\|_\infty et vjv2|v_j| \le \|v\|_2. Utilisez l'une de ces inégalités avec le vecteur v=xkav = x^k - a.

Solution

Soit (xk)(x^k) une suite de vecteurs dans Rn\mathbb{R}^n qui converge vers aRna \in \mathbb{R}^n. Cela signifie que limkxka=0\lim_{k \to \infty} \|x^k - a\| = 0 pour n'importe quelle norme sur Rn\mathbb{R}^n (puisqu'elles sont toutes équivalentes).

Nous voulons montrer que pour tout j{1,,n}j \in \{1, \dots, n\}, la suite réelle (xjk)(x_j^k) converge vers aja_j, c'est-à-dire limkxjkaj=0\lim_{k \to \infty} |x_j^k - a_j| = 0.

Soit jj un indice de composante fixé. Considérons le vecteur vk=xkav^k = x^k - a. Ses composantes sont vjk=xjkajv_j^k = x_j^k - a_j.

Nous savons que pour tout vecteur vRnv \in \mathbb{R}^n, et pour toute composante jj, on a l'inégalité suivante :

vjmax1invi=v|v_j| \le \max_{1 \le i \le n} |v_i| = \|v\|_\infty.

Appliquons cette inégalité au vecteur vk=xkav^k = x^k - a :

xjkajxka|x_j^k - a_j| \le \|x^k - a\|_\infty.

Nous avons donc l'encadrement suivant pour chaque jj :

0xjkajxka0 \le |x_j^k - a_j| \le \|x^k - a\|_\infty.

Par hypothèse, la suite de vecteurs (xk)(x^k) converge vers aa. Puisque toutes les normes sont équivalentes, la convergence est vraie pour la norme infinie. Donc :

limkxka=0\lim_{k \to \infty} \|x^k - a\|_\infty = 0.

Par le théorème des gendarmes (ou théorème d'encadrement) appliqué aux suites réelles, comme xjkaj|x_j^k - a_j| est encadré par 00 et une suite qui tend vers 00, on peut conclure que :

limkxjkaj=0\lim_{k \to \infty} |x_j^k - a_j| = 0.

Ceci est vrai pour chaque composante j{1,,n}j \in \{1, \dots, n\}. La convergence de la suite de vecteurs implique donc la convergence de chacune de ses suites de composantes.

Convergence vectorielle et convergence des composantes (Partie 2)

Soit (xk)kN(x^k)_{k \in \mathbb{N}} une suite de vecteurs de Rn\mathbb{R}^n.

Démontrer que si, pour chaque composante j{1,,n}j \in \{1, \dots, n\}, la suite réelle (xjk)kN(x_j^k)_{k \in \mathbb{N}} converge vers aja_j, alors la suite de vecteurs (xk)(x^k) converge vers le vecteur a=(a1,,an)a = (a_1, \dots, a_n).

Indice

L'objectif est de montrer que xka0\|x^k - a\| \to 0. Pour cela, il faut majorer xka\|x^k - a\| par une expression qui dépend des quantités xjkaj|x_j^k - a_j|, qui tendent vers 0 par hypothèse.

Choisissez une norme pratique qui s'exprime facilement en fonction des composantes, comme la norme 1 ou la norme infinie.

Par exemple, avec la norme 1 : xka1=j=1nxjkaj\|x^k-a\|_1 = \sum_{j=1}^n |x_j^k - a_j|. Vous avez une somme finie de termes qui tendent tous vers 0. Quelle est la limite d'une somme finie de suites convergentes ?

Solution

Supposons que pour chaque j{1,,n}j \in \{1, \dots, n\}, la suite réelle (xjk)(x_j^k) converge vers aja_j. Cela signifie que :

j{1,,n},limkxjkaj=0\forall j \in \{1, \dots, n\}, \quad \lim_{k \to \infty} |x_j^k - a_j| = 0.

Nous voulons montrer que la suite de vecteurs (xk)(x^k) converge vers aa, c'est-à-dire limkxka=0\lim_{k \to \infty} \|x^k - a\| = 0. Grâce à l'équivalence de toutes les normes sur Rn\mathbb{R}^n, il suffit de le démontrer pour une seule norme de notre choix. Choisissons la norme 1, 1\| \cdot \|_1, car son expression est pratique.

La norme 1 du vecteur xkax^k - a est donnée par :

xka1=j=1nxjkaj\|x^k - a\|_1 = \sum_{j=1}^n |x_j^k - a_j|.

Nous avons une somme de nn termes. Par hypothèse, pour chaque jj, le terme xjkaj|x_j^k - a_j| tend vers 0 lorsque kk \to \infty.

La limite d'une somme finie de suites convergentes est la somme de leurs limites.

Donc :

limkxka1=limkj=1nxjkaj\lim_{k \to \infty} \|x^k - a\|_1 = \lim_{k \to \infty} \sum_{j=1}^n |x_j^k - a_j|

=j=1n(limkxjkaj)= \sum_{j=1}^n \left( \lim_{k \to \infty} |x_j^k - a_j| \right)

=j=1n0=0= \sum_{j=1}^n 0 = 0

Puisque limkxka1=0\lim_{k \to \infty} \|x^k - a\|_1 = 0, la suite de vecteurs (xk)(x^k) converge vers aa pour la norme 1.

Comme toutes les normes sur Rn\mathbb{R}^n sont équivalentes, la convergence pour la norme 1 implique la convergence pour n'importe quelle autre norme.

Conclusion

La convergence de toutes les suites de composantes implique la convergence de la suite de vecteurs.

Une suite convergente est une suite de Cauchy

Démontrer que toute suite convergente (xk)kN(x^k)_{k \in \mathbb{N}} dans un espace vectoriel normé (Rn,)(\mathbb{R}^n, \| \cdot \|) est une suite de Cauchy.

Indice

Soit aa la limite de la suite (xk)(x^k).

La définition de la convergence vous dit que pour kk grand, xkx^k est proche de aa.

Vous voulez montrer que pour p,qp, q grands, xpx^p est proche de xqx^q.

Utilisez l'inégalité triangulaire pour relier la distance xpxq\|x^p - x^q\| aux distances xpa\|x^p - a\| et xqa\|x^q - a\|. L'astuce consiste à écrire xpxq=(xpa)+(axq)x^p - x^q = (x^p - a) + (a - x^q).

Solution

Soit (xk)kN(x^k)_{k \in \mathbb{N}} une suite de vecteurs dans Rn\mathbb{R}^n qui converge vers une limite aRna \in \mathbb{R}^n.

Par définition de la convergence, pour tout δ>0\delta > 0, il existe un rang kδNk_\delta \in \mathbb{N} tel que pour tout kkδk \ge k_\delta, on a xka<δ\|x^k - a\| < \delta.

Nous voulons démontrer que (xk)(x^k) est une suite de Cauchy. C'est-à-dire, nous devons montrer que :

ε>0,kεN tel que p,qkε,xpxq<ε\forall \varepsilon > 0, \quad \exists k_\varepsilon \in \mathbb{N} \text{ tel que } \forall p, q \ge k_\varepsilon, \quad \|x^p - x^q\| < \varepsilon.

Soit ε>0\varepsilon > 0 un réel quelconque.

Posons δ=ε2\delta = \frac{\varepsilon}{2}. Puisque δ>0\delta > 0, la définition de la convergence nous assure qu'il existe un rang, que nous nommerons kεk_\varepsilon, tel que pour tout indice kkεk \ge k_\varepsilon :

xka<ε2\|x^k - a\| < \frac{\varepsilon}{2}.

Maintenant, considérons deux indices quelconques pp et qq tels que pkεp \ge k_\varepsilon et qkεq \ge k_\varepsilon.

Nous voulons majorer la distance xpxq\|x^p - x^q\|. En utilisant l'inégalité triangulaire, on a :

xpxq=(xpa)+(axq)xpa+axq\|x^p - x^q\| = \|(x^p - a) + (a - x^q)\| \le \|x^p - a\| + \|a - x^q\|

On sait que axq=(1)(xqa)=1xqa=xqa\|a - x^q\| = \|(-1)(x^q - a)\| = |-1|\|x^q - a\| = \|x^q - a\|.

L'inégalité devient donc :

xpxqxpa+xqa\|x^p - x^q\| \le \|x^p - a\| + \|x^q - a\|

Puisque pkεp \ge k_\varepsilon et qkεq \ge k_\varepsilon, nous pouvons utiliser la propriété de convergence :

xpa<ε2\|x^p - a\| < \frac{\varepsilon}{2}

xqa<ε2\|x^q - a\| < \frac{\varepsilon}{2}

En substituant ces majorations dans notre inégalité, on obtient :

xpxq<ε2+ε2=ε\|x^p - x^q\| < \frac{\varepsilon}{2} + \frac{\varepsilon}{2} = \varepsilon

Nous avons donc montré que pour tout ε>0\varepsilon > 0, il existe un rang kεk_\varepsilon tel que pour tous p,qkεp, q \ge k_\varepsilon, on a xpxq<ε\|x^p - x^q\| < \varepsilon.

Ceci est précisément la définition d'une suite de Cauchy.

Conclusion

Toute suite convergente dans Rn\mathbb{R}^n est une suite de Cauchy.

Transitivité de l'équivalence des normes

Démontrer que la relation "être équivalente à" est transitive pour les normes sur Rn\mathbb{R}^n. Autrement dit, si une norme N1N_1 est équivalente à une norme N2N_2, et N2N_2 est équivalente à une norme N3N_3, alors N1N_1 est équivalente à N3N_3.

Indice

Commencez par écrire les définitions formelles des deux hypothèses.

  1. N1N_1 est équivalente à N2N_2 : il existe α1,β1>0\alpha_1, \beta_1 > 0 tels que α1N2(x)N1(x)β1N2(x)\alpha_1 N_2(x) \le N_1(x) \le \beta_1 N_2(x).
  2. N2N_2 est équivalente à N3N_3 : il existe α2,β2>0\alpha_2, \beta_2 > 0 tels que α2N3(x)N2(x)β2N3(x)\alpha_2 N_3(x) \le N_2(x) \le \beta_2 N_3(x).

Votre objectif est de trouver des constantes α3,β3>0\alpha_3, \beta_3 > 0 telles que α3N3(x)N1(x)β3N3(x)\alpha_3 N_3(x) \le N_1(x) \le \beta_3 N_3(x).

Pour cela, combinez les inégalités que vous avez écrites pour éliminer N2N_2. Par exemple, pour majorer N1N_1 en fonction de N3N_3, partez de N1(x)β1N2(x)N_1(x) \le \beta_1 N_2(x) et majorez ensuite N2(x)N_2(x).

Solution

Soient N1,N2,N3N_1, N_2, N_3 trois normes sur Rn\mathbb{R}^n.

Hypothèses :

  1. N1N_1 est équivalente à N2N_2. Cela signifie qu'il existe deux constantes réelles α1>0\alpha_1 > 0 et β1>0\beta_1 > 0 telles que pour tout xRnx \in \mathbb{R}^n :

    α1N2(x)N1(x)β1N2(x)\alpha_1 N_2(x) \le N_1(x) \le \beta_1 N_2(x). (I)

  2. N2N_2 est équivalente à N3N_3. Cela signifie qu'il existe deux constantes réelles α2>0\alpha_2 > 0 et β2>0\beta_2 > 0 telles que pour tout xRnx \in \mathbb{R}^n :

    α2N3(x)N2(x)β2N3(x)\alpha_2 N_3(x) \le N_2(x) \le \beta_2 N_3(x). (II)

Objectif :

Nous voulons prouver que N1N_1 est équivalente à N3N_3. Nous devons donc trouver des constantes α3>0\alpha_3 > 0 et β3>0\beta_3 > 0 telles que pour tout xRnx \in \mathbb{R}^n :

α3N3(x)N1(x)β3N3(x)\alpha_3 N_3(x) \le N_1(x) \le \beta_3 N_3(x).

Étape 1 : Trouver la majoration (la constante β3\beta_3)

Nous partons de l'inégalité de droite dans (I) :

N1(x)β1N2(x)N_1(x) \le \beta_1 N_2(x).

Maintenant, nous utilisons l'inégalité de droite dans (II) pour majorer N2(x)N_2(x) :

N2(x)β2N3(x)N_2(x) \le \beta_2 N_3(x).

En combinant les deux, on obtient :

N1(x)β1(β2N3(x))=(β1β2)N3(x)N_1(x) \le \beta_1 \left( \beta_2 N_3(x) \right) = (\beta_1 \beta_2) N_3(x).

Posons β3=β1β2\beta_3 = \beta_1 \beta_2. Puisque β1>0\beta_1 > 0 et β2>0\beta_2 > 0, leur produit β3\beta_3 est aussi strictement positif. Nous avons donc la moitié de la preuve : N1(x)β3N3(x)N_1(x) \le \beta_3 N_3(x).

Étape 2 : Trouver la minoration (la constante α3\alpha_3)

Nous partons de l'inégalité de gauche dans (I) :

α1N2(x)N1(x)\alpha_1 N_2(x) \le N_1(x).

Maintenant, nous utilisons l'inégalité de gauche dans (II) pour minorer N2(x)N_2(x) :

α2N3(x)N2(x)\alpha_2 N_3(x) \le N_2(x).

En combinant les deux, on obtient :

N1(x)α1N2(x)α1(α2N3(x))=(α1α2)N3(x)N_1(x) \ge \alpha_1 N_2(x) \ge \alpha_1 \left( \alpha_2 N_3(x) \right) = (\alpha_1 \alpha_2) N_3(x).

Posons α3=α1α2\alpha_3 = \alpha_1 \alpha_2. Puisque α1>0\alpha_1 > 0 et α2>0\alpha_2 > 0, leur produit α3\alpha_3 est aussi strictement positif. Nous avons donc l'autre moitié de la preuve : α3N3(x)N1(x)\alpha_3 N_3(x) \le N_1(x).

Conclusion

Nous avons trouvé deux constantes α3=α1α2>0\alpha_3 = \alpha_1 \alpha_2 > 0 et β3=β1β2>0\beta_3 = \beta_1 \beta_2 > 0 telles que pour tout xRnx \in \mathbb{R}^n :

α3N3(x)N1(x)β3N3(x)\alpha_3 N_3(x) \le N_1(x) \le \beta_3 N_3(x).

Ceci prouve que N1N_1 est équivalente à N3N_3. La relation d'équivalence des normes est donc transitive.