Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Fonctions différentiables (A)


Concept 1: Fonction Différentiable

Prérequis

  • Calculus I: Dérivée d’une fonction d’une variable réelle, développement limité d’ordre 1.
  • Topologie: Espaces vectoriels normés, notion d’ouvert, limites et continuité des fonctions de plusieurs variables.
  • Algèbre Linéaire: Applications linéaires et leur représentation matricielle.

Définition

Soit UU un ouvert de Rn\mathbb{R}^n et f:URpf : U \rightarrow \mathbb{R}^p une fonction. On dit que ff est différentiable au point aUa \in U s’il existe une application linéaire La:RnRpL_a : \mathbb{R}^n \rightarrow \mathbb{R}^p telle que pour tout vecteur hRnh \in \mathbb{R}^n tel que a+hUa+h \in U, on ait :

f(a+h)=f(a)+La(h)+o(h)f(a+h) = f(a) + L_a(h) + o(\|h\|)

o(h)o(\|h\|) désigne une fonction R(h)R(h) telle que limh0R(h)h=0\lim_{h \to 0} \frac{\|R(h)\|}{\|h\|} = 0.

De manière plus formelle, cela s’écrit :

f(a+h)=f(a)+La(h)+ϵa(h)hf(a+h) = f(a) + L_a(h) + \epsilon_a(h)\|h\|

où la fonction ϵa:RnRp\epsilon_a : \mathbb{R}^n \rightarrow \mathbb{R}^p vérifie limh0ϵa(h)=0Rp\lim_{h \to 0} \epsilon_a(h) = 0_{\mathbb{R}^p}.

L’application linéaire LaL_a est alors unique et est appelée la différentielle de ff au point aa, notée dfadf_a.

Explications Détaillées

En calcul à une variable, la dérivée f(a)f'(a) est un nombre qui permet d’approximer la fonction ff au voisinage de aa par une droite (la tangente) : f(a+h)f(a)+f(a)hf(a+h) \approx f(a) + f'(a)h. L’idée de la différentiabilité est de généraliser cette notion d’approximation locale par une fonction “simple”.

Pour une fonction de plusieurs variables f:RnRpf: \mathbb{R}^n \to \mathbb{R}^p, une simple multiplication par un nombre ne suffit plus. L’objet le plus simple pour approximer localement une fonction est une application affine, c’est-à-dire une application de la forme xC+L(x)x \mapsto C + L(x), où LL est une application linéaire.

La définition de la différentiabilité stipule qu’une fonction ff est différentiable en aa si, au voisinage de ce point, elle peut être très bien approximée par l’application affine xf(a)+La(xa)x \mapsto f(a) + L_a(x-a). L’application linéaire LaL_a (la différentielle dfadf_a) est la “meilleure” approximation linéaire de la variation de ff autour de aa, c’est-à-dire de f(a+h)f(a)f(a+h)-f(a).

Le terme d’erreur ϵa(h)h\epsilon_a(h)\|h\| devient négligeable par rapport à la partie linéaire La(h)L_a(h) lorsque hh est petit. Plus précisément, l’erreur tend vers zéro “plus vite” que h\|h\|, ce qui garantit que l’approximation est de très bonne qualité pour des petits accroissements hh.

Le choix de la norme n’a pas d’importance car toutes les normes sur Rn\mathbb{R}^n sont équivalentes.

Propriétés Clés

  • Unicité de la différentielle: Si une telle application linéaire LaL_a existe, elle est unique. On peut donc parler de la différentielle de ff en aa, notée dfadf_a.
  • Différentiabilité des composantes: Une fonction f=(f1,,fp)f = (f_1, \dots, f_p) est différentiable en aa si et seulement si chacune de ses fonctions composantes fi:URf_i : U \to \mathbb{R} est différentiable en aa.
  • La différentiabilité implique la continuité: Si une fonction ff est différentiable en un point aa, alors elle est nécessairement continue en ce point. La réciproque est fausse.

Exemples

Exemple 1 : Fonction affine

Soit f:RnRpf: \mathbb{R}^n \to \mathbb{R}^p une fonction affine, définie par f(x)=Mx+bf(x) = M x + b, où MM est une matrice de taille p×np \times n et bRpb \in \mathbb{R}^p. Montrons que ff est différentiable en tout point aRna \in \mathbb{R}^n.

On calcule f(a+h)=M(a+h)+b=(Ma+b)+Mh=f(a)+Mhf(a+h) = M(a+h) + b = (Ma+b) + Mh = f(a) + Mh.

En posant La(h)=MhL_a(h) = Mh, qui est bien une application linéaire, on a :

f(a+h)=f(a)+La(h)+0f(a+h) = f(a) + L_a(h) + 0

Le terme d’erreur est nul. La définition est donc satisfaite en tout point aa, et la différentielle est l’application linéaire hMhh \mapsto Mh, c’est-à-dire dfa(h)=Mhdf_a(h) = Mh.

Exemple 2 : Fonction quadratique simple

Soit f:R2Rf: \mathbb{R}^2 \to \mathbb{R} définie par f(x,y)=x2+y2f(x,y) = x^2+y^2. Montrons qu’elle est différentiable au point a=(a1,a2)a=(a_1, a_2). Soit h=(h1,h2)h=(h_1, h_2).

f(a+h)=f(a1+h1,a2+h2)=(a1+h1)2+(a2+h2)2f(a+h) = f(a_1+h_1, a_2+h_2) = (a_1+h_1)^2 + (a_2+h_2)^2

=(a12+2a1h1+h12)+(a22+2a2h2+h22)= (a_1^2 + 2a_1h_1 + h_1^2) + (a_2^2 + 2a_2h_2 + h_2^2)

=(a12+a22)+(2a1h1+2a2h2)+(h12+h22)= (a_1^2+a_2^2) + (2a_1h_1 + 2a_2h_2) + (h_1^2 + h_2^2)

=f(a)+La(h)+h22= f(a) + L_a(h) + \|h\|_2^2

Ici, La(h)=2a1h1+2a2h2L_a(h) = 2a_1h_1 + 2a_2h_2 est une application linéaire en h=(h1,h2)h=(h_1, h_2). Le terme d’erreur est R(h)=h12+h22=h22R(h) = h_1^2+h_2^2 = \|h\|_2^2.

Vérifions que c’est un o(h)o(\|h\|). On utilise une norme quelconque, par exemple h2=h12+h22\|h\|_2 = \sqrt{h_1^2+h_2^2}.

limh0R(h)h2=limh0h22h2=limh0h2=0\lim_{h \to 0} \frac{|R(h)|}{\|h\|_2} = \lim_{h \to 0} \frac{\|h\|_2^2}{\|h\|_2} = \lim_{h \to 0} \|h\|_2 = 0

La fonction est donc différentiable en aa, et sa différentielle est dfa(h1,h2)=2a1h1+2a2h2df_a(h_1,h_2) = 2a_1h_1 + 2a_2h_2.

Exemple 3 : Fonction de R\mathbb{R} dans R2\mathbb{R}^2

Soit f:RR2f: \mathbb{R} \to \mathbb{R}^2 définie par f(t)=(cos(t),sin(t))f(t) = (\cos(t), \sin(t)). Cette fonction décrit un cercle.

Une fonction de R\mathbb{R} dans Rp\mathbb{R}^p est différentiable si et seulement si ses composantes sont dérivables (au sens usuel).

Ici, f1(t)=cos(t)f_1(t) = \cos(t) et f2(t)=sin(t)f_2(t) = \sin(t) sont dérivables sur R\mathbb{R}, avec f1(t)=sin(t)f_1'(t) = -\sin(t) et f2(t)=sin(t)=cos(t)f_2'(t) = \sin'(t) = \cos(t).

Donc ff est différentiable. Sa différentielle en aRa \in \mathbb{R} est l’application linéaire dfa:RR2df_a : \mathbb{R} \to \mathbb{R}^2 définie par :

dfa(h)=h(f1(a)f2(a))=h(sin(a)cos(a))df_a(h) = h \cdot \begin{pmatrix} f_1'(a) \\ f_2'(a) \end{pmatrix} = h \begin{pmatrix} -\sin(a) \\ \cos(a) \end{pmatrix}

Contre-exemples

Contre-exemple 1 : Fonction non continue

Soit f:R2Rf : \mathbb{R}^2 \rightarrow \mathbb{R} définie par

f(x,y)={xyx2+y2si (x,y)(0,0)0si (x,y)=(0,0)f(x,y) = \begin{cases} \frac{xy}{x^2+y^2} & \text{si } (x,y) \neq (0,0) \\ 0 & \text{si } (x,y) = (0,0) \end{cases}

Cette fonction n’est pas continue en (0,0)(0,0) (en s’approchant de l’origine le long de la droite y=xy=x, la limite est 1/2f(0,0)1/2 \neq f(0,0)). Puisque la différentiabilité implique la continuité, ff ne peut pas être différentiable en (0,0)(0,0).

Contre-exemple 2 : Fonction avec un “coin”

Soit f:R2Rf: \mathbb{R}^2 \to \mathbb{R} définie par f(x,y)=x+yf(x,y) = |x| + |y|. Cette fonction est continue en (0,0)(0,0).

Cherchons s’il existe une application linéaire L(h1,h2)=c1h1+c2h2L(h_1, h_2) = c_1 h_1 + c_2 h_2 telle que :

f(h1,h2)=f(0,0)+L(h1,h2)+o(h)f(h_1, h_2) = f(0,0) + L(h_1, h_2) + o(\|h\|)

h1+h2=0+c1h1+c2h2+o(h)|h_1| + |h_2| = 0 + c_1 h_1 + c_2 h_2 + o(\|h\|)

Si on prend h=(t,0)h=(t, 0) avec t>0t>0, on a t=c1t+o(t)t = c_1 t + o(t), ce qui donne c1=1c_1=1 en divisant par tt et en faisant t0t \to 0.

Si on prend h=(t,0)h=(t, 0) avec t<0t<0, on a t=c1t+o(t)-t = c_1 t + o(t), ce qui donne c1=1c_1=-1.

Il est impossible d’avoir c1=1c_1=1 et c1=1c_1=-1 en même temps. Donc, il n’existe pas d’application linéaire qui convienne. La fonction n’est pas différentiable en (0,0)(0,0).

Concepts Liés

  • Continuité: La différentiabilité est une condition plus forte que la continuité.
  • Dérivée Partielle et Matrice Jacobienne: La différentielle dfadf_a, si elle existe, est représentée par la matrice Jacobienne, dont les coefficients sont les dérivées partielles de ff en aa. C’est le lien entre le concept abstrait de différentielle et son calcul pratique.

Concept 2: Dérivée Partielle

Prérequis

  • Calculus I: Définition de la dérivée d’une fonction d’une variable réelle et techniques de dérivation.
  • Fonctions de plusieurs variables: Compréhension du domaine de définition et de la notation f(x1,,xn)f(x_1, \dots, x_n).

Définition

Soit ff une fonction définie sur un ouvert URnU \subset \mathbb{R}^n à valeurs dans Rp\mathbb{R}^p. Soit a=(a1,,an)Ua = (a_1, \dots, a_n) \in U.

On dit que ff admet une dérivée partielle par rapport à sa kk-ième variable (pour k{1,,n}k \in \{1, \dots, n\}) au point aa si la limite suivante existe :

limt0f(a1,,ak+t,,an)f(a1,,an)t\lim_{t \to 0} \frac{f(a_1, \dots, a_k+t, \dots, a_n) - f(a_1, \dots, a_n)}{t}

Lorsque cette limite existe, on la note fxk(a)\frac{\partial f}{\partial x_k}(a) ou kf(a)\partial_k f(a). C’est un vecteur de Rp\mathbb{R}^p.

Explications Détaillées

L’idée de la dérivée partielle est très intuitive. Pour comprendre comment une fonction de plusieurs variables change, on peut simplifier le problème en ne faisant varier qu’une seule variable à la fois, tout en considérant les autres comme des constantes.

Calculer la dérivée partielle fxk(a)\frac{\partial f}{\partial x_k}(a) revient à :

  1. Fixer toutes les variables de ff sauf la kk-ième, xkx_k. On obtient une fonction d’une seule variable, tg(t)=f(a1,,ak1,t,ak+1,,an)t \mapsto g(t) = f(a_1, \dots, a_{k-1}, t, a_{k+1}, \dots, a_n).
  2. Dériver cette fonction g(t)g(t) de la manière habituelle par rapport à tt.
  3. Évaluer cette dérivée au point t=akt=a_k.

La dérivée partielle fxk(a)\frac{\partial f}{\partial x_k}(a) mesure le taux de variation instantané de ff au point aa lorsqu’on se déplace dans la direction de l’axe des xkx_k. Si ff est à valeurs dans Rp\mathbb{R}^p, ses dérivées partielles sont aussi des vecteurs de Rp\mathbb{R}^p. Le calcul se fait alors composante par composante.

Propriétés Clés

  • Règles de calcul: Les règles de dérivation usuelles (somme, produit, quotient, composition de fonctions d’une variable) s’appliquent directement au calcul des dérivées partielles, en traitant les autres variables comme des constantes.

  • Linéarité: L’opérateur de dérivation partielle est linéaire :

    xk(f+λg)(a)=fxk(a)+λgxk(a)\frac{\partial}{\partial x_k} (f + \lambda g)(a) = \frac{\partial f}{\partial x_k}(a) + \lambda \frac{\partial g}{\partial x_k}(a)

Exemples

Exemple 1 : Fonction polynomiale

Soit f:R3Rf: \mathbb{R}^3 \to \mathbb{R} définie par f(x,y,z)=x2y3+5yz2cos(x)f(x,y,z) = x^2 y^3 + 5yz^2 - \cos(x).

  • Dérivée partielle par rapport à xx: On traite yy et zz comme des constantes.

    fx(x,y,z)=x(x2y3)+x(5yz2)x(cos(x))=2xy3+0(sin(x))=2xy3+sin(x)\frac{\partial f}{\partial x}(x,y,z) = \frac{\partial}{\partial x}(x^2 y^3) + \frac{\partial}{\partial x}(5yz^2) - \frac{\partial}{\partial x}(\cos(x)) = 2x \cdot y^3 + 0 - (-\sin(x)) = 2xy^3 + \sin(x)

  • Dérivée partielle par rapport à yy: On traite xx et zz comme des constantes.

    fy(x,y,z)=x2(3y2)+5z2(1)0=3x2y2+5z2\frac{\partial f}{\partial y}(x,y,z) = x^2 \cdot (3y^2) + 5z^2 \cdot (1) - 0 = 3x^2y^2 + 5z^2

  • Dérivée partielle par rapport à zz: On traite xx et yy comme des constantes.

    fz(x,y,z)=0+5y(2z)0=10yz\frac{\partial f}{\partial z}(x,y,z) = 0 + 5y \cdot (2z) - 0 = 10yz

Exemple 2 : Fonction vectorielle

Soit g:R2R2g : \mathbb{R}^2 \rightarrow \mathbb{R}^2 définie par g(x,y)=(x2+y4sin(yex))g(x,y) = \begin{pmatrix} x^2 + y^4 \\ \sin(ye^x) \end{pmatrix}.

On calcule les dérivées partielles pour chaque composante.

  • Dérivée partielle par rapport à xx:

    gx(x,y)=(x(x2+y4)x(sin(yex)))=(2xcos(yex)x(yex))=(2xyexcos(yex))\frac{\partial g}{\partial x}(x,y) = \begin{pmatrix} \frac{\partial}{\partial x}(x^2 + y^4) \\ \frac{\partial}{\partial x}(\sin(ye^x)) \end{pmatrix} = \begin{pmatrix} 2x \\ \cos(ye^x) \cdot \frac{\partial}{\partial x}(ye^x) \end{pmatrix} = \begin{pmatrix} 2x \\ ye^x \cos(ye^x) \end{pmatrix}

  • Dérivée partielle par rapport à yy:

    gy(x,y)=(y(x2+y4)y(sin(yex)))=(4y3cos(yex)y(yex))=(4y3excos(yex))\frac{\partial g}{\partial y}(x,y) = \begin{pmatrix} \frac{\partial}{\partial y}(x^2 + y^4) \\ \frac{\partial}{\partial y}(\sin(ye^x)) \end{pmatrix} = \begin{pmatrix} 4y^3 \\ \cos(ye^x) \cdot \frac{\partial}{\partial y}(ye^x) \end{pmatrix} = \begin{pmatrix} 4y^3 \\ e^x \cos(ye^x) \end{pmatrix}

Exemple 3 : Utilisation de la définition

Soit f:R2Rf : \mathbb{R}^2 \rightarrow \mathbb{R} définie par f(x,y)={x3x2+y2si (x,y)(0,0)0si (x,y)=(0,0)f(x,y) = \begin{cases} \frac{x^3}{x^2+y^2} & \text{si } (x,y) \neq (0,0) \\ 0 & \text{si } (x,y) = (0,0) \end{cases}.

Calculons les dérivées partielles en (0,0)(0,0) en utilisant la définition.

  • Par rapport à xx:

    fx(0,0)=limt0f(t,0)f(0,0)t=limt0t3/(t2+02)0t=limt0t2t=limt0t=0\frac{\partial f}{\partial x}(0,0) = \lim_{t \to 0} \frac{f(t,0) - f(0,0)}{t} = \lim_{t \to 0} \frac{t^3/(t^2+0^2) - 0}{t} = \lim_{t \to 0} \frac{t^2}{t} = \lim_{t \to 0} t = 0

  • Par rapport à yy:

    fy(0,0)=limt0f(0,t)f(0,0)t=limt003/(02+t2)0t=limt00t=0\frac{\partial f}{\partial y}(0,0) = \lim_{t \to 0} \frac{f(0,t) - f(0,0)}{t} = \lim_{t \to 0} \frac{0^3/(0^2+t^2) - 0}{t} = \lim_{t \to 0} \frac{0}{t} = 0

Les deux dérivées partielles existent en (0,0)(0,0) et sont nulles.

Contre-exemples

Contre-exemple 1 : L’existence des dérivées partielles n’implique pas la continuité

Reprenons la fonction f(x,y)=xyx2+y2f(x,y) = \frac{xy}{x^2+y^2} pour (x,y)(0,0)(x,y) \neq (0,0) et f(0,0)=0f(0,0)=0.

Calculons les dérivées partielles en (0,0)(0,0) :

fx(0,0)=limt0f(t,0)f(0,0)t=limt000t=0\frac{\partial f}{\partial x}(0,0) = \lim_{t \to 0} \frac{f(t,0) - f(0,0)}{t} = \lim_{t \to 0} \frac{0 - 0}{t} = 0

fy(0,0)=limt0f(0,t)f(0,0)t=limt000t=0\frac{\partial f}{\partial y}(0,0) = \lim_{t \to 0} \frac{f(0,t) - f(0,0)}{t} = \lim_{t \to 0} \frac{0 - 0}{t} = 0

Les deux dérivées partielles existent à l’origine. Cependant, comme nous l’avons vu, la fonction n’est même pas continue en (0,0)(0,0).

Contre-exemple 2 : Une dérivée partielle peut ne pas exister

Soit f(x,y)=x2+y2f(x,y) = \sqrt{x^2+y^2} (la norme euclidienne).

En dehors de (0,0)(0,0), les dérivées partielles existent : fx=xx2+y2\frac{\partial f}{\partial x} = \frac{x}{\sqrt{x^2+y^2}}.

Essayons de calculer la dérivée partielle par rapport à xx en (0,0)(0,0) :

limt0f(t,0)f(0,0)t=limt0t2+020t=limt0tt\lim_{t \to 0} \frac{f(t,0) - f(0,0)}{t} = \lim_{t \to 0} \frac{\sqrt{t^2+0^2} - 0}{t} = \lim_{t \to 0} \frac{|t|}{t}

Cette limite n’existe pas (elle vaut 1 pour t0+t \to 0^+ et -1 pour t0t \to 0^-). Donc, fx(0,0)\frac{\partial f}{\partial x}(0,0) n’existe pas.

Concepts Liés

  • Fonction Différentiable: Si une fonction est différentiable en un point, alors toutes ses dérivées partielles existent en ce point. La réciproque est fausse.
  • Matrice Jacobienne: C’est la matrice qui contient toutes les dérivées partielles d’une fonction vectorielle.
  • Gradient: Pour une fonction à valeurs réelles, le gradient est le vecteur de ses dérivées partielles.

Concept 3: Matrice Jacobienne

Prérequis

  • Dérivée Partielle: Savoir calculer les dérivées partielles d’une fonction.
  • Algèbre Linéaire: Matrices, multiplication matricielle.
  • Fonction Différentiable: Définition de la différentielle.

Définition

Soit f:URnRpf: U \subset \mathbb{R}^n \to \mathbb{R}^p une fonction définie sur un ouvert UU. On suppose que ff admet des dérivées partielles par rapport à toutes ses variables en un point aUa \in U. Les composantes de ff sont notées f=(f1,,fp)f = (f_1, \dots, f_p).

La matrice jacobienne de ff au point aa, notée Jf(a)J_f(a), est la matrice de taille p×np \times n dont les coefficients sont les dérivées partielles des fonctions composantes fif_i par rapport aux variables xjx_j :

Jf(a)=(f1x1(a)f1x2(a)f1xn(a)f2x1(a)f2x2(a)f2xn(a)fpx1(a)fpx2(a)fpxn(a)) J_f(a) = \begin{pmatrix} \frac{\partial f_1}{\partial x_1}(a) & \frac{\partial f_1}{\partial x_2}(a) & \cdots & \frac{\partial f_1}{\partial x_n}(a) \\ \frac{\partial f_2}{\partial x_1}(a) & \frac{\partial f_2}{\partial x_2}(a) & \cdots & \frac{\partial f_2}{\partial x_n}(a) \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial f_p}{\partial x_1}(a) & \frac{\partial f_p}{\partial x_2}(a) & \cdots & \frac{\partial f_p}{\partial x_n}(a) \end{pmatrix}

L’élément à la ligne ii et la colonne jj est (Jf(a))ij=fixj(a)(J_f(a))_{ij} = \frac{\partial f_i}{\partial x_j}(a).

Explications Détaillées

La matrice jacobienne est l’outil qui concrétise la notion de différentielle. Si une fonction ff est différentiable en aa, sa différentielle dfadf_a est une application linéaire de Rn\mathbb{R}^n dans Rp\mathbb{R}^p. Comme toute application linéaire entre ces espaces, elle peut être représentée par une matrice. Cette matrice est précisément la matrice jacobienne Jf(a)J_f(a).

Comment se souvenir de sa structure ?

  • Nombre de lignes (pp) = dimension de l’espace d’arrivée (Rp\mathbb{R}^p). Chaque ligne correspond à une fonction composante fif_i.
  • Nombre de colonnes (nn) = dimension de l’espace de départ (Rn\mathbb{R}^n). Chaque colonne correspond à une variable de départ xjx_j.

La matrice jacobienne rassemble toute l’information sur les variations de ff au premier ordre le long des directions des axes de coordonnées.

Propriétés Clés

  • Représentation de la différentielle: (Théorème 4.10) Si ff est différentiable en aa, alors sa différentielle dfadf_a est l’application linéaire dont la matrice dans les bases canoniques est Jf(a)J_f(a). On a pour tout vecteur hRnh \in \mathbb{R}^n :

    dfa(h)=Jf(a)hdf_a(h) = J_f(a) h

    hh est vu comme un vecteur colonne.

  • Développement limité d’ordre 1: Si ff est différentiable en aa, on peut écrire :

    f(a+h)=f(a)+Jf(a)h+o(h)f(a+h) = f(a) + J_f(a)h + o(\|h\|)

    Ceci est la formulation la plus pratique de la différentiabilité.

Exemples

Exemple 1 : Fonction de R3\mathbb{R}^3 dans R2\mathbb{R}^2

Soit f:R3R2f: \mathbb{R}^3 \to \mathbb{R}^2 définie par f(x,y,z)=(x2y,sin(z)+y)f(x,y,z) = (x^2y, \sin(z)+y).

Ici n=3,p=2n=3, p=2. La jacobienne sera une matrice 2×32 \times 3.

Les composantes sont f1(x,y,z)=x2yf_1(x,y,z) = x^2y et f2(x,y,z)=sin(z)+yf_2(x,y,z) = \sin(z)+y.

Calculons les dérivées partielles :

  • f1x=2xy\frac{\partial f_1}{\partial x} = 2xy, f1y=x2\frac{\partial f_1}{\partial y} = x^2, f1z=0\frac{\partial f_1}{\partial z} = 0
  • f2x=0\frac{\partial f_2}{\partial x} = 0, f2y=1\frac{\partial f_2}{\partial y} = 1, f2z=cos(z)\frac{\partial f_2}{\partial z} = \cos(z)

La matrice jacobienne en un point (x,y,z)(x,y,z) est :

Jf(x,y,z)=(2xyx2001cos(z))J_f(x,y,z) = \begin{pmatrix} 2xy & x^2 & 0 \\ 0 & 1 & \cos(z) \end{pmatrix}

Par exemple, au point a=(1,2,0)a=(1,2,0), on a Jf(1,2,0)=(410011)J_f(1,2,0) = \begin{pmatrix} 4 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix}.

Exemple 2 : Coordonnées polaires

Considérons la fonction P:R2R2P: \mathbb{R}^2 \to \mathbb{R}^2 qui convertit les coordonnées polaires en coordonnées cartésiennes : P(r,θ)=(rcosθ,rsinθ)P(r, \theta) = (r\cos\theta, r\sin\theta).

Ici n=2,p=2n=2, p=2. Les variables sont (r,θ)(r, \theta) et les composantes sont x(r,θ)=rcosθx(r, \theta) = r\cos\theta et y(r,θ)=rsinθy(r, \theta) = r\sin\theta.

  • xr=cosθ\frac{\partial x}{\partial r} = \cos\theta, xθ=rsinθ\frac{\partial x}{\partial \theta} = -r\sin\theta
  • yr=sinθ\frac{\partial y}{\partial r} = \sin\theta, yθ=rcosθ\frac{\partial y}{\partial \theta} = r\cos\theta

La matrice jacobienne est :

JP(r,θ)=(cosθrsinθsinθrcosθ)J_P(r,\theta) = \begin{pmatrix} \cos\theta & -r\sin\theta \\ \sin\theta & r\cos\theta \end{pmatrix}

Le déterminant de cette matrice est det(JP(r,θ))=rcos2θ(rsin2θ)=r\det(J_P(r,\theta)) = r\cos^2\theta - (-r\sin^2\theta) = r, qui est le facteur de changement d’aire pour les intégrales en coordonnées polaires.

Exemple 3 : Fonction à valeurs réelles (cas du Gradient)

Soit g:RnRg: \mathbb{R}^n \to \mathbb{R}. Ici p=1p=1. La matrice jacobienne est une matrice 1×n1 \times n, c’est-à-dire un vecteur ligne.

Jg(a)=(gx1(a)gx2(a)gxn(a))J_g(a) = \begin{pmatrix} \frac{\partial g}{\partial x_1}(a) & \frac{\partial g}{\partial x_2}(a) & \cdots & \frac{\partial g}{\partial x_n}(a) \end{pmatrix}

Cette matrice est la transposée du vecteur gradient g(a)\nabla g(a).

Contre-exemples

Contre-exemple 1 : L’existence de la Jacobienne n’implique pas la différentiabilité

Reprenons la fonction f(x,y)=xyx2+y2f(x,y) = \frac{xy}{x^2+y^2} pour (x,y)(0,0)(x,y) \neq (0,0) et f(0,0)=0f(0,0)=0.

Nous avons vu que fx(0,0)=0\frac{\partial f}{\partial x}(0,0) = 0 et fy(0,0)=0\frac{\partial f}{\partial y}(0,0) = 0.

La matrice jacobienne en (0,0)(0,0) existe donc et est la matrice nulle : Jf(0,0)=(00)J_f(0,0) = \begin{pmatrix} 0 & 0 \end{pmatrix}.

Cependant, la fonction n’est pas différentiable en (0,0)(0,0) car elle n’y est pas continue.

Contre-exemple 2 : Mauvais usage de la Jacobienne

Il est crucial de ne pas confondre l’existence de la Jacobienne avec la différentiabilité. Si une fonction n’est pas différentiable, la formule f(a+h)f(a)+Jf(a)hf(a+h) \approx f(a) + J_f(a)h peut donner une très mauvaise approximation. Pour la fonction précédente, l’approximation serait f(h)f(0)+Jf(0)h=0+0=0f(h) \approx f(0) + J_f(0)h = 0 + 0 = 0. Or, sur la droite y=xy=x, la fonction vaut 1/21/2, ce qui est loin de 0.

Concepts Liés

  • Fonction Différentiable: La jacobienne est la représentation matricielle de la différentielle.
  • Dérivée Partielle: Les entrées de la jacobienne sont les dérivées partielles.
  • Règle de la chaîne (Chain Rule): La différentiation des fonctions composées se traduit élégamment par un produit des matrices jacobiennes.
  • Gradient: Pour une fonction scalaire, le gradient est la transposée de la matrice jacobienne.

Concept 4: Fonction de Classe C1\mathcal{C}^1

Prérequis

  • Dérivée Partielle: Savoir calculer les dérivées partielles.
  • Continuité: Comprendre la continuité des fonctions de plusieurs variables.

Définition

Une fonction f:URnRpf : U \subset \mathbb{R}^n \to \mathbb{R}^p, définie sur un ouvert UU, est dite de classe C1\mathcal{C}^1 sur UU si :

  1. ff admet des dérivées partielles par rapport à toutes ses variables en tout point de UU.
  2. Chacune de ces fonctions dérivées partielles afxk(a)a \mapsto \frac{\partial f}{\partial x_k}(a) est continue sur UU.

L’ensemble des fonctions de classe C1\mathcal{C}^1 sur UU à valeurs dans Rp\mathbb{R}^p est noté C1(U;Rp)\mathcal{C}^1(U; \mathbb{R}^p).

Explications Détaillées

Être de classe C1\mathcal{C}^1 est une condition de régularité plus forte que la simple existence des dérivées partielles ou même que la différentiabilité. Cela signifie non seulement que la fonction peut être approchée localement par une application affine (différentiabilité), mais aussi que cette approximation linéaire (la différentielle, ou matrice jacobienne) varie de manière continue lorsque l’on se déplace dans le domaine.

En pratique, pour vérifier qu’une fonction est de classe C1\mathcal{C}^1, on suit deux étapes :

  1. On calcule formellement toutes ses dérivées partielles fixj\frac{\partial f_i}{\partial x_j}.
  2. On étudie la continuité de chacune des fonctions obtenues. Si elles sont toutes continues sur le domaine UU, alors la fonction est de classe C1\mathcal{C}^1. Les fonctions usuelles (polynômes, sin, cos, exp, log) et leurs compositions donnent généralement des fonctions C1\mathcal{C}^1 sur leur domaine de définition.

La hiérarchie de la régularité est la suivante :

Classe C1    Diffeˊrentiable    {ContinueExistence des deˊriveˊes partielles\text{Classe } \mathcal{C}^1 \implies \text{Différentiable} \implies \left\{ \begin{array}{c} \text{Continue} \\ \text{Existence des dérivées partielles} \end{array} \right.

Attention, aucune des implications inverses n’est vraie !

Propriétés Clés

  • Théorème fondamental (Théorème 4.14): Si une fonction est de classe C1\mathcal{C}^1 sur un ouvert UU, alors elle est différentiable en tout point de UU.

    C’est le résultat le plus important concernant les fonctions C1\mathcal{C}^1. Il fournit un critère pratique et puissant pour prouver qu’une fonction est différentiable, ce qui est souvent plus simple que de revenir à la définition de la différentiabilité.

  • Stabilité par opérations: L’ensemble C1(U;Rp)\mathcal{C}^1(U; \mathbb{R}^p) est un espace vectoriel. De plus, le produit et la composition de fonctions de classe C1\mathcal{C}^1 (quand c’est possible) sont aussi de classe C1\mathcal{C}^1.

Exemples

Exemple 1 : Fonction polynomiale

Soit f(x,y)=x33xy2+yf(x,y) = x^3 - 3xy^2 + y sur R2\mathbb{R}^2.

  1. Calcul des dérivées partielles:

    fx(x,y)=3x23y2\frac{\partial f}{\partial x}(x,y) = 3x^2 - 3y^2

    fy(x,y)=6xy+1\frac{\partial f}{\partial y}(x,y) = -6xy + 1

  2. Continuité des dérivées partielles:

    Les fonctions (x,y)3x23y2(x,y) \mapsto 3x^2 - 3y^2 et (x,y)6xy+1(x,y) \mapsto -6xy + 1 sont des fonctions polynomiales en xx et yy. Elles sont donc continues sur R2\mathbb{R}^2.

    Conclusion : ff est de classe C1\mathcal{C}^1 sur R2\mathbb{R}^2. Par le théorème fondamental, ff est aussi différentiable sur R2\mathbb{R}^2.

Exemple 2 : Fonction avec un sinus

Soit f(x,y,z)=2xcos(y)f(x,y,z) = -2x \cos(y) sur R3\mathbb{R}^3.

  1. Calcul des dérivées partielles:

    fx(x,y,z)=2cos(y)\frac{\partial f}{\partial x}(x,y,z) = -2\cos(y)

    fy(x,y,z)=2x(sin(y))=2xsin(y)\frac{\partial f}{\partial y}(x,y,z) = -2x(-\sin(y)) = 2x\sin(y)

    fz(x,y,z)=0\frac{\partial f}{\partial z}(x,y,z) = 0

  2. Continuité des dérivées partielles:

    • (x,y,z)2cos(y)(x,y,z) \mapsto -2\cos(y) est continue car c’est la composition d’une projection et de la fonction cosinus.
    • (x,y,z)2xsin(y)(x,y,z) \mapsto 2x\sin(y) est continue comme produit de fonctions continues.
    • (x,y,z)0(x,y,z) \mapsto 0 est une fonction constante, donc continue.

    Conclusion : ff est de classe C1\mathcal{C}^1 sur R3\mathbb{R}^3.

Exemple 3 : Une fonction vectorielle

Soit g(x,y)=(ex+y,ln(1+x2))g(x,y) = (e^{x+y}, \ln(1+x^2)) sur R2\mathbb{R}^2.

Les composantes sont g1(x,y)=ex+yg_1(x,y) = e^{x+y} et g2(x,y)=ln(1+x2)g_2(x,y) = \ln(1+x^2).

  • Pour g1g_1: g1x=ex+y\frac{\partial g_1}{\partial x} = e^{x+y} et g1y=ex+y\frac{\partial g_1}{\partial y} = e^{x+y}. Ces fonctions sont continues sur R2\mathbb{R}^2.
  • Pour g2g_2: g2x=2x1+x2\frac{\partial g_2}{\partial x} = \frac{2x}{1+x^2} et g2y=0\frac{\partial g_2}{\partial y} = 0. Ces fonctions sont continues sur R2\mathbb{R}^2.

Toutes les dérivées partielles des composantes sont continues, donc gg est de classe C1\mathcal{C}^1 sur R2\mathbb{R}^2.

Contre-exemples

Contre-exemple 1 : Différentiable mais pas C1\mathcal{C}^1

Considérons la fonction f:RRf: \mathbb{R} \to \mathbb{R} définie par f(x)=x2sin(1/x)f(x) = x^2 \sin(1/x) si x0x \neq 0 et f(0)=0f(0)=0.

  • Cette fonction est dérivable en 0, avec f(0)=limh0h2sin(1/h)h=limh0hsin(1/h)=0f'(0) = \lim_{h\to 0} \frac{h^2\sin(1/h)}{h} = \lim_{h\to 0} h\sin(1/h) = 0.
  • Pour x0x \neq 0, f(x)=2xsin(1/x)cos(1/x)f'(x) = 2x\sin(1/x) - \cos(1/x).

La fonction dérivée f(x)f'(x) n’a pas de limite en 0 (à cause du terme cos(1/x)\cos(1/x)). Elle n’est donc pas continue en 0.

La fonction ff est dérivable (donc différentiable) partout, mais n’est pas de classe C1\mathcal{C}^1. Un exemple similaire peut être construit pour les fonctions de plusieurs variables.

Contre-exemple 2 : Dérivées partielles existantes mais non continues

Reprenons f(x,y)=xyx2+y2f(x,y) = \frac{xy}{x^2+y^2} pour (x,y)(0,0)(x,y) \neq (0,0) et f(0,0)=0f(0,0)=0.

Nous avons vu que fx(0,0)=0\frac{\partial f}{\partial x}(0,0) = 0.

Pour (x,y)(0,0)(x,y) \neq (0,0), on calcule fx(x,y)=y(x2+y2)xy(2x)(x2+y2)2=y3xy2(x2+y2)2\frac{\partial f}{\partial x}(x,y) = \frac{y(x^2+y^2) - xy(2x)}{(x^2+y^2)^2} = \frac{y^3-xy^2}{(x^2+y^2)^2}.

Cette fonction n’est pas continue en (0,0)(0,0). Par exemple, le long de l’axe yy (en posant x=t,y=cx=t, y=c), la limite quand t0t \to 0 dépend de cc. La fonction n’est donc pas de classe C1\mathcal{C}^1.

Concepts Liés

  • Différentiabilité: Être C1\mathcal{C}^1 est la condition suffisante la plus couramment utilisée pour prouver la différentiabilité.
  • Dérivées d’ordre supérieur: La notion de classe C1\mathcal{C}^1 se généralise aux classes Ck\mathcal{C}^k (toutes les dérivées partielles jusqu’à l’ordre kk existent et sont continues) et C\mathcal{C}^\infty (infiniment différentiable).

Concept 5: Règles de Calcul Différentiel (Opérations)

Prérequis

  • Fonction Différentiable et de Classe C1\mathcal{C}^1.
  • Matrice Jacobienne.
  • Algèbre Linéaire: Produit matriciel.

Définition et Propriétés

Les opérations algébriques usuelles (somme, produit par un scalaire, produit de fonctions) et la composition se comportent bien avec la différentiation. Si les fonctions sont différentiables (ou de classe C1\mathcal{C}^1), le résultat de l’opération l’est aussi, et on dispose de formules pour calculer la nouvelle différentielle (ou matrice jacobienne).

1. Combinaison linéaire (Proposition 4.16)

  • Hypothèses: Soient f,g:URnRpf, g: U \subset \mathbb{R}^n \to \mathbb{R}^p différentiables en aUa \in U et λR\lambda \in \mathbb{R}.

  • Conclusion: La fonction h=f+λgh = f + \lambda g est différentiable en aa et sa différentielle est :

    d(f+λg)a=dfa+λdgad(f+\lambda g)_a = df_a + \lambda dg_a

  • En termes de Jacobiennes:

    Jf+λg(a)=Jf(a)+λJg(a)J_{f+\lambda g}(a) = J_f(a) + \lambda J_g(a)

  • Régularité: Si ff et gg sont de classe C1\mathcal{C}^1, alors f+λgf+\lambda g l’est aussi. L’ensemble C1(U,Rp)\mathcal{C}^1(U, \mathbb{R}^p) est un espace vectoriel.

2. Formule de Leibniz pour le produit (Proposition 4.17)

  • Hypothèses: Soient f:URnRf: U \subset \mathbb{R}^n \to \mathbb{R} (scalaire) et g:URnRpg: U \subset \mathbb{R}^n \to \mathbb{R}^p (vectorielle) différentiables en aUa \in U.

  • Conclusion: La fonction produit h=fgh = fg est différentiable en aa.

  • En termes de Jacobiennes:

    Jfg(a)=g(a)Jf(a)+f(a)Jg(a)J_{fg}(a) = g(a) J_f(a) + f(a) J_g(a)

    Ici, g(a)g(a) est un vecteur colonne (p×1p \times 1), Jf(a)J_f(a) est un vecteur ligne (1×n1 \times n), leur produit est une matrice p×np \times n. f(a)f(a) est un scalaire et Jg(a)J_g(a) est une matrice p×np \times n.

  • Régularité: Si ff et gg sont de classe C1\mathcal{C}^1, alors fgfg l’est aussi.

3. Composition - Règle de la chaîne (Théorème 4.19)

  • Hypothèses: Soient URnU \subset \mathbb{R}^n et VRmV \subset \mathbb{R}^m des ouverts. Soient f:UVf: U \to V différentiable en aUa \in U, et g:VRpg: V \to \mathbb{R}^p différentiable en b=f(a)Vb=f(a) \in V.

  • Conclusion: La fonction composée gf:URpg \circ f : U \to \mathbb{R}^p est différentiable en aa.

  • Formule de la différentielle:

    d(gf)a=dgf(a)dfad(g \circ f)_a = dg_{f(a)} \circ df_a

    C’est une composition d’applications linéaires.

  • Formule des Jacobiennes: La règle de la chaîne se traduit par un produit matriciel.

    Jgf(a)=Jg(f(a))Jf(a)J_{g \circ f}(a) = J_g(f(a)) \cdot J_f(a)

    où le produit est une multiplication de matrices.

    Taille des matrices : Jgf(a)J_{g \circ f}(a) est p×np \times n. Jg(f(a))J_g(f(a)) est p×mp \times m. Jf(a)J_f(a) est m×nm \times n. Le produit (p×m)(m×n)(p \times m) \cdot (m \times n) donne bien une matrice (p×n)(p \times n). L’ordre est crucial !

  • Régularité: Si ff et gg sont de classe C1\mathcal{C}^1, alors gfg \circ f l’est aussi.

Exemples

Exemple 1 : Règle de la chaîne (simple)

Soit f:RR2f: \mathbb{R} \to \mathbb{R}^2 avec f(t)=(t2,sin(t))f(t) = (t^2, \sin(t)) et g:R2Rg: \mathbb{R}^2 \to \mathbb{R} avec g(x,y)=xyg(x,y) = xy. Calculons la dérivée de h=gfh = g \circ f en t=πt=\pi.

f(π)=(π2,0)f(\pi) = (\pi^2, 0).

  • Jacobienne de f: f(t)f'(t) est Jf(t)=(2tcos(t))J_f(t) = \begin{pmatrix} 2t \\ \cos(t) \end{pmatrix}. Donc Jf(π)=(2π1)J_f(\pi) = \begin{pmatrix} 2\pi \\ -1 \end{pmatrix}.

  • Jacobienne de g: Jg(x,y)=(gxgy)=(yx)J_g(x,y) = \begin{pmatrix} \frac{\partial g}{\partial x} & \frac{\partial g}{\partial y} \end{pmatrix} = \begin{pmatrix} y & x \end{pmatrix}. En f(π)=(π2,0)f(\pi)=(\pi^2, 0), on a Jg(f(π))=(0π2)J_g(f(\pi)) = \begin{pmatrix} 0 & \pi^2 \end{pmatrix}.

  • Application de la règle:

    Jgf(π)=Jg(f(π))Jf(π)=(0π2)(2π1)=0(2π)+π2(1)=π2J_{g \circ f}(\pi) = J_g(f(\pi)) \cdot J_f(\pi) = \begin{pmatrix} 0 & \pi^2 \end{pmatrix} \begin{pmatrix} 2\pi \\ -1 \end{pmatrix} = 0 \cdot (2\pi) + \pi^2 \cdot (-1) = -\pi^2

    Vérification directe : h(t)=g(f(t))=t2sin(t)h(t) = g(f(t)) = t^2\sin(t). h(t)=2tsin(t)+t2cos(t)h'(t) = 2t\sin(t) + t^2\cos(t). h(π)=2πsin(π)+π2cos(π)=π2h'(\pi) = 2\pi\sin(\pi) + \pi^2\cos(\pi) = -\pi^2. Ça fonctionne.

Exemple 2 : Règle de la chaîne (variables intermédiaires)

Soit φ:R2R\varphi : \mathbb{R}^2 \rightarrow \mathbb{R} de classe C1\mathcal{C}^1 et g(x,y)=φ(u(x,y),v(x,y))g(x,y) = \varphi(u(x,y), v(x,y))u(x,y)=x+yu(x,y) = x+y et v(x,y)=x2+y2v(x,y)=x^2+y^2. Exprimons les dérivées partielles de gg.

On a g=φfg = \varphi \circ f avec f(x,y)=(x+y,x2+y2)f(x,y) = (x+y, x^2+y^2).

Jf(x,y)=(uxuyvxvy)=(112x2y)J_f(x,y) = \begin{pmatrix} \frac{\partial u}{\partial x} & \frac{\partial u}{\partial y} \\ \frac{\partial v}{\partial x} & \frac{\partial v}{\partial y} \end{pmatrix} = \begin{pmatrix} 1 & 1 \\ 2x & 2y \end{pmatrix}

Jφ(u,v)=(φuφv)J_\varphi(u,v) = \begin{pmatrix} \frac{\partial \varphi}{\partial u} & \frac{\partial \varphi}{\partial v} \end{pmatrix}

Par la règle de la chaîne, Jg(x,y)=Jφ(f(x,y))Jf(x,y)J_g(x,y) = J_\varphi(f(x,y)) \cdot J_f(x,y):

(gxgy)=(φuφv)(112x2y)\begin{pmatrix} \frac{\partial g}{\partial x} & \frac{\partial g}{\partial y} \end{pmatrix} = \begin{pmatrix} \frac{\partial \varphi}{\partial u} & \frac{\partial \varphi}{\partial v} \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 2x & 2y \end{pmatrix}

=(φu1+φv2x,φu1+φv2y)= \left( \frac{\partial \varphi}{\partial u} \cdot 1 + \frac{\partial \varphi}{\partial v} \cdot 2x, \quad \frac{\partial \varphi}{\partial u} \cdot 1 + \frac{\partial \varphi}{\partial v} \cdot 2y \right)

Donc :

gx(x,y)=φu(u(x,y),v(x,y))+2xφv(u(x,y),v(x,y))\frac{\partial g}{\partial x}(x,y) = \frac{\partial \varphi}{\partial u}(u(x,y), v(x,y)) + 2x \frac{\partial \varphi}{\partial v}(u(x,y), v(x,y)).

gy(x,y)=φu(u(x,y),v(x,y))+2yφv(u(x,y),v(x,y))\frac{\partial g}{\partial y}(x,y) = \frac{\partial \varphi}{\partial u}(u(x,y), v(x,y)) + 2y \frac{\partial \varphi}{\partial v}(u(x,y), v(x,y)).

Exemple 3 : Produit (Formule de Leibniz)

Soit f(x,y)=x2f(x,y) = x^2 et g(x,y)=(ysin(x))g(x,y) = \begin{pmatrix} y \\ \sin(x) \end{pmatrix}. Soit h=fgh=fg.

  • f(x,y)=x2f(x,y)=x^2, Jf(x,y)=(2x0)J_f(x,y) = \begin{pmatrix} 2x & 0 \end{pmatrix}.
  • g(x,y)=(ysin(x))g(x,y)=\begin{pmatrix} y \\ \sin(x) \end{pmatrix}, Jg(x,y)=(01cos(x)0)J_g(x,y) = \begin{pmatrix} 0 & 1 \\ \cos(x) & 0 \end{pmatrix}.

Jh(x,y)=g(x,y)Jf(x,y)+f(x,y)Jg(x,y)J_h(x,y) = g(x,y) J_f(x,y) + f(x,y) J_g(x,y)

=(ysin(x))(2x0)+x2(01cos(x)0)= \begin{pmatrix} y \\ \sin(x) \end{pmatrix} \begin{pmatrix} 2x & 0 \end{pmatrix} + x^2 \begin{pmatrix} 0 & 1 \\ \cos(x) & 0 \end{pmatrix}

=(2xy02xsin(x)0)+(0x2x2cos(x)0)=(2xyx22xsin(x)+x2cos(x)0)= \begin{pmatrix} 2xy & 0 \\ 2x\sin(x) & 0 \end{pmatrix} + \begin{pmatrix} 0 & x^2 \\ x^2\cos(x) & 0 \end{pmatrix} = \begin{pmatrix} 2xy & x^2 \\ 2x\sin(x)+x^2\cos(x) & 0 \end{pmatrix}

Vérification : h(x,y)=x2(ysin(x))=(x2yx2sin(x))h(x,y) = x^2 \begin{pmatrix} y \\ \sin(x) \end{pmatrix} = \begin{pmatrix} x^2y \\ x^2\sin(x) \end{pmatrix}.

h1x=2xy\frac{\partial h_1}{\partial x} = 2xy, h1y=x2\frac{\partial h_1}{\partial y} = x^2.

h2x=2xsin(x)+x2cos(x)\frac{\partial h_2}{\partial x} = 2x\sin(x)+x^2\cos(x), h2y=0\frac{\partial h_2}{\partial y} = 0. La jacobienne correspond.

Contre-exemples

Contre-exemple 1 : Non-différentiabilité

La formule de la chaîne ne s’applique que si les fonctions sont différentiables aux points concernés. Soit f:RRf: \mathbb{R} \to \mathbb{R} définie par f(t)=tf(t)=|t| et g:RRg: \mathbb{R} \to \mathbb{R} par g(x)=x2g(x)=x^2.

ff n’est pas différentiable en 0. gg est différentiable partout.

gf(t)=(t)2=t2g \circ f(t) = (|t|)^2 = t^2. Cette fonction est différentiable en 0.

fg(t)=t2=t2f \circ g(t) = |t^2| = t^2. Cette fonction est aussi différentiable en 0.

Ici, la composée est différentiable, mais on ne peut pas appliquer la formule.

Contre-exemple 2 : Erreur d’ordre dans la composition

Reprenons l’Exemple 1. Jg(f(π))=(0π2)J_g(f(\pi)) = \begin{pmatrix} 0 & \pi^2 \end{pmatrix} et Jf(π)=(2π1)J_f(\pi) = \begin{pmatrix} 2\pi \\ -1 \end{pmatrix}.

Le produit Jg(f(π))Jf(π)J_g(f(\pi)) \cdot J_f(\pi) est (1×2)(2×1)(1 \times 2) \cdot (2 \times 1), ce qui donne une matrice 1×11 \times 1 (un scalaire).

Si on inversait l’ordre, Jf(π)Jg(f(π))J_f(\pi) \cdot J_g(f(\pi)), on aurait un produit (2×1)(1×2)(2 \times 1) \cdot (1 \times 2), ce qui donnerait une matrice 2×22 \times 2. De plus, le résultat serait incorrect :

(2π1)(0π2)=(02π30π2)π2\begin{pmatrix} 2\pi \\ -1 \end{pmatrix} \begin{pmatrix} 0 & \pi^2 \end{pmatrix} = \begin{pmatrix} 0 & 2\pi^3 \\ 0 & -\pi^2 \end{pmatrix} \neq -\pi^2

Concepts Liés

  • Toutes les notions de différentiabilité : Ces règles permettent de construire des fonctions différentiables ou C1\mathcal{C}^1 complexes à partir de briques de base simples.
  • Applications en physique et géométrie: La règle de la chaîne est fondamentale pour étudier des quantités le long de trajectoires (dérivée particulaire) ou lors de changements de coordonnées (e.g., polaires, sphériques).

Concept 6: Gradient d’une Fonction Numérique

Prérequis

  • Dérivée Partielle.
  • Algèbre Linéaire: Vecteurs, produit scalaire euclidien.
  • Matrice Jacobienne.

Définition

Soit UU un ouvert de Rn\mathbb{R}^n et f:URf : U \rightarrow \mathbb{R} une fonction à valeurs réelles (un champ scalaire) qui admet des dérivées partielles en un point aUa \in U.

Le gradient de ff au point aa est le vecteur de Rn\mathbb{R}^n, noté f(a)\nabla f(a) (lire “nabla f de a”), défini par :

undefined