Avertissement
Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.
Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".
Endomorphismes auto-adjoints
Concept 1: Déterminant d’une matrice et d’un endomorphisme
Prérequis
- Espaces vectoriels, bases et dimension.
- Matrices et applications linéaires.
- Notions de base sur les permutations (groupe symétrique ) et la signature d’une permutation.
Définition
Soit une matrice carrée de taille à coefficients dans un corps (par exemple ou ). Son déterminant, noté ou , est le scalaire de défini par la formule de Leibniz :
où :
- est l’ensemble de toutes les permutations de l’ensemble .
- est la signature de la permutation , qui vaut si est un produit d’un nombre pair de transpositions (permutation paire) et sinon (permutation impaire).
- Le produit porte sur les colonnes de la matrice, en choisissant l’élément de la ligne .
De manière équivalente, le déterminant est l’unique application de dans qui est n-linéaire alternée par rapport aux colonnes de la matrice et qui vaut 1 pour la matrice identité .
Soit un endomorphisme d’un -espace vectoriel de dimension finie . Le déterminant de , noté , est le déterminant de sa matrice dans n’importe quelle base de .
Cette définition est indépendante du choix de la base .
Explications Détaillées
La formule de Leibniz peut sembler complexe, mais l’idée est de sommer tous les produits possibles de coefficients de la matrice, en s’assurant de prendre exactement un coefficient par ligne et un par colonne. Chaque produit est affecté d’un signe ou qui dépend de la “géométrie” de la sélection des coefficients, représentée par la permutation .
Le déterminant a une interprétation géométrique fondamentale en dimension 2 et 3.
- En dimension 2, la valeur absolue de est l’aire du parallélogramme formé par les vecteurs et .
- En dimension 3, la valeur absolue de est le volume du parallélépipède formé par les vecteurs .
Plus généralement, pour un endomorphisme , représente le facteur par lequel les volumes sont multipliés par la transformation .
Propriétés Clés
Soient et .
- Multiplicativité : .
- Déterminant de l’identité : .
- Caractérisation de l’inversibilité : Une matrice est inversible si et seulement si . Si est inversible, .
- Transposition : . Cela signifie que toutes les propriétés valables pour les colonnes le sont aussi pour les lignes.
- Homogénéité : .
- Matrices triangulaires : Si est une matrice triangulaire (supérieure ou inférieure), son déterminant est le produit de ses coefficients diagonaux.
- Développement par rapport à une ligne/colonne : Pour tout , on a , où est le déterminant de la sous-matrice obtenue en supprimant la ligne et la colonne (appelé cofacteur).
Exemples
Exemple 1 : Matrice 2x2
Soit . Les permutations de sont l’identité (signature +1) et la transposition (signature -1).
Par exemple, .
Exemple 2 : Matrice 3x3 (Règle de Sarrus)
Soit . La règle de Sarrus est un moyen mnémotechnique :
Puisque le déterminant est nul, la matrice n’est pas inversible.
Exemple 3 : Développement par rapport à une colonne
Soit . Développons par rapport à la première colonne (j=1) :
Contre-exemples
-
Non-additivité : Le déterminant n’est pas linéaire. En général, .
Prenons et . Alors et .
Mais , donc .
Ici, .
-
Matrices non carrées : Le concept de déterminant n’est défini que pour les matrices carrées. Une matrice rectangulaire comme n’a pas de déterminant.
Concepts Connexes
- Polynôme Caractéristique : Défini comme , ses racines sont les valeurs propres de .
- Inversibilité d’une matrice : Une matrice est inversible si et seulement si son déterminant est non nul.
- Comatrice et inverse d’une matrice : La comatrice, formée par les cofacteurs, permet de calculer l’inverse d’une matrice : .
Concept 2: Valeurs Propres, Vecteurs Propres et Espaces Propres
Prérequis
- Espaces vectoriels et sous-espaces vectoriels.
- Applications linéaires (endomorphismes).
- Noyau et image d’une application linéaire.
Définition
Soit un -espace vectoriel et un endomorphisme.
-
Un scalaire est une valeur propre de s’il existe un vecteur non nul tel que .
-
Un tel vecteur est appelé vecteur propre de associé à la valeur propre .
-
L’ensemble de tous les vecteurs tels que (y compris le vecteur nul) forme un sous-espace vectoriel de , appelé sous-espace propre associé à . On le note ou simplement .
Explications Détaillées
L’idée fondamentale des vecteurs propres est de trouver des directions “privilégiées” pour une transformation linéaire . Un vecteur propre est un vecteur dont la direction n’est pas modifiée par : l’image est simplement une version “étirée” ou “rétrécie” de . Le facteur d’étirement est la valeur propre .
- Si , les vecteurs dans la direction de sont étirés.
- Si , ils sont contractés.
- Si , ils sont étirés/contractés et leur sens est inversé.
- Si , les vecteurs propres sont invariants par .
- Si , les vecteurs propres (non nuls) sont dans le noyau de .
Le sous-espace propre est l’ensemble de tous les vecteurs propres associés à , auquel on ajoute le vecteur nul pour en faire un sous-espace vectoriel.
Propriétés Clés
- Un sous-espace propre est un sous-espace vectoriel de .
- Par définition d’une valeur propre, si est une valeur propre, alors .
- Tout sous-espace propre est stable par , c’est-à-dire que si , alors .
- Théorème fondamental : La somme de sous-espaces propres associés à des valeurs propres distinctes est toujours une somme directe. Si sont des valeurs propres distinctes, alors .
Exemples
Exemple 1 : Matrice simple
Soit l’endomorphisme de dont la matrice dans la base canonique est .
-
Cherchons si est une valeur propre. On résout , soit ou .
.
Les vecteurs propres pour sont de la forme avec . Le sous-espace propre est .
-
Cherchons si est une valeur propre. On résout .
.
Les vecteurs propres pour sont de la forme avec . Le sous-espace propre est .
Exemple 2 : Projection orthogonale
Soit la projection orthogonale sur un plan dans .
- Pour tout vecteur , . Donc, 1 est une valeur propre et le sous-espace propre associé est .
- Pour tout vecteur (la droite orthogonale à ), . Donc, 0 est une valeur propre et le sous-espace propre associé est .
On a bien .
Exemple 3 : Rotation dans le plan
Soit la rotation d’angle dans . Sa matrice est .
Un vecteur propre devrait être transformé en , c’est-à-dire colinéaire à lui-même. Une rotation (sauf pour ou ) change la direction de tous les vecteurs non nuls. Donc, n’a pas de vecteurs propres réels, et donc pas de valeurs propres réelles.
Contre-exemples
-
Le vecteur nul n’est jamais un vecteur propre. La définition exige . Si on autorisait , alors serait vrai pour n’importe quel , ce qui rendrait le concept inutile.
-
Un endomorphisme peut n’avoir aucune valeur propre. Comme vu dans l’exemple 3, une rotation d’angle dans n’a aucune valeur propre réelle. Si on la considère comme un endomorphisme de , elle en possède deux : et .
Concepts Connexes
- Polynôme Caractéristique : Outil principal pour trouver les valeurs propres.
- Diagonalisation : Un endomorphisme est diagonalisable s’il existe une base de vecteurs propres.
- Stabilité d’un sous-espace : Les sous-espaces propres sont les exemples les plus simples de sous-espaces stables.
Concept 3: Diagonalisation et Polynôme Caractéristique
Prérequis
- Concepts 1 (Déterminant) et 2 (Valeurs Propres).
- Polynômes (racines, factorisation, multiplicité).
- Changement de base pour les matrices d’endomorphismes.
Définition
-
Polynôme Caractéristique : Soit un endomorphisme d’un -espace vectoriel de dimension . Son polynôme caractéristique est le polynôme en défini par :
Les racines de dans sont exactement les valeurs propres de .
-
Endomorphisme Diagonalisable : Un endomorphisme est dit diagonalisable s’il existe une base de entièrement constituée de vecteurs propres de . Dans une telle base, la matrice de est une matrice diagonale :
où les sont les valeurs propres de .
-
Multiplicités : Pour une valeur propre :
- La multiplicité algébrique est la multiplicité de comme racine du polynôme caractéristique.
- La multiplicité géométrique est la dimension du sous-espace propre associé : . On a toujours .
Explications Détaillées
La diagonalisation est un des objectifs centraux de l’algèbre linéaire. Représenter un endomorphisme par une matrice diagonale simplifie énormément son étude. Par exemple, calculer les puissances d’une matrice diagonale est très simple : . Si , alors , ce qui est facile à calculer.
La procédure pour tenter de diagonaliser un endomorphisme (ou une matrice ) est la suivante :
- Calculer le polynôme caractéristique .
- Trouver ses racines dans . Ce sont les valeurs propres de .
- Pour chaque valeur propre , trouver une base du sous-espace propre . La dimension de cet espace est la multiplicité géométrique .
- Vérifier si est diagonalisable.
Propriétés Clés
-
Critère de diagonalisation (cas simple) : Si un endomorphisme de dimension possède valeurs propres distinctes dans , alors il est diagonalisable.
-
Critère de diagonalisation (cas général) : Un endomorphisme d’un espace de dimension est diagonalisable si et seulement si deux conditions sont remplies :
- Le polynôme caractéristique est scindé sur (il peut être écrit comme un produit de facteurs de degré 1).
- Pour chaque valeur propre de , sa multiplicité algébrique est égale à sa multiplicité géométrique ().
La première condition est toujours vraie si (Théorème de d’Alembert-Gauss). La seconde condition est la plus cruciale.
-
Un endomorphisme est diagonalisable si et seulement si , où est l’ensemble des valeurs propres.
Exemples
Exemple 1 : Diagonalisable (valeurs propres distinctes)
Soit .
- .
- Les racines sont (le nombre d’or ) et .
- On a deux valeurs propres distinctes dans pour un espace de dimension 2, donc est diagonalisable sur .
Exemple 2 : Diagonalisable (valeur propre multiple)
Soit .
- . Les valeurs propres sont (multiplicité algébrique ) et (multiplicité ).
- Pour , on cherche . Le noyau est le plan d’équation . Il est de dimension 2. Une base est . Donc .
- Pour , sera forcément 1. On trouve .
- Comme et , la matrice est diagonalisable.
Exemple 3 : Non diagonalisable
Soit .
-
.
-
La seule valeur propre est , avec une multiplicité algébrique .
-
Calculons le sous-espace propre .
.
Donc , et sa dimension est .
-
Puisque , la matrice n’est pas diagonalisable.
Contre-exemples
-
Matrice non diagonalisable sur mais sur : La matrice de rotation . Son polynôme caractéristique est , qui n’a pas de racines réelles. Donc n’est pas diagonalisable sur . Sur , les valeurs propres sont et , qui sont distinctes, donc elle est diagonalisable sur .
-
Matrice avec polynôme scindé mais non diagonalisable : La matrice (matrice de cisaillement). Son polynôme caractéristique est , qui est scindé. Mais comme pour l’exemple 3 ci-dessus, la multiplicité géométrique (1) est inférieure à l’algébrique (2).
Concepts Connexes
- Théorème Spectral : Un théorème majeur qui garantit que les endomorphismes auto-adjoints sont toujours diagonalisables.
- Trigonalisation : Tout endomorphisme sur un corps algébriquement clos (comme ) est trigonalisable, même s’il n’est pas diagonalisable.
- Décomposition de Jordan : Une généralisation de la diagonalisation pour les matrices non diagonalisables.
Concept 4: Endomorphisme Auto-adjoint
Prérequis
- Espaces vectoriels euclidiens (produit scalaire sur ) ou hermitiens (produit scalaire sur ).
- Endomorphisme adjoint .
- Bases orthonormées.
- Matrices symétriques (cas réel) et hermitiennes (cas complexe).
Définition
Soit un espace vectoriel euclidien ou hermitien de dimension finie. Un endomorphisme est dit auto-adjoint (ou symétrique) si est égal à son propre adjoint, .
Cela se traduit par la relation suivante pour tous les vecteurs :
Dans le contexte matriciel :
- Si est un espace euclidien et est une base orthonormée, est auto-adjoint si et seulement si sa matrice est symétrique ().
- Si est un espace hermitien et est une base orthonormée, est auto-adjoint si et seulement si sa matrice est hermitienne ().
Explications Détaillées
Un endomorphisme auto-adjoint est une transformation qui se “comporte bien” avec la structure géométrique de l’espace (le produit scalaire). La condition signifie qu’on peut “déplacer” l’endomorphisme d’un côté à l’autre du produit scalaire sans rien changer.
Ces opérateurs apparaissent naturellement dans de nombreux domaines de la physique (opérateurs quantiques, tenseur d’inertie) et des mathématiques (formes quadratiques, analyse de données). Ils possèdent des propriétés de “symétrie” très fortes qui les rendent particulièrement simples à étudier, notamment en ce qui concerne leur diagonalisation.
Propriétés Clés
Soit un endomorphisme auto-adjoint sur un espace .
- Les valeurs propres de sont toutes réelles, même si l’espace est hermitien (complexe).
- Les sous-espaces propres associés à des valeurs propres distinctes sont orthogonaux. Si et avec , alors .
- Stabilité de l’orthogonal : Si un sous-espace vectoriel est stable par (c’est-à-dire ), alors son complément orthogonal est aussi stable par .
Exemples
Exemple 1 : Matrice symétrique réelle
Soit l’endomorphisme de (muni du produit scalaire usuel) dont la matrice dans la base canonique (qui est orthonormée) est .
Puisque est symétrique, est auto-adjoint. Vérifions la propriété pour et :
Les deux expressions sont égales.
Exemple 2 : Projection orthogonale
Soit la projection orthogonale sur un sous-espace de . Pour tous , on peut écrire et .
L’égalité montre que est auto-adjoint.
Exemple 3 : Homothétie
Une homothétie pour un scalaire réel est auto-adjointe:
L’égalité est vraie pour .
Contre-exemples
-
Rotation dans : Soit la rotation d’angle . Sa matrice dans la base canonique est . Cette matrice n’est pas symétrique, donc n’est pas auto-adjoint. En effet, si et :
.
.
Les résultats sont différents.
-
Cisaillement (Shear) : Soit l’endomorphisme de matrice . Elle n’est pas symétrique et n’est pas auto-adjoint.
Prenons et :
.
.
Concepts Connexes
- Théorème Spectral : Le résultat principal concernant les endomorphismes auto-adjoints.
- Formes Quadratiques : À chaque endomorphisme auto-adjoint est associée une forme quadratique .
- Endomorphismes normaux : Une classe plus générale d’endomorphismes () qui contient les auto-adjoints et qui sont aussi diagonalisables (sur ) dans une base orthonormée.
Concept 5: Théorème Spectral
Prérequis
- Concepts 2, 3 et 4 (valeurs propres, diagonalisation, endomorphismes auto-adjoints).
- Espaces euclidiens et hermitiens.
- Bases orthonormées.
- Matrices orthogonales () et unitaires ().
Définition
Le théorème spectral est un résultat fondamental qui décrit la structure des endomorphismes auto-adjoints.
Énoncé pour les endomorphismes :
Soit un espace vectoriel euclidien ou hermitien de dimension finie . Si est un endomorphisme auto-adjoint, alors :
- est diagonalisable.
- Il existe une base orthonormée de constituée de vecteurs propres de .
- Toutes les valeurs propres de sont réelles.
Énoncé pour les matrices :
-
Cas réel : Pour toute matrice symétrique réelle , il existe une matrice orthogonale et une matrice diagonale réelle telles que :
-
Cas complexe : Pour toute matrice hermitienne , il existe une matrice unitaire et une matrice diagonale réelle telles que :
Explications Détaillées
Ce théorème est l’un des plus importants de l’algèbre linéaire. Il nous dit que pour les transformations “symétriques” (auto-adjointes), non seulement on peut trouver une base de vecteurs propres (diagonalisabilité), mais en plus, on peut choisir cette base pour qu’elle soit orthonormée.
Géométriquement, cela signifie que toute transformation auto-adjointe peut être vue comme une série d’étirements ou de compressions le long d’axes mutuellement orthogonaux. Les directions de ces axes sont données par les vecteurs propres, et les facteurs d’étirement sont les valeurs propres.
La version matricielle est extrêmement utile en pratique. Elle permet de “décomposer” une matrice symétrique en une rotation/réflexion (), une mise à l’échelle simple (), et la transformation inverse ().
Propriétés Clés
- Garantie de diagonalisabilité : Contrairement à un endomorphisme général, un endomorphisme auto-adjoint est toujours diagonalisable sur (si l’espace est euclidien) ou (si hermitien).
- Orthogonalité des espaces propres : Les espaces propres associés à des valeurs propres distinctes sont orthogonaux, ce qui est une étape clé de la preuve et de la construction de la base orthonormée.
- Base de la diagonalisation : La matrice de passage (ou ) qui diagonalise la matrice symétrique (ou hermitienne) a pour colonnes les vecteurs d’une base orthonormée de vecteurs propres.
Exemples
Exemple 1 : Diagonalisation d’une matrice symétrique 2x2
Soit .
-
Valeurs propres : . Les valeurs propres sont .
-
Vecteurs propres :
- Pour : . Un vecteur propre est .
- Pour : . Un vecteur propre est .
-
Orthogonalité : On vérifie que . Les vecteurs propres sont bien orthogonaux.
-
Base orthonormée : On normalise les vecteurs :
, .
-
Décomposition : , . On peut vérifier que .
Exemple 2 : Matrice de l’énoncé
Soit .
- Valeurs propres : . Les valeurs propres sont .
- Vecteurs propres normalisés :
- Matrices : et est la matrice dont les colonnes sont . est orthogonale.
Exemple 3 : Projection
La projection sur la droite dans . Sa matrice est . C’est une matrice symétrique. Ses valeurs propres sont 1 et 0, associées aux vecteurs propres orthogonaux et . La base orthonormée de diagonalisation est .
Contre-exemples
-
Matrice non symétrique : La matrice de cisaillement n’est pas symétrique et n’est pas diagonalisable, donc le théorème spectral ne s’applique pas.
-
Matrice diagonalisable mais pas dans une base orthonormée :
Soit . Elle est diagonalisable car elle a deux valeurs propres distinctes (1 et 2).
Les vecteurs propres sont et . Ces vecteurs ne sont pas orthogonaux (), donc il n’existe pas de base orthonormée de vecteurs propres. Cela est dû au fait que n’est pas symétrique.
Applications
- Géométrie : Classification et simplification des équations de coniques et quadriques.
- Mécanique : Le tenseur d’inertie est une matrice symétrique ; ses vecteurs propres sont les axes principaux d’inertie.
- Statistiques : L’Analyse en Composantes Principales (ACP) repose sur la diagonalisation de la matrice de covariance, qui est symétrique.
Concept 6: Endomorphismes Positifs et Définis Positifs
Prérequis
- Concept 4: Endomorphisme Auto-adjoint.
- Espaces euclidiens et hermitiens.
- Formes quadratiques.
Définition
Soit un espace euclidien ou hermitien, et un endomorphisme auto-adjoint.
-
est dit positif si pour tout vecteur , on a :
-
est dit défini positif si pour tout vecteur non nul , on a :
Une matrice symétrique réelle (ou hermitienne ) est dite positive (resp. définie positive) si l’endomorphisme qu’elle représente dans une base orthonormée l’est.
Explications Détaillées
La notion d’endomorphisme positif généralise celle de nombre réel positif. La quantité est souvent associée à une “énergie”. Un endomorphisme positif est une transformation qui ne produit jamais une “énergie négative”. Un endomorphisme défini positif produit toujours une énergie strictement positive, sauf pour le vecteur nul.
Cette propriété est fondamentale pour définir une “racine carrée” d’un endomorphisme ou d’une matrice, et elle est cruciale pour définir de nouveaux produits scalaires. En effet, si est auto-adjoint défini positif, alors l’application est un nouveau produit scalaire sur .
Propriétés Clés
Soit un endomorphisme auto-adjoint.
- Caractérisation par les valeurs propres :
- est positif si et seulement si toutes ses valeurs propres sont positives ou nulles ().
- est défini positif si et seulement si toutes ses valeurs propres sont strictement positives ().
- Un endomorphisme défini positif est toujours inversible (car 0 n’est pas une valeur propre).
- Si est une matrice réelle inversible, alors et sont des matrices symétriques définies positives. Si n’est pas inversible, elles sont seulement positives.
- Racine carrée : Si est un endomorphisme auto-adjoint positif, il existe un unique endomorphisme auto-adjoint positif tel que . On le note .
Exemples
Exemple 1 : Matrice définie positive
Soit . C’est une matrice symétrique.
Ses valeurs propres sont les racines de , soit . Les valeurs propres sont et . Comme elles sont strictement positives, est définie positive.
Vérifions directement : pour ,
.
Exemple 2 : Matrice positive non définie
Une projection orthogonale sur un sous-espace . Ses valeurs propres sont 0 et 1. Comme elles sont , est un endomorphisme positif. Cependant, comme 0 est une valeur propre, il existe des vecteurs (ceux dans ) tels que . Il n’est donc pas défini positif.
Exemple 3 : Construction d’une matrice positive
Soit . n’est pas symétrique.
La matrice est symétrique et positive. Comme , est inversible, donc est définie positive.
Contre-exemples
-
Matrice symétrique non positive : Soit . C’est une matrice symétrique. Sa deuxième valeur propre est , elle n’est donc pas positive. Pour , .
-
Matrice non symétrique avec : La notion de positivité n’est définie que pour les endomorphismes auto-adjoints. Prenons .
.
Bien que la forme quadratique soit positive, la matrice n’est pas dite “positive” car elle n’est pas symétrique.
Concepts Connexes
- Décomposition Polaire : Utilise la notion de racine carrée d’une matrice symétrique positive.
- Produit Scalaire : Toute matrice symétrique définie positive peut être utilisée pour définir un nouveau produit scalaire .
- Décomposition de Cholesky : Toute matrice symétrique définie positive peut s’écrire de manière unique sous la forme où est une matrice triangulaire inférieure à diagonale positive.
Concept 7: Décomposition Polaire
Prérequis
- Concepts 5 (Théorème Spectral) et 6 (Endomorphismes Positifs).
- Matrices inversibles ().
- Matrices orthogonales ().
Définition
Le théorème de la décomposition polaire affirme que toute transformation linéaire inversible peut être décomposée de manière unique en un étirement pur (auto-adjoint défini positif) suivi d’une isométrie (rotation/réflexion).
Énoncé pour les matrices :
Pour toute matrice inversible , il existe :
- une unique matrice orthogonale ,
- une unique matrice symétrique définie positive ,
telles que :
Il existe également une décomposition “à droite” , qui est en général différente.
Explications Détaillées
Cette décomposition est l’analogue matriciel de la forme polaire d’un nombre complexe non nul , où est le module (un étirement réel positif) et est un nombre complexe de module 1 (une rotation).
Pour les matrices :
- La matrice joue le rôle de . C’est une transformation qui étire ou contracte l’espace le long d’axes orthogonaux (ses vecteurs propres).
- La matrice joue le rôle de . C’est une isométrie, qui préserve les longueurs et les angles, correspondant à une rotation ou une roto-réflexion.
La décomposition polaire sépare ainsi les deux effets géométriques fondamentaux d’une transformation linéaire : la déformation (capturée par ) et la rotation (capturée par ).
Construction :
Pour trouver la décomposition :
- On remarque que .
- La matrice est symétrique et définie positive. D’après le concept 6, elle admet une unique racine carrée symétrique définie positive, .
- Une fois déterminée, on trouve par la relation . On peut prouver que la matrice ainsi obtenue est bien orthogonale.
Propriétés Clés
- Unicité : La décomposition d’une matrice inversible en un produit (avec symétrique définie positive et orthogonale) est unique.
- Orientation : La matrice orthogonale est une rotation pure (, i.e. ) si et seulement si .
- Généralisation : Une version de la décomposition polaire existe aussi pour les matrices non-inversibles, mais est seulement positive et n’est pas unique.
Exemples
Exemple 1 : Décomposition d’une matrice 2x2
Soit .
-
Calculons .
-
est déjà diagonale. Sa racine carrée symétrique définie positive est évidente :
.
-
Calculons :
.
.
Cette matrice est bien orthogonale (c’est une rotation de ).
-
La décomposition est .
Exemple 2 : Analogie avec les nombres complexes
Soit la matrice représentant le complexe .
-
.
-
.
-
. Si , alors et , donc est la matrice de rotation d’angle .
On retrouve .
Exemple 3 : Matrice non-diagonale
Soit (cisaillement).
- . C’est la matrice de l’exemple 1 du Th. Spectral (à un facteur près).
- On doit diagonaliser pour calculer sa racine. Ses valeurs propres sont . Après calcul, on trouve .
- Puis .
Contre-exemples
-
Matrice singulière : Si , , elle n’est pas dans . , qui est symétrique positive mais pas définie positive (ses valeurs propres sont 4 et 0). La construction standard ne fonctionne pas car n’est pas inversible.
-
Décomposition non-commutative : En général, . La décomposition “à droite” utilise . Pour l’exemple 1, qui est différente de . Donc et .
Applications
- Mécanique des milieux continus : Le tenseur des déformations d’un matériau est décomposé en une partie “étirement pur” (tenseur de Cauchy-Green droit) et une partie “rotation pure”.
- Vision par ordinateur et robotique : Utilisée pour trouver la rotation “la plus proche” d’une matrice de transformation donnée, en ignorant les déformations.
- Algèbre linéaire numérique : Intervient dans certains algorithmes, notamment pour le calcul de la Décomposition en Valeurs Singulières (SVD).