Toutes les matrices considérées sont des matrices carrées
à
lignes et
colonnes, à coefficients dans
ou
.
Les vecteurs sont identifiés à
des matrices à
lignes et
colonne.
Une matrice
est diagonale si tous ses coefficients en
dehors de la diagonale sont nuls.
Elle est donc de la forme :
Pour comprendre le rôle des coefficients diagonaux, supposons tout
d'abord qu'ils sont tous égaux à
. Dans ce cas,
est proportionnelle à la matrice identité :
. Pour tout vecteur
de
, le vecteur
est
proportionnel à
:
. Multiplier le vecteur
par la matrice
revient à le multiplier par le facteur
. Géométriquement, c'est effectuer une homothétie
de rapport
.
Supposons maintenant que les coefficients diagonaux soient
quelconques. Considérons une base
de
, et
examinons l'endomorphisme
de
, de matrice
dans cette
base. Dire que
est diagonale, c'est dire que l'image du vecteur
de la base
est
. Si on restreint
à la direction
,
est une homothétie de rapport
. Si
est un vecteur
quelconque de
,
s'écrit
. Son image par
est :
Les matrices diagonales sont
particulièrement simples à manipuler. Voici les propriétés
principales :

- Le déterminant d'une matrice diagonale est le produit des
coefficients diagonaux.

- Multiplier à gauche par une matrice diagonale revient à multiplier
la
-ième ligne par
: si
est une matrice
quelconque, alors

- Multiplier à droite par une matrice diagonale revient à multiplier
la
-ième colonne par
: si
est une matrice
quelconque, alors

- Le produit de deux matrices diagonales est une matrice diagonale.

- Si tous les coefficients diagonaux sont non nuls, la matrice est
inversible :

- La puissance
-ième d'une matrice diagonale est :
Pour une matrice
quelconque, les calculs se simplifient à partir
du moment où elle est semblable à une matrice diagonale.
Deux matrices
et
sont
semblables, lorsqu'elles représentent le même endomorphisme dans deux bases
différentes, ou encore, quand il existe une matrice de passage
telle que
. Par exemple :
Définition 1
Une matrice
est dite diagonalisable si elle est semblable à une
matrice diagonale.
L'objectif des deux premières sections de ce chapitre
est d'apprendre à diagonaliser une
matrice, quand c'est possible.
Définition 2
Diagonaliser une matrice
, c'est trouver une matrice de
passage
et une matrice diagonale
telles que :
Si
, alors
. Mais si
est une matrice diagonale, multiplier
à
droite par
revient à multiplier les vecteurs colonnes de
par
les coefficients diagonaux de
. Notons
le
-ième vecteur
colonne de la matrice
et
le
-ième coefficient
diagonal de
. Pour tout
, on doit avoir :
en notant
la matrice identité de dimension
.
On dit que
est un vecteur propre de
associé à la
valeur propre
.
Observons que
est une valeur propre de
si et seulement si
le système
a une solution non nulle.
Voici deux manières
équivalentes de l'exprimer.
Définition 4
On appelle polynôme caractéristique de la matrice
, et
on note
le déterminant de la matrice
.
D'après la forme développée d'un déterminant,
est une
somme de produits des termes de la matrice.
Chaque produit est constitué de
facteurs qui
sont des termes pris dans des lignes et des colonnes
différentes. Le terme de plus haut degré en
dans le
déterminant
provient du produit des termes qui
contiennent tous
, à savoir les coefficients diagonaux :
.
Le polynôme caractéristique
est donc de degré
: son terme de plus
haut degré est
.
Tant que nous y sommes, observons que le terme constant de
est le déterminant de
; c'est aussi le produit
des valeurs propres (comptées avec leurs multiplicités). Le
coefficient du terme de degré
dans
est la somme
des termes diagonaux, que l'on appelle la trace de la matrice
; c'est aussi la somme des valeurs propres (toujours
comptées avec leurs multiplicités).
Comme les valeurs propres sont
racines du polynôme caractéristique, une
matrice de dimensions
admet au plus
valeurs propres
distinctes.
Pour qu'une matrice soit diagonalisable, il faut déjà que son polynôme
caractéristique admette effectivement
racines (comptées avec
leurs ordres de multiplicité), donc qu'il soit
scindé. C'est toujours le cas dans
, pas toujours dans
.
Si
est une valeur propre, l'ensemble des vecteurs
tels
que
, est un sous-espace vectoriel. Par
définition, il contient le vecteur nul, et tous les
vecteurs propres de
associés à
. On l'appelle le «sous-espace propre» associé à
.
Définition 5
Soit
une valeur propre, on appelle sous-espace propre
associé à
l'espace vectoriel
Démonstration : Remarquons qu'un même vecteur propre ne peut être
associé qu'à une seule valeur propre. Par conséquent,
deux sous-espaces propres associés à deux valeurs
propres distinctes ont une intersection
réduite au vecteur nul : les sous-espaces propres sont en
somme directe.
Supposons que
soit diagonalisable :
, mais aussi
. Les propriétés générales des
déterminants font que
: le polynôme
caractéristique de
et celui de
sont les mêmes :
Or le polynôme caractéristique de
est le produit des termes
diagonaux. Cela signifie que pour tout
, exactement
termes diagonaux de
sont égaux à
.
Il existe donc
vecteurs colonnes de
qui sont
des vecteurs propres de
, associés à la valeur propre
. Comme ces vecteurs forment une famille libre,
la dimension du sous-espace propre associé est au moins égale à
. Comme
, et que les
sous-espaces propres sont en somme directe, chacun est de
dimension exactement
et leur somme directe est
.
Réciproquement, si pour tout
le sous-espace propre associé à
est de dimension
, alors leur somme directe est
: on peut constituer une base de
en choisissant une
base de vecteurs dans chaque sous-espace propre.
La mauvaise nouvelle est que toutes les matrices ne sont pas
diagonalisables. La bonne nouvelle est que celles que vous
rencontrerez, entreront souvent dans l'une des catégories
couvertes par les deux théorèmes suivants : valeurs propres toutes
distinctes, ou bien matrices symétriques.
Théorème 2
Soit
une matrice admettant
valeurs propres toutes distinctes. Alors
est diagonalisable.
Démonstration : Nous allons montrer par récurrence sur
que si
sont des vecteurs propres associés à des valeurs propres
toutes distinctes, alors
est une famille libre :
C'est vrai pour
, puisque par définition un vecteur propre est
non nul. Supposons la propriété vraie à l'ordre
. Soient
des valeurs propres
distinctes deux à deux et
des vecteurs propres
associés. Supposons :
En multipliant à gauche par la matrice
, on obtient :
Mais aussi :
Soit en soustrayant les deux équations :
D'après l'hypothèse de récurrence à l'ordre
, ceci
entraîne que pour tout
,
, donc
, puisque
. Mais alors nécessairement
est nul, donc
puisque le vecteur propre
est non
nul.
Supposons qu'une matrice
admette
valeurs propres toutes distinctes
. Pour
, choisissons un
vecteur propre
associé à
. D'après ce qui précède
est une famille libre de
, donc une base.
Théorème 3
Soit
une matrice symétrique :
. Alors :
- toutes les valeurs
propres de
sont réelles ;
est diagonalisable ;
- on peut choisir comme base de vecteurs propres une base
telle que la matrice de passage
vérifie
(une
telle base est dite orthonormée).
Le fait d'avoir une base orthonormée permet d'écrire l'inverse de
la matrice de passage sans calcul supplémentaire (car
). Ce théorème est un cas particulier d'un résultat plus
général, pour une matrice
à valeurs
complexes qui est hermitienne, c'est-à-dire telle que
, soit
, où
désigne le conjugué du nombre
complexe
. Les valeurs propres d'une matrice hermitienne
sont réelles, la
matrice est diagonalisable et
il existe une matrice de vecteurs propres unitaire, à savoir
telle que
.
Démonstration : Soit
un vecteur non nul de
. Considérons le produit :
. C'est la somme des modules des coordonnées de
, à savoir un réel strictement positif.
Soit
une racine (dans
) de
, et soit
un vecteur propre associé à la valeur propre
. Donc :
Prenons le conjugué de la transposée de ce même produit
(rappelons que
).
puisque
est symétrique. Donc
: la valeur propre
est
réelle.
Considérons l'ensemble des vecteurs orthogonaux à
:
L'ensemble
est le noyau d'une application linéaire de rang
(car
est non nul). C'est donc un sous-espace vectoriel de
,
de dimension
. Soit
un vecteur de
:
Donc
(on dit que
est stable par
).
Nous admettrons ici que dans tout espace vectoriel de dimension finie, il
est possible de choisir une base orthormale (par exemple
grâce au procédé d'orthogonalisation de Gram-Schmidt, vu dans un
autre chapitre).
Soit
une base orthonormale de
.
Quitte à diviser
par
,
on peut supposer que
. Par construction,
est donc une base orthonormale de
. Notons
la
matrice de ses vecteurs colonnes :
. Au travers du
changement de base de matrice de passage
,
est transformée en
une matrice diagonale par blocs :
En effet, la première colonne est nulle après le premier terme car
est un vecteur propre associé à
. La première ligne
est nulle après le premier terme car
est stable par
: les
images de
appartiennent à
.
De plus :
de sorte que
est symétrique, donc
l'est aussi. D'où le
résultat, par récurrence sur
.
© UJF Grenoble, 2011
Mentions légales