Puissances d'une matrice.
Si deux matrices et représentent le même
endomorphisme dans deux bases différentes, alors il en est de même
de et , pour tout
, et également de et
si cet endomorphisme est inversible.
La puissance -ième d'une matrice diagonale s'écrit
immédiatement. Pour un bloc de Jordan, ce n'est pas beaucoup plus
compliqué.
Nous vous laissons vérifier que pour
, est la
matrice dont les termes de la forme sont égaux à ,
les autres étant nuls. Pour
, . Par la formule
du binôme de Newton, on en déduit l'expression
de
. On peut donc écrire explicitement la
puissance -ième d'une réduction de Jordan.
Cependant, nous ne vous conseillons pas cette
méthode, car il est plus facile d'utiliser le théorème de
Cayley-Hamilton : . Reprenons notre premier exemple, une
matrice dont les 3 valeurs propres sont . Le polynôme
caractéristique est
. Vous en déduisez donc que
est la matrice nulle. Non seulement , mais
toutes les puissances de sont des combinaisons linéaires des
trois matrices . En effet :
Ainsi vous pouvez calculer de proche en proche toutes les puissances
positives de . Mais aussi :
donc toutes les puissances négatives de sont aussi des combinaisons
linéaires de .
Algorithme de calcul du polynôme minimal.
Il y a deux manières de voir un polynôme annulateur : comme un
polynôme de matrices qui s'annule pour ,
ou bien comme une combinaison linéaire nulle des puissances de
: le théorème de Cayley-Hamilton affirme que
la famille des matrices
, considérée comme famille
dans un espace vectoriel de dimension , est une famille liée.
Ceci est la base de l'algorithme de calcul du polynôme minimal par
la méthode du pivot de Gauss,
qui est utilisé dans les logiciels. Toute
combinaison linéaire nulle et non triviale
des matrices
correpond à un
polynôme annulateur de .
Si nous effectuons cette recherche avec des puissances de les
plus petites possibles, comme il existe un et un seul polynôme annulateur
unitaire de degré minimal (proposition 4),
nous en déduisons un moyen systématique pour trouver le polynôme minimal
de . Une manière naturelle de procéder est de considérer les matrices
comme vecteurs de
, de les
disposer en ordre croissant des puissances et d'effectuer la mise
sous forme échelonnée de ces vecteurs, en s'interdisant de
permuter des lignes, en ne s'autorisant que des permutations de colonnes
pour pouvoir avancer dans la recherche de pivots non nuls par la méthode
de Gauss. Quand la mise sous forme échelonnée est faite, la première
ligne qui ne présente que des 0, (à un coefficient scalaire multiplicatif
près) contient la combinaison linéaire des vecteurs de départ faisant
intervenir les plus basses puissances possibles de . Elle contient
donc le polynôme minimal. Pour mémoriser les opérations effectuées
pendant la mise sous forme échelonnée par la méthode de Gauss, ajoutons
une dernière colonne contenant
et effectuons aussi
sur cette colonne les opérations élémentaires de la méthode de Gauss.
Nous aurons alors dans cette colonne pour la première ligne ne contenant
que des 0, à un coefficient multiplicatif près, l'expression du
polynôme minimal de , non factorisé.
Voici un exemple. Soit
Formons le premier tableau de la méthode. Pour allant de 0 à
, on trouve sur la ligne
les 9 coefficients de la matrice , suivis de .
Dans le second tableau, des combinaisons linéaires de lignes annulent
les coefficients de la première colonne après le premier.
Dans le troisième tableau, on annule les coefficients de la seconde
colonne, après les 2 premiers.
Donc
est le polynôme minimal de
. Nous obtenons aussi que
est annulateur,
ce qui n'est pas très utile : le facteur
est parasite et nous ne cherchons pas à utiliser l'information
(sans intérêt pour nous) associée. Au vu du polynôme minimal,
nous voyons que
admet comme seule valeur propre et la réduction de Jordan de
fera intervenir un bloc et un bloc . La mise sous
forme de Jordan est particulièrement simple ici
parce que
pour est
tout entier. Prenons donc
un vecteur dans , «au hasard» , formons
d'où
et
. Donc
peut être choisi pour constituer
la base associée au bloc de longueur . En lui ajoutant le vecteur
, vecteur propre évident, non colinéaire à
,
nous savons que dans la base
l'endomorphisme associé à dans la base canonique de
sera représenté par
où
Systèmes différentiels linéaires.
La réduction des endomorphismes est très utilisée dans la
résolution des systèmes linéaires d'équations différentielles :
|
(E) |
où est une fonction (inconnue) de
dans
,
est une matrice de réels, carrée de taille
. Nous allons voir comment, d'abord d'un point de vue théorique.
Dans le cas particulier , la matrice est réduite à un scalaire ,
et la solution de
, partant de à l'instant 0 est :
On peut définir
comme la somme de la série entière, de
rayon de convergence infini,
. Sa dérivée est :
Cette écriture formelle reste valable en dimension .
Pour trouver une solution à l'équation (E), il suffit
d'écrire de manière analogue
. Encore
faut-il
s'assurer que cette série entière, à coefficients matriciels,
converge, ce que nous admettrons.
L'exponentielle de matrice a des propriétés comparables à l'exponentielle
ordinaire. En particulier :
Proposition 12
Si deux matrices et commutent, alors :
La propriété qui nous intéresse est la suivante :
Proposition 13
Soit
. Alors :
Il s'ensuit immédiatement que
est solution de
(E), pour .
Le résultat suivant relie les
coefficients de
aux valeurs propres de la matrice .
Démonstration : Nous utiliserons la réduction de Jordan de la matrice :
La matrice est une matrice diagonale par blocs.
À chaque valeur propre
de est associé un bloc , qui est
la somme de
et d'un bloc
nilpotent dont la puissance -ième est nulle.
Sur la définition de l'exponentielle, il est facile de vérifier que :
De plus si est diagonale par blocs, alors l'est aussi et ses
blocs sont les exponentielles des blocs de . Ces observations montrent
que les coefficients de sont des combinaisons linéaires des
coefficients des
. Or :
La matrice est constituée de blocs de Jordan de dimension
.
On obtient :
d'où le résultat. Exemple 1.
Considérons la matrice suivante :
Sa forme de Jordan est :
L'exponentielle de est :
Si
est solution du système
ci-dessous,
les fonctions , , sont
nécessairement des combinaisons
linéaires de
,
et
.
Par exemple la solution du système pour
est :
Après avoir résolu un système différentiel linéaire à coefficient
constants avec une démarche théorique utilisant l'exponentielle de
la matrice du système, voyons comment dans la pratique on effectue
cette recherche, et refaisons le chemin sur des exemples. (Les répétitions
avec ce qui précède sont volontaires).
Exemple 2.
Nous voulons résoudre le système différentiel (réel)
où
et
sont deux fonctions inconnues de
dans
et cela connaissant
et
Posons
et cherchons à diagonaliser .
Calculons donc son polynôme caractéristique
Comme ce polynôme caractéristique admet deux racines distinctes (de
multiplicité ), nous savons que nous pourrons diagonaliser .
Recherchons le sous espace propre associé à
. Il faut
résoudre
d'où et donc
et donc
est une base de
Recherchons le sous espace propre associé à
. Il
faut résoudre
d'où et donc
et donc
est une base de
.
Posons
, alors
.
En termes de système différentiel :
Posons donc
:
Ainsi la diagonalisation a découplé les nouvelles fonctions inconnues.
Il existe deux constantes réelles et telles
que
et
. En revenant à la
définition de et de
Pour il reste
et donc
La solution du système est
Ou encore :
La matrice
vérifie
et . C'est l'exponentielle de
. On la nomme résolvante
du problème de Cauchy consistant à trouver la solution du
système connaissant sa valeur en .
Cette solution du système est donnée explicitement en fonction
des conditions initiales . Au passage, nous avons obtenu
une solution définie sur
tout entier,
et nous pourrions démontrer
ainsi l'existence et l'unicité de la solution au problème de
Cauchy.
Cela ne survient que parce que
le système est linéaire à coefficients constants (sinon le domaine
de définition de la solution n'est pas
, a priori). Noter
que les coefficients constants interviennent de manière cruciale dans
Si les coefficients de la matrice ne sont pas constants n'utilisez
pas la diagonalisation !
Exemple 3.
Considérons le système
où
et
sont deux fonctions inconnues de
dans
et cela connaissant
et
Posons
et cherchons à diagonaliser . Calculons donc son polynôme caractéristique
Comme le polynôme caractéristique n'admet pas de racines dans
,
la méthode précédente semble tomber à l'eau.
Nous pourrions décider de passer dans
.
Pour cela factorisons
comme polynôme à coefficients
complexes.
et nous obtenons deux racines complexes
et
de multiplicité . Nous pourrions donc diagonaliser comme dans
l'exemple de la rotation en passant dans
. Qu'obtiendrait-on
? Une fois tous les calculs faits nous aurions
où , , et sont des constantes complexes reliées par deux
relations.
Comme nous manquons de courage pour ces calculs, nous allons procéder
à l'envers, en faisant la remarque suivante : oui il y a bien un moyen
de soutirer de la résolution complexe la résolution réelle, en regroupant
de manière astucieuse les vecteurs propres complexes associés à une
valeur propre complexe et à sa conjuguée
(comme le polynôme caractéristique
est à coefficients réels, si un complexe est racine, alors son complexe
conjugué aussi). Cela aura comme conséquence de choisir A et B de
sorte que devienne réel et aussi et de sorte que
deviennent réel. Autrement dit la solution réelle sera de la forme
où , , et sont des constantes réelles
reliées par deux relations.
(Attention n'est pas la partie réelle de ...)
Concrètement
il y a deux racines complexes
et
, il faut séparer la
partie réelle donnant
et la partie imaginaire pure donnant
et ). Mais je n'ai toujours pas les relations en
question puisque je n'ai pas fait les calculs, direz vous ! Oui,
mais puisque nous savons que la solution sera de cette forme, pourquoi
ne pas faire les calculs à l'envers et reporter la forme ci-dessus
dans le système de départ ? Ainsi, nous aurons les relations recherchées,
et nous n'aurons pas besoin d'effectuer la diagonalisation complexe !
De fait les calculs sont beaucoup plus rapides et simples, et conduisent
bien au résultat.
Nous utilisons donc la diagonalisation complexe uniquement
pour connaître la forme de la solution, mais ce passage est crucial.
Si , , et sont 4 constantes réelles, reportons donc la forme
indiquée dans le système initial brut.
devrait
donner
et nous obtenons
ou encore donc
et pour ,
.
La solution du système est donc
ou encore mieux
La matrice
vérifie
et .
Elle est la résolvante
du problème de Cauchy posé initialement.
Comme vous l'avez constaté sur l'exemple ci dessus, la réduction à
la forme diagonale a été cruciale pour connaître la forme de
la solution
d'un système réel
, où est une
matrice constante. Et si la matrice n'est pas diagonalisable ?
Comme nous disposons de la réduction de Jordan et que nous avons
compris théoriquement la démarche à effectuer nous avons (sans nous
en rendre compte) justifié la démarche pratique proposée souvent par
les physiciens.
Recette pratique.
Soit à résoudre
, où
est un -uplet de fonctions
inconnues et est une matrice constante.
- Trouver les valeurs propres réelles ou complexes et leurs
multiplicités :
mettons
de multiplicités
sont les racines du polynôme caractéristique
(avec
.
- Trouver les dimensions des sous espaces propres
.
- Séparer les valeurs propres réelles des valeurs propres complexes.
- À une valeur propre réelle, mettons
,
on associe
où
est un polynôme réel de degré
.
- Chaque valeur propre complexe doit être associée à
la valeur propre
complexe conjuguée (qui est aussi valeur propre puisque le polynôme
caractéristique est à coefficients réels). Disons
et
: à ce couple on associe
les fonctions
où
et
sont des polynômes réels de degré
.
Ce faisant on introduit trop de constantes réelles !
- On reporte dans le système initial la somme des fonctions
génériques
introduites dans 4) et 5), mais pour chaque fonction inconnue, on
introduit des constantes différentes. (Comme on ne possède pas la
matrice de passage de la base canonique
à une base qui réduit l'endomorphisme,
cela revient à prendre les coefficients de la matrice
où est la forme réduite de l'endomorphisme de manière quelconque,
en ne retenant que l'idée que chaque élément sera une combinaison
linéaire des fonctions génériques de 4) et 5) et donc chaque fonction
inconnue aussi). On en introduit donc beaucoup trop! On constate que
le nombre de constantes introduites est bien la dimension du
système, une fois toutes les équations du système
vérifiées. La recette
dit que cela marche sans expliquer pourquoi ! Il faut pour cela résoudre
les systèmes linéaires obtenus (en identifiant les coefficients des
fonctions génériques qui forment un système libre dans l'espace vectoriel
des fonctions réelles d'une variable réelle) et ramener le nombre
de constantes à .
- On a obtenu la forme de la solution générale dépendant de
constantes
réelles, on y fait et on extrait l'expression de ces constantes
en fonction des conditions initiales (cela peut être redoutable si
est grand, uniquement possible numériquement et/ou de manière
approchée !).
(fin de la recette)
Dans la recette précédente, rien n'est démontré, on affirme
simplement que cela marche, mais c'est une conséquence du théorème
8 comme expliqué au dessus ! En fait
la recette reste dans la base canonique de
, introduit
beaucoup trop de constantes, puis en vérifiant le système
«à l'envers»,
calcule directement le produit qui donne la solution générale,
et cela dans la base canonique de
, sans avoir besoin
de calculer la matrice de passage , ni ni , ni
la solution générale dans la nouvelle base, ni le retour à l'ancienne
base ! C'est pour cela que la recette est rapide et efficace. Pour
la justifier il faut simplement démonter la formule
avec sous forme de Jordan (pensez à triangulaire supérieure avec
des coefficients non nuls uniquement sur la diagonale et sur la «diagonale
juste au dessus»), puis refaire le passage
réels
complexes
réels
comme expliqué dans l'exemple 3.
De plus on peut aussi sauter l'étape 2 et prendre les
polynômes
et
de degré
. On introduit
alors encore d'autres constantes inutiles. Les systèmes linéaires
obtenus, de taille plus grande, vont rendre nulles ces constantes
inutiles, ce qui embrouille souvent la compréhension de ce que l'on
fait. C'est souvent la méthode présentée par les physiciens. Cela
revient à utiliser avec sous forme triangulaire supérieure,
sans essayer à savoir si peut être mise sous une forme plus
intrinsèque,
décomposant
en sous espaces stables par .
Comme le comportement du système différentiel, localement et globalement
est profondément lié à cette décomposition en sous espaces stables,
décortiquer le comportement du système différentiel demande de comprendre
la décomposition de Jordan. Cela revient à décomposer le système en
un certain nombre de sous-systèmes indépendants et analyser le comportement
de chacun des sous-systèmes possibles, ceux qui correspondent à la
découverte de Jordan.
Exemple 4.
On veut résoudre le problème de Cauchy, consistant à trouver
définies sur
, telles que
et
On pose
Le polynôme caractéristique est
.
Recherchons donc les fonctions inconnues comme combinaisons linéaires
proposées par la recette
D'une part
d'autre part
Nous avons donc un système linéaire de trois
équations. L'identification des coefficients de
et
dans la troisième, puis la seconde, puis la première
équation
donne :
On en déduit (ces constantes sont
nulles parce que le système initial
était triangulaire supérieur, pas parce que l'on avait sauté l'étape
deux, qui donnerait ici le même nombre de constantes) puis
puis , et . Il vient :
Pour on obtient
Finalement,
La solution est donc
La matrice
vérifie
et
. C'est la résolvante du problème posé.
Difficile de faire plus rapide pour l'obtenir !
Équations aux différences.
Pour terminer, nous allons démontrer deux résultats très
proches, portant l'un sur les équations de récurrence, l'autre sur
les équations différentielles. Vous connaissez déjà ces
résultats dans le cas .
Soient
réels. Notons le polynôme
Notons
les racines de , et
leurs multiplicités.
Théorème 9
Considérons l'équation :
Toute solution de
s'écrit :
où les coefficients
sont réels ou
complexes.
Théorème 10
Considérons
l'équation :
Toute solution de
s'écrit :
où les coefficients
sont réels ou
complexes.
Démonstration : Les deux problèmes ont en commun leur écriture
matricielle. Posons pour tout
et
Les deux équations
et
s'écrivent :
et
où est la matrice compagnon du polynôme .
Les solutions sont :
et
Nous avons déjà vu que le polynôme minimal et le polynôme
caractéristique de la matrice sont tous les deux égaux à
, au signe près. La réduction de Jordan de est de la forme
où est une matrice diagonale par blocs.
À chaque valeur propre
de est associé un bloc . Ce bloc a pour
taille la multiplicité de dans le polynôme
caractéristique. Il
est la somme de
et d'un bloc
nilpotent dont la puissance -ième est nulle.
Pour le théorème 9,
Si une matrice est diagonale par blocs, alors l'est aussi
et ses blocs sont les puissances -ièmes des blocs de . Ces
observations montrent que les coefficients de sont des combinaisons
linéaires des coefficients des . Or les puissances successives
de sont nulles à partir de la -ième. On a :
Tous les coefficients de sont donc des combinaisons linéaires
de
C'est donc aussi le cas pour les coefficients de .
Pour , le raisonnement
est celui de la démonstration du théorème 8.
© UJF Grenoble, 2011
Mentions légales