Mineurs et cofacteurs

Les mineurs sont les déterminants de dimensions inférieures que l'on extrait d'un déterminant initial en ne conservant que certaines lignes et colonnes.

Définition 8   Soit $ A=(a_{i,j})_{i,j=1,\ldots,n}$ une matrice carrée. Soit $ k$ un entier compris entre $ 1$ et $ n$. Soient $ l$ et $ c$ deux applications injectives de $ \{1,\ldots,k\}$ dans $ \{1,\ldots,n\}$. On appelle mineur d'ordre $ k$ du déterminant $ \vert A\vert$, associé aux lignes $ (l(i))_{i=1,\ldots,k}$ et aux colonnes $ (c(j))_{j=1,\ldots,k}$, le déterminant :

$\displaystyle \vert(a_{l(i),c(j)})_{i,j=1,\ldots,k}\vert\;.
$

Le mineur d'ordre $ 2$ extrait d'un déterminant d'ordre $ 4$ pour $ l(1)=1$, $ l(2)=3$, $ c(1)=2$, $ c(2)=4$ est $ \left\vert\begin{array}{cc}a_{1,2}&a_{1,4} a_{3,2}&a_{3,4}\\
\end{array}\right\vert$ :

\begin{displaymath}
\left\vert
\begin{array}{cccc}
a_{1,1}&\boxed{a_{1,2}}&a_{1,...
...}\\
a_{4,1}&a_{4,2}&a_{4,3}&a_{4,4}
\end{array}\right\vert\;.
\end{displaymath}

Nous savons déjà qu'une famille de vecteurs est libre si et seulement si son déterminant est non nul (proposition 7), ou bien qu'une matrice est de rang maximal si et seulement si son déterminant est non nul (corollaire 1). Les mineurs permettent de déterminer exactement le rang d'une matrice quand il n'est pas maximal.

Proposition 9   Soit $ A$ une matrice de taille $ n\times n$. La matrice $ A$ est de rang $ r<n$ si et seulement si :
  1. il existe un mineur d'ordre $ r$ non nul et
  2. tous les mineurs d'ordre $ r+1$ sont nuls.

Démonstration : Il est équivalent de démontrer que le rang de $ A$ est strictement inférieur à $ r$ si et seulement si tous les mineurs d'ordre $ r$ sont nuls. Si le rang de $ A$ est strictement inférieur à $ r$, alors toute famille de $ r$ vecteurs colonnes est liée. Considérons une famille de $ r$ vecteurs colonnes de $ A$, et supposons qu'elle soit liée. Au moins un des vecteurs est combinaison linéaire des autres : sans perte de généralité, nous pouvons supposer que c'est le dernier. Considérons un mineur d'ordre $ r$ extrait de $ A$, en choisissant les $ r$ colonnes de la famille considérée, et $ r$ lignes quelconques. Dans ce mineur, la dernière colonne est combinaison linéaire des autres et donc le mineur est nul. Ce qui précède vaut pour toute famille de $ r$ vecteurs colonnes, donc tous les mineurs d'ordre $ r$ sont nuls. Nous montrons ensuite la contraposée de l'implication réciproque. Si le rang de $ A$ est supérieur ou égal à $ r$ alors il existe une famille libre de $ r$ vecteurs colonnes. Choisissons $ r$ vecteurs colonnes formant une famille libre, et considérons la matrice $ n\times r$ de ces $ r$ vecteurs colonnes, qui est donc de rang $ r$. Les vecteurs lignes forment une matrice de $ n$ vecteurs de $ \mathbb{R}^r$. Or une matrice et sa transposée ont même rang. La famille des $ n$ vecteurs lignes est encore de rang $ r$. On peut donc en extraire une famille libre de $ r$ vecteurs. Les coordonnées de ces $ r$ vecteurs forment une matrice $ r\times r$ de rang $ r$, extraite de la matrice $ A$. Son déterminant est un mineur de taille $ r$ et il est non nul.$ \square$ Les mineurs d'ordre $ n-1$ jouent un rôle particulier : affectés de signes alternés, ce sont les cofacteurs.

Définition 9   Soit $ A=(a_{i,j})_{i,j=1,\ldots,n}$ une matrice carrée. Soient $ i$ et $ j$ deux entiers compris entre $ 1$ et $ n$. On appelle cofacteur d'indices $ i$ et $ j$ et on note $ A_{i,j}$ le produit par $ (-1)^{i+j}$ du mineur d'ordre $ n-1$ obtenu en supprimant la $ i$-ième ligne et la $ j$-ième colonne de $ A$.

$\displaystyle A_{i,j} = (-1)^{i+j} \vert(a_{h,k})_{h\neq i,k\neq j}\vert\;.
$

La matrice des cofacteurs est appelée comatrice de $ A$ et notée $ \widetilde{A}$ :

$\displaystyle \widetilde{A} = (A_{i,j})_{i,j=1,\ldots,n}\;.
$

Une première utilisation des cofacteurs est le développement suivant une ligne ou une colonne.

Proposition 10   Soit $ A=(a_{i,j})_{i,j=1,\ldots,n}$ une matrice carrée. Soient $ i$ et $ j$ deux entiers compris entre $ 1$ et $ n$.

$\displaystyle \vert A\vert = \sum_{k=1}^n a_{i,k} A_{i,k} = \sum_{h=1}^n a_{h,j} A_{h,j}\;.
$

Démonstration : Comme le déterminant d'une matrice est égal à celui de sa transposée, il suffit de démontrer pour le développement selon la $ j$-ième colonne. Cette $ j$-ième colonne est le vecteur $ (a_{h,j})$, qui s'écrit $ \sum_h a_{h,j} e_h$, où les $ e_h$ sont les vecteurs de la base canonique. Par la $ n$-linéarité, il suffit de démontrer que le cofacteur $ A_{h,j}$ est le déterminant obtenu en remplaçant la $ j$-ième colonne de $ A$ par le vecteur $ e_h$, dont la $ h$-ième coordonnée vaut $ 1$ et les autres sont nulles. Considérons cette nouvelle matrice. Appliquons aux lignes le cycle $ (1,\ldots,h)$, dont la signature est $ (-1)^{h-1}$. Appliquons ensuite aux colonnes le cycle $ (1,\ldots,j)$, dont la signature est $ (-1)^{j-1}$. On obtient une matrice diagonale par blocs : la première colonne est le vecteur $ (e_1)$. D'après la proposition 6, le déterminant est le produit des déterminants des deux blocs diagonaux. Le premier est $ \vert 1\vert$. Le second est le déterminant du mineur extrait de $ A$ en supprimant la ligne $ h$ et la colonne $ j$. Pour tenir compte des permutations effectuées sur les lignes et colonnes, il convient de le multiplier par $ (-1)^{h-1}(-1)^{j-1}=(-1)^{h+j}$ : on obtient bien le cofacteur $ A_{h,j}$.$ \square$

Proposition 11   Pour toute matrice $ A$ de taille $ n$,

$\displaystyle A\;{^t\!\widetilde{A}}={^t\!\widetilde{A}}\;A = \vert A\vert I_n\;,
$

$ \widetilde{A}$ est la comatrice de $ A$, $ {^t\!\widetilde{A}}$ sa transposée, et $ I_n$ la matrice identité.

Démonstration : Pour $ i,j=1,\ldots,n$, le coefficient d'indices $ i,j$ du produit $ A\;{^t\!\widetilde{A}}$ est :

$\displaystyle \sum_{k=1}^n a_{i,k}A_{j,k}\;.
$

Le coefficient d'indices $ i,j$ du produit $ {^t\!\widetilde{A}}\;A$ est :

$\displaystyle \sum_{h=1}^n A_{h,i}a_{h,j}\;.
$

Pour $ i=j$, nous avons déjà vérifié dans la proposition précédente que ces coefficients valent $ \vert A\vert$. Il reste à montrer qu'ils sont nuls pour $ i\neq j$. Nous avons vu dans la démonstration précédente, que le cofacteur $ A_{h,i}$ est égal au déterminant de la matrice $ n\times n$ déduite de $ A$ en remplaçant la $ i$-ième colonne de $ A$ par le vecteur $ e_h$, dont la $ h$-ième coordonnée vaut $ 1$ et les autres sont nulles. Par la $ n$ linéarité, $ \sum_{h=1}^n A_{h,i}a_{h,j}$ est le déterminant déduit de $ A$ en remplaçant la $ i$-ième colonne par la $ j$-ième. Mais alors, la $ i$-ième colonne et la $ j$-ième sont identiques, donc le déterminant est nul. On obtient l'autre résultat en échangeant le rôle des lignes et des colonnes (proposition 5). $ \square$ Dans le cas où le déterminant de $ A$ est non nul, la proposition 11 fournit une expression explicite de son inverse.

Corollaire 3   Soit $ A$ une matrice carrée inversible. L'inverse de $ A$ est :

$\displaystyle A^{-1} = \frac{1}{\vert A\vert}\;{^t\!\widetilde{A}}\;.
$

On obtient même une résolution explicite du système $ Ax=b$ : ce sont les formules de Cramer.

Corollaire 4   Soit $ A$ une matrice carrée inversible. Soit $ b$ un vecteur de $ \mathbb{R}^n$. Notons $ A_{b,j}$ la matrice déduite de $ A$ en remplaçant la $ j$-ième colonne par $ b$. Soit $ x=(x_i)_{i=1,\ldots,n}$ la solution du système $ Ax=b$. Alors :

$\displaystyle \forall j=1,\ldots,n\;,\quad x_j=\frac{\vert A_{b,j}\vert}{\vert A\vert}\;.
$

Démonstration : Le vecteur $ x$ est le produit $ A^{-1}b$. En utilisant l'expression de $ A^{-1}$ en fonction de la comatrice,

$\displaystyle x_j = \frac{1}{\vert A\vert} \sum_{i=1}^n A_{i,j}b_j\;.
$

Utilisons à nouveau l'interprétation du cofacteur $ A_{i,j}$ comme le déterminant déduit de $ A$ en remplaçant la $ j$-ième colonne par $ e_i$ : la somme $ \sum_{i=1}^n A_{i,j}b_j$ est bien le déterminant de $ A_{b,j}$.$ \square$ Et pour terminer, la mauvaise nouvelle : aucun des résultats de cette section n'est algorithmiquement utile ! Pour calculer le rang d'une matrice, il est beaucoup plus rapide d'appliquer la méthode du pivot de Gauss (le rang est le nombre de pivots non nuls) que de calculer les mineurs. Pour calculer l'inverse d'une matrice, la méthode du pivot de Gauss est encore la plus efficace (et de loin !) comparée à la comatrice. Et pour résoudre un système linéaire ? Toujours le pivot de Gauss, plutôt que les formules de Cramer. Mais au fait quel est le meilleur algorithme pour calculer un déterminant ? Ben justement : le pivot de Gauss.

         © UJF Grenoble, 2011                              Mentions légales