Images et noyaux

Qu'une application linéaire respecte les combinaisons linéaires entraîne qu'elle respecte aussi les sous-espaces vectoriels, au sens suivant.

Théorème 10   Soient $ E$, $ F$ deux espaces vectoriels, et $ f$ une application linéaire de $ E$ dans $ F$.
  1. Soit $ A$ un sous-espace vectoriel de $ E$. Alors

    $\displaystyle f(A)=\{ f(v) ,\; v\in A \}\;,
$

    est un sous-espace vectoriel de $ F$.
  2. Soit $ B$ un sous-espace vectoriel de $ F$. Alors

    $\displaystyle f^{-1}(B)=\{ v\in E ,\; f(v)\in B \}\;,
$

    est un sous-espace vectoriel de $ E$.

L'ensemble des images par une application linéaire des éléments d'un espace vectoriel est un sous-espace vectoriel de l'espace d'arrivée (point 1). L'ensemble des éléments de l'espace de départ dont l'image par une application linéaire est dans un sous-espace de l'espace d'arrivée, est un sous-espace de l'espace de départ (point 2). Attention à la notation $ f^{-1}(B)$ : elle a un sens même si l'application $ f$ n'est pas bijective et donc si l'application réciproque $ f^{-1}$ n'existe pas. Démonstration : Pour montrer qu'un sous-ensemble est un sous-espace vectoriel, il suffit de vérifier qu'il est non vide, et que toute combinaison linéaire de deux de ses vecteurs reste dans l'ensemble (théorème 2). Rappelons que tout sous-espace vectoriel contient au moins le vecteur nul, et que si $ f$ est linéaire alors $ f(0)=0$. Donc le vecteur nul de $ F$ appartient à $ f(A)$ et celui de $ E$ appartient à $ f^{-1}(B)$. Les deux ensembles $ f(A)$ et $ f^{-1}(B)$ sont donc non vides.
  1. Deux vecteurs quelconques de $ f(A)$ s'écrivent $ f(v),f(v')$, où $ v,v'\in A$. Etant donnés deux réels $ \lambda$ et $ \mu$, $ \lambda
 f(v)+\mu f(v')$ est l'image par $ f$ de $ \lambda v+\mu v'$ qui est un vecteur de $ A$.
  2. Si $ v$ et $ v'$ sont tels que $ f(v)$ et $ f(v')$ appartiennent à $ B$, alors $ f(\lambda v+\mu v') = \lambda f(v)+\mu f(v')\in B$. Donc $ \lambda v+\mu v'\in f^{-1}(B)$.
$ \square$

Parmi les cas particuliers du théorème 10, l'image et le noyau jouent un rôle important.

Définition 13   Soient $ E$ et $ F$ deux espaces vectoriels et $ f$ une application linéaire de $ E$ dans $ F$. On appelle :
  1. image de $ f$ et on note $ \mathrm{Im}(f)$ le sous-espace vectoriel de $ F$ :

    $\displaystyle \mathrm{Im}(f)=f(E)=\{ f(v) ,\;v\in E \}\;.
$

  2. noyau de $ f$ et on note $ \mathrm{Ker}(f)$ le sous-espace vectoriel de $ E$ :

    $\displaystyle \mathrm{Ker}(f)=f^{-1}(\{0\})=\{ v\in E ,\;f(v)=0 \}\;.
$

La notation Ker vient de l'allemand, où noyau se dit «Kern». Considérons par exemple l'application $ f$ de $ \mathbb{R}^2$ dans $ \mathbb{R}^3$ définie par :

$\displaystyle f\;:\;(x,y)\longmapsto (x+y,x+y,x+y)\;.
$

Son image est la droite vectorielle de $ \mathbb{R}^3$ engendrée par le vecteur $ (1,1,1)$. Son noyau est l'ensemble des vecteurs $ (x,y)$ de $ \mathbb{R}^2$ tels que $ x+y=0$ : c'est la droite vectorielle de $ \mathbb{R}^2$ engendrée par le vecteur $ (1,-1)$.

$\displaystyle \mathrm{Im}(f) = \{  \lambda (1,1,1) ,\;\lambda\in \mathbb{R} \}$   et$\displaystyle \quad
\mathrm{Ker}(f) = \{  \lambda (1,-1) ,\;\lambda\in \mathbb{R} \}\;.
$

Proposition 7   Soient $ E$ et $ F$ deux espaces vectoriels et $ f$ une application linéaire de $ E$ dans $ F$. L'application $ f$ est :
  1. surjective si et seulement si $ \mathrm{Im}(f)=F$,
  2. injective si et seulement si $ \mathrm{Ker}(f)=\{0\}$.

Démonstration : La caractérisation de la surjectivité est une simple traduction des définitions. Celle de l'injectivité utilise la linéarité. Soient $ v$ et $ w$ deux éléments de $ E$.

$\displaystyle f(v)=f(w)\;\Longleftrightarrow\;f(v-w)=0
\;\Longleftrightarrow\; (v-w)\in\mathrm{Ker}(f)
$

Par définition, $ f$ est injective si et seulement si $ f(v)=f(w)$ implique $ v=w$, donc si et seulement si $ (v-w)\in\mathrm{Ker}(f)$ implique $ v-w=0$, d'où le résultat.$ \square$

Le rang d'une application linéaire est la dimension de son image.

Définition 14   Soient $ E$ et $ F$ deux espaces vectoriels de dimension finie et $ f$ une application linéaire de $ E$ dans $ F$. On appelle rang de $ f$ la dimension de $ \mathrm{Im}(f)$.

$\displaystyle \mathrm{rang}(f) = \mathrm{dim}(\mathrm{Im}(f))\;.
$

Supposons que $ E$ soit de dimension $ n$ et choisissons une base $ (b_1,\ldots,b_n)$. L'image par $ f$ de tout vecteur de $ E$ est une combinaison linéaire des vecteurs $ f(b_1),\ldots,f(b_n)$. Donc $ \mathrm{Im}(f)$ est le sous-espace vectoriel de $ E$ engendré par $ (f(b_1),\ldots,f(b_n))$. Le rang de $ f$ est la dimension de ce sous-espace ; c'est donc le rang de la famille de vecteurs $ (f(b_1),\ldots,f(b_n))$ (cf. définition 10). Observons que le rang est inférieur ou égal aux deux dimensions des espaces vectoriels de départ et d'arrivée.

   rang$\displaystyle (f)\leqslant \min \{ $dim$\displaystyle (E) , $dim$\displaystyle (F) \}\;.
$

Théorème 11   Soit $ E$ et $ F$ deux espaces vectoriels de dimension finie. Soit $ f$ une application linéaire de $ E$ dans $ F$. L'application $ f$ est :
  1. surjective si et seulement si l'image de toute famille génératrice dans $ E$ est une famille génératrice dans $ F$,
  2. injective si et seulement si l'image de toute famille libre dans $ E$ est une famille libre dans $ F$,
  3. bijective si et seulement si l'image de toute base de $ E$ est une base de $ F$.

Démonstration : Démontrons d'abord que si $ f$ est surjective alors l'image d'une famille génératrice dans $ E$ est génératrice dans $ F$. Soit $ (v_1,\ldots,v_m)$ une famille génératrice dans $ E$. Pour tout élément $ w$ de $ F$, il existe $ v\in E$ tel que $ f(v)=w$. Le vecteur $ v$ s'écrit :

$\displaystyle v= \lambda_1 v_1+\cdots+\lambda_m v_m\;.
$

Donc :

$\displaystyle w=f(\lambda_1 v_1+\cdots+\lambda_m v_m)=
\lambda_1 f(v_1)+\cdots+\lambda_mf(v_m)\;.
$

Tout vecteur $ w$ de $ F$ est combinaison linéaire de la famille $ (f(v_1),\ldots,f(v_m))$, qui est donc génératrice.

Voici la réciproque. Si $ (f(v_1),\ldots,f(v_m))$ est génératrice, alors un vecteur $ w$ de $ F$ quelconque s'écrit

$\displaystyle w=\lambda_1 f(v_1)+\cdots+\lambda_mf(v_m)=
f(\lambda_1 v_1+\cdots+\lambda_m v_m)\;.
$

Donc $ w$ est l'image par $ f$ d'un vecteur de $ E$ : $ f$ est bien surjective. Démontrons maintenant que si $ f$ est injective alors l'image d'une famille libre dans $ E$ est une famille libre dans $ F$. Soit $ (v_1,\ldots,v_l)$ une famille libre dans $ E$. Supposons que

$\displaystyle \lambda_1 f(v_1)+\cdots+\lambda_nf(v_l)=0\;.
$

Par la linéarité de $ f$,

$\displaystyle \lambda_1 f(v_1)+\cdots+\lambda_lf(v_l)=
f(\lambda_1 v_1+\cdots+\lambda_l v_l)=0\;.
$

Si $ f$ est injective, alors le seul vecteur d'image nulle est le vecteur nul, donc $ \lambda_1 b_1+\cdots+\lambda_n b_n=0$. Mais $ (v_1,\ldots,v_l)$ est une famille libre. Donc $ \lambda_1=\cdots = \lambda_n=0$.

Montrons la réciproque. Si l'image de toute famille libre est une famille libre, alors l'image d'un vecteur non nul est un vecteur non nul. Donc $ \mathrm{Ker}(f)=\{0\}$ et $ f$ est injective, par la proposition 7. Pour terminer la démonstration, il suffit d'observer qu'une application est bijective si et seulement si elle est à la fois injective et surjective ; d'autre part une famille est une base si et seulement si elle est à la fois libre et génératrice. Le point 3 du théorème est donc conséquence des deux précédents.$ \square$

La conjonction des théorèmes 11 et 4 implique les relations suivantes entre les dimensions des espaces de départ et d'arrivée.

Corollaire 2   Soient $ E$ et $ F$ deux espaces vectoriels de dimension finie et $ f$ une application linéaire de $ E$ dans $ F$.
  1. Si $ f$ est surjective alors $ \mathrm{dim}(E)\geqslant \mathrm{dim}(F)$.
  2. Si $ f$ est injective alors $ \mathrm{dim}(E)\leqslant \mathrm{dim}(F)$.
  3. Si $ f$ est bijective alors $ \mathrm{dim}(E) = \mathrm{dim}(F)$.

La dimension est donc une forte contrainte sur la nature des applications linéaires. On peut aussi voir cette contrainte comme suit.

Corollaire 3   Soient $ E$ et $ F$ deux espaces vectoriels de même dimension. Une application linéaire de $ E$ dans $ F$ est bijective si et seulement si elle est injective ou surjective.

Il ne peut exister un isomorphisme entre deux espaces vectoriels que s'ils ont la même dimension. Réciproquement, si deux espaces ont la même dimension, on peut toujours construire un isomorphisme entre eux, en envoyant une base de l'un sur une base de l'autre. En particulier, tous les espaces vectoriels de dimension $ n$ sont isomorphes à $ \mathbb{R}^n$. Si $ E$ est de dimension $ n$, avec une base $ (b_1,\ldots,b_n)$, tous les vecteurs de $ E$ ont une décomposition unique

$\displaystyle v=\sum_{i=1}^n x_i b_i\;,
$

où les $ x_i$ sont les coordonnées de $ v$ (théorème 5). L'application de $ E$ dans $ \mathbb{R}^n$ qui à $ v$ associe le $ n$-uplet de ses coordonnées $ (x_1,\ldots,x_n)$ est un isomorphisme de $ E$ dans $ \mathbb{R}^n$. La somme des dimensions de l'image et du noyau est la dimension de l'espace de départ : le théorème 12 ci-dessous, est le théorème du rang.

Théorème 12   Soient $ E$ et $ F$ deux espaces vectoriels de dimension finie et $ f$ une application linéaire de $ E$ dans $ F$.

$\displaystyle \mathrm{dim}(\mathrm{Im}(f))+\mathrm{dim}(\mathrm{Ker}(f))
=\mathrm{dim}(E)\;.
$

Démonstration : Soient $ k$ et $ l$ les dimensions respectives de $ \mathrm{Ker}(f)$ et Im$ (f)$. Soit $ (b_1,\ldots,b_k)$ une base de $ \mathrm{Ker}(f)$ et $ (c_1,\ldots,c_l)$ une base de Im$ (f)$. Pour $ j=1,\ldots,l$, soit $ v_j$ un vecteur de $ E$ tel que $ f(v_j)=c_j$. Nous allons démontrer que

$\displaystyle {\cal B} = (b_1,\ldots,b_k,v_1,\ldots,v_l)
$

est une base de $ E$, ce qui entraîne que $ \mathrm{dim}(E)=k+l$. Montrons d'abord que c'est une famille libre. Soient $ \lambda_1,\ldots,\lambda_k$ et $ \mu_1,\ldots,\mu_l$, $ k+l$ réels. Posons

$\displaystyle v=\sum_{i=1}^k \lambda_i b_i$   et$\displaystyle \quad
w=\sum_{j=1}^l \mu_j v_j
$

Puisque $ v\in \mathrm{Ker}(f)$, l'image par $ f$ du vecteur $ v+w$ est

$\displaystyle f(v+w)=f(w)=\sum_{j=1}^l \mu_j f(v_j)
=\sum_{j=1}^l \mu_j c_j
$

Si $ v+w=0$, alors $ f(v+w)=0$, ce qui entraîne la nullité des $ \mu_j$, car $ (c_1,\ldots,c_l)$ est une famille libre. Alors $ v=0$, ce qui entraîne la nullité des $ \lambda_i$, car $ (b_1,\ldots,b_k)$ est une famille libre. Donc $ {\cal B}$ est une famille libre.

Il reste à montrer que $ {\cal B}$ est une famille génératrice. Soit $ v$ un vecteur de $ E$. Comme le vecteur $ f(v)$ appartient à $ \mathrm{Im}(f)$, il est combinaison linéaire de $ c_1,\ldots,c_l$ :

$\displaystyle f(v) = \sum_{j=1}^l \mu_j c_j
$

Donc :

$\displaystyle f(v) = \sum_{j=1}^l \mu_j f(v_j)
=f\left(\sum_{j=1}^l \mu_j v_j\right)
$

Ceci entraîne :

$\displaystyle f\left(v-\sum_{j=1}^l \mu_j v_j\right)=0\;,
$

donc

$\displaystyle \left(v-\sum_{j=1}^l \mu_j v_j\right)\in \mathrm{Ker}(f)\;.
$

Donc il existe $ \lambda_1,\ldots,\lambda_k$ tels que

$\displaystyle \left(v-\sum_{j=1}^l \mu_j v_j\right)
=\sum_{i=1}^k \lambda_i b_i\;,
$

soit

$\displaystyle v=\sum_{i=1}^k \lambda_i b_i
+\sum_{j=1}^l \mu_j v_j\;.
$

$ \square$

         © UJF Grenoble, 2011                              Mentions légales