Orthogonalité, bases orthonormées

Définition 5   Deux vecteurs $ x$ et $ y$ d'un espace vectoriel euclidien sont dits orthogonaux si leur produit scalaire est nul : $ \langle x,y\rangle =0$.

Deux parties $ A$ et $ B$ d'un espace vectoriel euclidien sont dites orthogonales si tout vecteur de $ A$ est orthogonal à tout vecteur de $ B$ :

$\displaystyle \langle x,y\rangle =0$   pour tout $\displaystyle (x,y) \in A\times B \, .$

On appelle orthogonal d'une partie $ A$ de $ E$, et on note $ A^\perp$, l'ensemble des vecteurs orthogonaux à tout vecteur de $ A$:

$\displaystyle A^\perp=\{x\in E \mid \la x,y \ra =0$    pour tout $\displaystyle y\in A \}\, .$

Proposition 3  
  1. L'orthogonal d'une partie de $ E$ est un sous-espace vectoriel de $ E$.
  2. Si $ A\subset B$ sont deux parties de $ E$, alors $ B^\perp \subset A^\perp$.
  3. L'orthogonal d'une partie $ A$ de $ E$ est égal à l'orthogonal du sous-espace vectoriel $ \Vect(A)$ de $ E$ engendré par cette partie :

    $\displaystyle A^\perp = \Vect(A)^\perp \; .$

Démonstration : La propriété 1 provient de la linéarité du produit scalaire en chacune de ses variables, la propriété 2 de la définition de l'orthogonal d'une partie. L'inclusion $ \Vect(A)^\perp \subset A^\perp$ provient, grâce à 2, de l'inclusion $ A \subset \Vect(A)$, l'inclusion $ A^\perp \subset \Vect(A)^\perp$ de la linéarité du produit scalaire.$ \square$

Proposition 4   Toute famille orthogonale constituée de vecteurs non nuls est libre.

Démonstration : Soit $ (v_1,\dots,v_n)$ une famille de vecteurs non nuls deux à deux orthogonaux : $ \la v_i,v_j \ra=0$ pour $ i\neq j$, et soit $ \sum\limits_{i=1}^n \lambda_i v_i=0$ une combinaison linéaire nulle de ces vecteurs. Alors, pour tout $ j=1,\dots,n$ :

$\displaystyle 0=\la v_j,\sum\limits_{i=1}^n \lambda_i v_i \ra=
\sum\limits_{i=1}^n \lambda_i \la v_j, v_i \ra=
\lambda_j \Vert v_j\Vert^2 \,$

d'où $ \lambda_j=0$ puisque $ \Vert v_j\Vert^2>0$. Il en résulte que la famille $ (v_1,\dots,v_n)$ est libre.$ \square$

Bases orthonormées

Définition 6   On appelle base orthonormée (ou orthonormale) d'un espace vectoriel euclidien $ E$ toute base $ (e_1,\dots,e_n)$ de $ E$ vérifiant

$\displaystyle \la e_i,e_j\ra = \delta_{i,j} = \begin{cases}1 &\text{ si }i=j\\
0 & \text{ sinon.}
\end{cases}$

L'intérêt des bases orthonormales vient de ce que le produit scalaire et la norme ont même expression dans toute base orthonormale : si $ (e_1,\dots,e_n)$ est une base orthonormale de $ E$ et $ x=\sum\limits_{i=1}^n x_i e_i$ et $ y=\sum\limits_{i=1}^n y_i e_i$ sont deux vecteurs de $ E$, alors

$\displaystyle \la x,y \ra$ $\displaystyle = \sum_{i=1}^n x_iy_i$    
$\displaystyle \Vert x\Vert$ $\displaystyle =\sqrt{\sum_{i=1}^n x_i^2} \, .$    

De plus les coordonnées d'un vecteur $ x$ dans une base orthonormée $ (e_1,\dots,e_n)$ sont données par :

$\displaystyle x_i=\la e_i,x \ra$

pour tout $ i=1,\dots,n$.

Si on note, pour tout vecteur $ x$ de $ E$, $ X$ la matrice colonne $ \tr{(x_1,\dots,x_n)}$ des composantes de $ x$ dans la base orthonormée $ (e_1,\dots,e_n)$, le produit scalaire et la norme s'écrivent matriciellement :

$\displaystyle \la x,y \ra= \tr{X}Y=\tr{Y}X, \quad \Vert x\Vert=(\tr{X}X)^{1/2} \; .$

Tout espace vectoriel euclidien possède des bases orthonormées. Plus précisément le procédé d'orthonormalisation de Gram-Schmidt permet de construire à partir de n'importe quelle base d'un tel espace une base orthonormée.

Proposition 5   Soit $ E$ un espace vectoriel euclidien et $ (v_1,\dots,v_n)$ une base de $ E$. Alors il existe une base orthonormée $ (e_1,\dots,e_n)$ de $ E$ telle que, pour tout $ k=1,\dots,n$, l'espace vectoriel $ \Vect (e_1,\dots,e_k)$ engendré par les $ k$ premiers vecteurs de cette base coïncide avec l'espace vectoriel $ \Vect (v_1,\dots,v_k)$ engendré par les $ k$ premiers vecteurs de la base de départ.

Démonstration : On commence par construire une base orthogonale $ (u_1,\dots,u_n)$ vérifiant $ \Vect (u_1,\dots,u_k)=\Vect (v_1,\dots,v_k)$ pour tout $ k=1,\dots,n$. Il suffit ensuite de normer cette base en posant $ e_k=\dfrac{u_k}{\Vert u_k\Vert}$ pour tout $ k$.

On construit donc, par récurrence sur $ k$, une famille $ (u_1,\dots,u_n)$ de vecteurs deux à deux orthogonaux vérifiant $ \Vect (u_1,\dots,u_k)=\Vect (v_1,\dots,v_k)$ pour tout $ k=1,\dots,n$. Pour $ k=1$, il suffit de poser $ u_1=v_1$. Si la famille $ (u_1,\dots,u_k)$ est construite pour un entier $ k<n$, on cherche $ u_{k+1}$ de la forme $ u_{k+1}=v_{k+1}-\sum\limits_{i=1}^k \lambda_{k+1,i}u_i$. En écrivant $ \la u_j ,u_{k+1} \ra=0$, on obtient $ \lambda_{k+1,j}=\dfrac{\la u_j,v_{k+1}\ra}{\Vert u_j\Vert^2}$ pour $ j=1,\dots,k$ et on vérifie immédiatement que la famille ainsi construite convient.$ \square$

La matrice de passage de la base $ (v_1,\dots,v_n)$ à la base $ (e_1,\dots,e_n)$ est donc triangulaire supérieure. On peut montrer que la base orthonormée $ (e_1,\dots,e_n)$ vérifiant ces propriétés est unique si on impose de plus à tous les coefficients diagonaux de cette matrice de passage d'être positifs.

Corollaire 1   Toute famille orthonormée d'un espace vectoriel euclidien peut être complétée en une base orthonormée.

Démonstration : Soit $ (e_1,\dots,e_k)$ une famille orthonormée. D'après la proposition 4, cette famille est libre. D'après le théorème de la base incomplète, on peut donc la compléter en une base $ (e_1,\dots,e_k,v_{k+1},\dots,v_n)$ de $ E$. En orthonormalisant cette base par le procédé de Gram-Schmidt, on obtient une base orthonormée $ (e_1,\dots,e_n)$ dont les $ k$ premiers vecteurs coïncident avec ceux de la famille donnée.$ \square$

Proposition 6   Soit $ E$ un espace vectoriel euclidien et $ F$ un sous-espace vectoriel de $ E$. Alors $ F$ et $ F^\perp$ sont des sous-espaces vectoriels supplémentaires. En particulier :

$\displaystyle \dim(F^\perp)=\dim(E)-\dim(F) \; .$

On dit que $ F^\perp$ est le supplémentaire orthogonal de $ F$ dans $ E$, ou que les sous-espaces vectoriels $ F$ et $ F^\perp$ sont des sous-espaces vectoriels supplémentaires orthogonaux.

Démonstration : Soit $ (e_1,\dots,e_k)$ une base orthonormée de $ F$. On peut la compléter en une base orthonormée $ (e_1,\dots,e_n)$ de $ E$. Un vecteur $ x=\sum\limits_{i=1}^n x_i e_i$ est orthogonal à $ F$ si et seulement si il est orthogonal à $ e_1,\dots,e_k$ puisque ces vecteurs engendrent $ F$, donc si et seulement si $ x_i=0$ pour tout $ i=1,\dots,k$. Le sous-espace vectoriel $ F^\perp$ est donc le sous-espace vectoriel de $ E$ engendré par $ e_{k+1},\dots,e_n$. $ \square$

Proposition 7   Pour tout sous-espace vectoriel $ F$ de $ E$, le sous-espace vectoriel $ (F^\perp)^\perp$, appelé biorthogonal de $ F$, est égal à $ F$.

Plus généralement, pour toute partie $ A$ de $ E$, le biorthogonal $ (A^\perp)^\perp$ de $ A$ est le sous-espace vectoriel $ \Vect(A)$ de $ E$ engendré par $ A$.

Démonstration : L'inclusion $ F\subset (F^\perp)^\perp$ est claire, puisque, pour tout $ x\in F$ et tout $ y\in F^\perp$, on a $ \la x,y \ra=0$. Mais

$\displaystyle \dim((F^\perp)^\perp)=\dim(E)-\dim(F^\perp)=\dim(E)-[\dim(E)-\dim(F)]=\dim(F)$

d'où $ F=(F^\perp)^\perp$.

Si $ A$ est une partie quelconque de $ E$, l'orthogonal de $ A$ est aussi l'orthogonal de $ \Vect(A)$, d'où

$\displaystyle (A^\perp)^\perp=(\Vect(A)^\perp)^\perp=\Vect(A) \; .$

$ \square$

Exemple : orthogonal d'un vecteur, vecteur normal à un hyperplan

Le sous-espace vectoriel de $ E$ orthogonal à un vecteur $ v$ non nul est un sous-espace vectoriel de $ E$ de dimension $ \dim(E)-1$, i.e. un hyperplan de $ E$. C'est aussi le sous-espace vectoriel de $ E$ orthogonal à la droite vectorielle engendrée par ce vecteur.

De même, le sous-espace vectoriel orthogonal à un hyperplan $ H$ de $ E$ est une droite vectorielle de $ E$. Tout vecteur non nul de cette droite est dit normal à $ H$.

Équation d'un hyperplan : Soit $ E$ un espace vectoriel euclidien, $ (e_1,\dots,e_n)$ une base orthonormée de $ E$, $ H$ un hyperplan de $ E$ et $ v=\sum\limits_{i=1}^n v_i e_i$ un vecteur normal à $ H$. Alors l'équation de $ H$ dans la base $ (e_1,\dots,e_n)$ s'écrit :

$\displaystyle \sum\limits_{i=1}^n v_i x_i=0 \, .$

Projection et symétrie orthogonales

Rappel : si $ F$ et $ G$ sont deux sous-espaces vectoriels supplémentaires d'un espace vectoriel $ E$, tout vecteur $ x$ de $ E$ s'écrit de manière unique sous la forme $ x=x_F+x_G$, avec $ x_F\in F$ et $ x_G\in G$. L'application $ p$ qui à $ x$ associe $ x_F$ est une application linéaire de $ E$ dans $ E$, appelée projection sur $ F$ dans la direction $ G$. Elle vérifie $ p\circ p=p$, son image est $ F$ et son noyau $ G$. L'application $ s$ qui à $ x$ associe $ x_F-x_G$ est une application linéaire involutive ( $ s\circ s=id_E$), donc bijective, de $ E$ sur $ E$, appelée symétrie par rapport à $ F$ dans la direction $ G$. Ces deux applications linéaires sont reliées par la relation $ s=2\, p-id_E$.

Définition 7   Soit $ E$ un espace vectoriel et $ F$ un sous-espace vectoriel de $ E$. On appelle projection orthogonale sur $ F$ la projection sur $ F$ dans la direction $ F^\perp$ et symétrie orthogonale par rapport à $ F$ la symétrie par rapport à $ F$ dans la direction $ F^\perp$.

Le projeté orthogonal $ x_F$ sur $ F$ d'un vecteur $ x$ de $ E$ est donc caractérisé par les deux relations $ x_F\in F$ et $ \la x-x_F,y \ra=0$ pour tout $ y\in F$.

Proposition 8   Toute projection vectorielle orthogonale $ p$ est 1-Lipschitzienne : $ \Vert p(x)\Vert \leq \Vert x\Vert$ pour tout vecteur $ x$.

Démonstration : Soit $ p$ la projection orthogonale sur un sous-espace vectoriel $ F$ d'un espace vectoriel euclidien $ E$. L'orthogonalité des vecteurs $ p(x)$ et $ x-p(x)$ implique $ \Vert x\Vert^2=\Vert p(x)\Vert^2+\Vert x-p(x)\Vert^2$, d'où $ \Vert p(x)\Vert \leq \Vert x\Vert$.$ \square$

Définition 8   On appelle réflexion toute symétrie orthogonale par rapport à un hyperplan.

Une réflexion est donc, dans le plan, une symétrie orthogonale par rapport à une droite et, dans l'espace, une symétrie orthogonale par rapport à un plan.

Exemple : cas d'une droite, d'un hyperplan

Soit $ v$ un vecteur non nul de $ E$, $ D=\mathbb{R}v$ la droite vectorielle engendrée par $ v$ et $ H$ l'hyperplan de $ E$ orthogonal à $ v$, i.e. le supplémentaire orthogonal de $ D$. Le projeté orthogonal $ x_D$ d'un vecteur $ x$ de $ E$ sur $ D$ est de la forme $ \lambda v$ pour un réel $ \lambda$. En écrivant que $ \la x-\lambda v,v \ra=0$, on obtient $ \lambda=\dfrac{\la x,v \ra}{\Vert v\Vert^2}$, d'où :

$\displaystyle x_D=\dfrac{\la x,v \ra}{\Vert v\Vert^2} v \, .$

Le projeté orthogonal de $ x$ sur $ H$ est donc :

$\displaystyle x_H=x-x_D=x-\dfrac{\la x,v \ra}{\Vert v\Vert^2} v \, .$

L'image de $ x$ par la réflexion $ s_H$ d'hyperplan $ H$ est donc

$\displaystyle s_H(x)=2 \, x_H -x= x-2\, \dfrac{\la x,v \ra}{\Vert v\Vert^2} v \, .$

Si $ X$ (resp. $ X'$, $ V$) est la matrice colonne des composantes de $ x$ (resp. $ s_H(x)$, $ v$) dans une base orthonormée $ (e_1,\dots,e_n)$, cette relation s'écrit

$\displaystyle X'=X-\dfrac{2\, \tr{V}X}{\tr{V}V} V \, .$

La matrice dans la base $ (e_1,\dots,e_n)$ de la réflexion $ s_H$ est donc $ I_n - \dfrac{2}{\tr{V}V} V\tr{V}$, où $ I_n$ est la matrice identité d'ordre $ n=\dim(E)$.

Ces matrices jouent un rôle important en analyse numérique, où elles sont appelées matrices de Householder.


         © UJF Grenoble, 2011                              Mentions légales