Résumé de cours : Espaces préhilbertiens, euclidiens, matrices orthogonales
Produit scalaire
- Soit $E$ un $\mathbb R$-espace vectoriel. On appelle produit scalaire sur $E$ toute application $\langle \cdot,\cdot\rangle:E\times E\to \mathbb R$ vérifiant les propriétés suivantes :
- elle est bilinéaire : pour tous $x,y,z\in E$ et tout $\lambda\in\mathbb R$, on a $$\langle x+\lambda y,z\rangle=\langle x,z\rangle+\lambda \langle y,z\rangle$$ $$\langle x,\lambda y+z\rangle=\lambda \langle x,y\rangle+\langle x,z\rangle.$$
- elle est symétrique : pour tous $x,y\in E$, on a $\langle x,y\rangle=\langle y,x\rangle$.
- elle est définie positive : pour tout $x\in E$, on a $\langle x,x\rangle\geq 0$ et de plus $\langle x,x\rangle=0$ si et seulement si $x=0$.
- Un $\mathbb R$-espace vectoriel $E$ muni d'un produit scalaire s'appelle un espace préhilbertien. Si $E$ est de dimension finie, $E$ est appelé espace euclidien.
- Les exemples classiques de produits scalaires sont :
- Sur $\mathbb R^n$, $\langle x,y\rangle=\sum_{k=1}^n x_k y_k$.
- Sur $\mathcal C([a,b])$, $\langle f,g\rangle=\int_a^b f(t)g(t)dt$.
Norme associée
- On pose, pour $x\in E$, $\|x\|=\sqrt{\langle x,x\rangle}$, qu'on appelle norme associée au produit scalaire.
- Le produit scalaire et la norme associée vérifient l'inégalité de Cauchy-Schwarz : $$\forall x,y\in E, |\langle x,y\rangle|\leq \|x\|\times\|y\|$$ avec égalité si et seulement si $(x,y)$ est une famille liée. En particulier, avec les deux produits scalaires usuels, on a $$\forall f,g\in\mathcal C([a,b]),\ \int_a^b |f(t)g(t)|dt\leq \left(\int_a^b f^2(t)dt\right)^{1/2}\left(\int_a^b g^2(t)dt\right)^{1/2},$$ $$\forall x,y\in\mathbb R^n,\ \sum_{k=1}^n |x_ky_k|\leq \left(\sum_{k=1}^n x_k^2\right)^{1/2}\left(\sum_{k=1}^n y_k^2\right)^{1/2}.$$
- La norme associée vérifie l'inégalité triangulaire : $$\forall x,y\in E,\ \|x+y\|\leq \|x\|+\|y\|$$ avec égalité si et seulement si $x=0$ ou s'il existe $\lambda\in\mathbb R^+$ tel que $y=\lambda x$ (on dit que $x$ et $y$ sont positivement liés).
- La norme associée est une norme sur $E$, c'est-à-dire qu'elle vérifie les trois conditions suivantes :
- $\forall x\in E,\ \|x\|\geq 0$ avec égalité si et seulement si $x=0$;
- $\forall x\in E,\ \forall\lambda\in\mathbb R,\ \|\lambda x\|=|\lambda|\times \|x\|$;
- $\forall x,y\in E,\ \|x+y\|\leq \|x\|+\|y\|.$
- On a l'identité de polarisation suivante : $$\forall (x,y)\in E,\ 2\langle x,y\rangle=\|x+y\|^2-\|x\|^2-\|y\|^2.$$
Familles orthogonales, orthonormales
- On dit que deux vecteurs $x,y\in E$ sont orthogonaux si $\langle x,y\rangle=0$. On note $x\perp y$.
- Une famille $(x_i)_{i\in I}$ est dit orthogonale si les vecteurs qui la composent sont deux à deux orthogonaux. Une famille orthogonale constituée de vecteurs non-nuls est une famille libre.
- Si $(x_1,\dots,x_p)$ est une famille orthogonale, on a la relation de Pythagore $$\left\|\sum_{k=1}^p x_k\right\|^2=\sum_{k=1}^p \|x_k\|^2.$$
- Si $X$ est une partie de $E$, on appelle orthogonal de $X$ l'ensemble noté $X^\perp$ défini par $$X^\perp=\left\{y\in E;\ \forall x\in X,\ \langle x,y\rangle=0\right\}.$$ $X^\perp$ est toujours un sous-espace vectoriel de $E$.
- Un vecteur $x\in E$ est dit unitaire ou normé si $\|x\|=1$. Une famille $(x_i)$ est une famille orthonormale si c'est une famille orthogonale dont tous les vecteurs sont normés.
- Si $(x_1,\dots,x_p)$ est une famille libre de $E$, il existe une unique famille orthonormale $(e_1,\dots,e_p)$ vérifiant les deux conditions suivantes :
- pour tout $k\in\{1,\dots,p\}$, $\textrm{vect}(e_1,\dots,e_k)=\textrm{vect}(x_1,\dots,x_k)$;
- pour tout $k\in\{1,\dots,p\}$, $\langle e_k,x_k\rangle>0$.
Bases orthonormées
On suppose dans cette partie que $E$ est euclidien de dimension $n$.
- Une base orthonormée de $E$ est une famille orthogonale $(e_1,\dots,e_n)$ dont tous les vecteurs sont unitaires. C'est en particulier une base de $E$.
- $E$ possède des bases orthonormées.
- Si $(e_1,\dots,e_n)$ est une base orthonormée de $E$, alors tout $x\in E$ s'écrit de façon unique $$x=\sum_{i=1}^n \langle x,e_i\rangle e_i.$$ Le réel $\langle x,e_i\rangle$ s'appelle coordonnée de $x$ par rapport à $e_i$ dans la base $(e_1,\dots,e_n)$.
- Si $(e_1,\dots,e_n)$ est une base orthonormée de $E$, si $x=\sum_{i=1}^n x_i e_i$ et $y=\sum_{i=1}^n y_i e_i$, alors on peut calculer le produit scalaire et la norme par les formules suivantes : $$\langle x,y\rangle=\sum_{i=1}^n x_i y_i$$ $$\|x\|=\left(\sum_{i=1}^n x_i^2\right)^{1/2}.$$
Orientation et produit mixte
On suppose dans cette partie que $E$ est euclidien de dimension $n$.
- Rappelons que choisir une orientation de $E$, c'est fixer une base $\mathcal B$ de $E$. Une base orthonormée $(e_1,\dots,e_n)$ de $E$ est alors une base orthonormée directe si $\det_\mathcal B(e_1,\dots,e_n)>0$.
- Théorème et définition : Si $x_1,\dots,x_n$ sont $n$ vecteurs de $E$, le déterminant de la famille $(x_1,\dots,x_n)$ est le même dans toute base orthonormée directe. On l'appelle le produit mixte des vecteurs $x_1,\dots,x_n$ et on le note $$[x_1,\dots,x_n].$$
- Si $f\in\mathcal L(E)$, on a $$[f(x_1),\dots,f(x_n)]=\det(f)\times [x_1,\dots,x_n].$$
Projection orthogonale
On suppose dans cette partie que $F$ est un sous-espace de $E$ de dimension finie.
- $F^\perp$ est un sous-espace supplémentaire de $F$ appelé supplémentaire orthogonal de $F$. Si $E$ est lui-même de dimension finie, on a en particulier $$\dim(F^\perp)=\dim(E)-\dim(F).$$
- Soit $x\in E$, qui s'écrit uniquement $x=y+z$ dans la somme directe $F\oplus F^\perp$. Alors $y$ s'appelle le projeté orthogonal de $x$ sur $F$, et est noté $p_F(x)$.
- Si $(e_1,\dots,e_p)$ est une base orthonormée de $F$, alors $$p_F(x)=\sum_{i=1}^p \langle x,e_i\rangle e_i.$$
- Théorème et définition : Pour tout $x\in E$ et tout $f\in F$, on a $$\|x-f\|\geq \|x-p_F(x)\|$$ avec égalité si et seulement si $f=p_F(x)$. La quantité $$d(x,F)=\|x-p_F(x)\|=\inf_{f\in F}\|x-f\|$$ s'appelle distance de $x$ à $F$.
- Par le théorème de Pythagore, on a $$d(x,F)=\sqrt{\|x\|^2-\|p_F(x)\|^2}.$$
Hyperplan affine
On suppose dans cette partie que $E$ est euclidien de dimension $n$.
- Soit $H$ un hyperplan affine de $E$. On appelle vecteur normal à $H$ tout vecteur non nul orthogonal à sa direction.
- Proposition : Soit $H$ un hyperplan affine, soit $A\in H$ et soit $\mathbb n$ un vecteur normal à $H$. Alors $$M\in H\iff \langle \overrightarrow{AM},\mathbb n\rangle=0.$$
- En particulier, $H$ est un hyperplan affine de vecteur normal $\mathbb n=(a_1,\dots,a_n)$ si et seulement s'il existe un réel $h$ tel que l'équation de $H$ soit $$a_1x_1+\dots+a_nx_n+h=0.$$
- Proposition : Soit $H$ un hyperplan affine, soit $A\in H$ et soit $\mathbb n$ un vecteur normal à $H$. Alors $$d(M,H)=\frac{|\langle \mathbb n,\overrightarrow{AM}\rangle|}{\|\mathbb n\|}.$$
- En particulier, si $H$ est un hyperplan affine d'équation $\sum_{i=1}^n a_ix_i+h=0$ et si $M$ est un point de coordonnées $(x_1,\dots,x_n)$, alors la distance de $M$ à $H$ est donnée par $$d(M,H)=\frac{\left|\sum_{i=1}^n a_ix_i+h\right|}{\sqrt{\sum_{i=1}^n a_i^2}}.$$
Isométrie vectorielle
On suppose dans cette partie que $E$ est euclidien de dimension $n$.
- On appelle isométrie vectorielle de $E$, ou automorphisme orthogonal de $E$, toute application linéaire $f\in\mathcal L(E)$ telle que, pour tout $x\in E$, $\|f(x)\|=\|x\|$.
- Proposition : Soit $f\in\mathcal L(E)$. Les assertions suivantes sont équivalentes :
- $f$ est un endomorphisme orthogonal de $E$.
- $f$ conserve le produit scalaire : $\forall x,y\in E,\ \langle f(x),f(y)\rangle=\langle x,y\rangle$.
- L'image par $f$ d'une base orthonormale est une base orthonormale.
- L'ensemble des automorphismes orthogonaux de $E$ est un groupe, appelé groupe orthogonal de $E$ et noté $\mathcal O(E)$.
- On appelle symétrie orthogonale une symétrie $s\in\mathcal L(E)$ telle que $\ker(s-Id_E)$ et $\ker(s+Id_E)$ soient orthogonaux. Une symétrie est un endomorphisme orthogonal si et seulement si c'est une symétrie orthogonale.
- On appelle réflexion de $E$ une symétrie orthogonale par rapport à un hyperplan.
Matrices orthogonales
On suppose dans cette partie que $E$ est euclidien de dimension $n$.
- On appelle matrice orthogonale de taille $n$ toute matrice $M\in\mathcal M_n(\mathbb R)$ vérifiant $M^T M=I_n$ (on a alors automatiquement $MM^T=I_n$).
- Une matrice est orthogonale si et seulement ses colonnes forment une base orthonormale de $\mathbb R^n$, si et seulement si ses lignes forment une base orthonormale de $\mathbb R^n$.
- L'ensemble des matrices orthogonales de taille $n$ forme un groupe appelé groupe orthogonal et noté $\mathcal O_n(\mathbb R)$.
- Théorème : Soit $f\in\mathcal L(E)$. Alors les assertions suivantes sont équivalentes :
- $f$ est orthogonal;
- La matrice de $f$ dans toute base orthonormale de $E$ est orthogonale.
- Le déterminant d'une matrice orthogonale vaut $\pm 1$. Une matrice orthogonale est dite positive si son déterminant vaut $1$, négative si son déterminant vaut $-1$. L'ensemble des matrices orthogonales positives forme un groupe appelé le groupe spécial orthogonal et note $SO_n(\mathbb R)$.
- On suppose désormais que $E$ est orienté. Une isométrie est appelée isométrie positive si sa matrice dans une base orthonormée directe est une matrice orthogonale positive. L'ensemble des isométries positives de $E$ est un groupe, appelé groupe spécial orthogonal et noté $SO(E)$.
Isométries vectorielles en dimension 2
On suppose dans cette partie que $E$ est euclidien orienté de dimension 2.
- Les matrices orthogonales positives en dimension 2 sont les matrices de la forme $$M(\theta)=\left(\begin{array}{cc} \cos(\theta)&-\sin(\theta)\\ \sin(\theta)&\cos(\theta) \end{array}\right),\ \theta\in\mathbb R.$$ Les matrices orthogonales négatives en dimension 2 sont les matrices de la forme $$N(\theta)=\left(\begin{array}{cc} \cos(\theta)&\sin(\theta)\\ \sin(\theta)&-\cos(\theta) \end{array}\right),\ \theta\in\mathbb R.$$
- On appelle rotation vectorielle d'angle $\theta\in [0,2\pi[$ un endomorphisme orthogonal de $E$ dont la matrice dans une (dans toute) base orthonormale directe de $E$ est de la forme $M(\theta)$. On note l'endomorphisme correspondant $r_\theta$.
- Si $u,v$ sont deux vecteurs unitaires de $E$, il existe une unique rotation vectorielle $r_\theta$ telle que $r_\theta(u)=v$. $\theta$ est appelé mesure de l'angle orienté $(u,v)$ (et est défini à $2\pi$-près).
- Les automorphismes orthogonaux de $E$ sont les rotations vectorielles et les réflexions.