$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : Espaces préhilbertiens, euclidiens, matrices orthogonales

Produit scalaire
  • Soit $E$ un $\mathbb R$-espace vectoriel. On appelle produit scalaire sur $E$ toute application $\langle \cdot,\cdot\rangle:E\times E\to \mathbb R$ vérifiant les propriétés suivantes :
    • elle est bilinéaire : pour tous $x,y,z\in E$ et tout $\lambda\in\mathbb R$, on a $$\langle x+\lambda y,z\rangle=\langle x,z\rangle+\lambda \langle y,z\rangle$$ $$\langle x,\lambda y+z\rangle=\lambda \langle x,y\rangle+\langle x,z\rangle.$$
    • elle est symétrique : pour tous $x,y\in E$, on a $\langle x,y\rangle=\langle y,x\rangle$.
    • elle est définie positive : pour tout $x\in E$, on a $\langle x,x\rangle\geq 0$ et de plus $\langle x,x\rangle=0$ si et seulement si $x=0$.
  • Un $\mathbb R$-espace vectoriel $E$ muni d'un produit scalaire s'appelle un espace préhilbertien. Si $E$ est de dimension finie, $E$ est appelé espace euclidien.
  • Les exemples classiques de produits scalaires sont :
    • Sur $\mathbb R^n$, $\langle x,y\rangle=\sum_{k=1}^n x_k y_k$.
    • Sur $\mathcal C([a,b])$, $\langle f,g\rangle=\int_a^b f(t)g(t)dt$.
Dans la suite, $E$ désigne un espace préhilbertien muni du produit scalaire $\langle \cdot,\cdot\rangle$.
Norme associée
  • On pose, pour $x\in E$, $\|x\|=\sqrt{\langle x,x\rangle}$, qu'on appelle norme associée au produit scalaire.
  • Le produit scalaire et la norme associée vérifient l'inégalité de Cauchy-Schwarz : $$\forall x,y\in E, |\langle x,y\rangle|\leq \|x\|\times\|y\|$$ avec égalité si et seulement si $(x,y)$ est une famille liée. En particulier, avec les deux produits scalaires usuels, on a $$\forall f,g\in\mathcal C([a,b]),\ \int_a^b |f(t)g(t)|dt\leq \left(\int_a^b f^2(t)dt\right)^{1/2}\left(\int_a^b g^2(t)dt\right)^{1/2},$$ $$\forall x,y\in\mathbb R^n,\ \sum_{k=1}^n |x_ky_k|\leq \left(\sum_{k=1}^n x_k^2\right)^{1/2}\left(\sum_{k=1}^n y_k^2\right)^{1/2}.$$
  • La norme associée vérifie l'inégalité triangulaire : $$\forall x,y\in E,\ \|x+y\|\leq \|x\|+\|y\|$$ avec égalité si et seulement $x=0$ ou s'il existe $\lambda\in\mathbb R^+$ tel que $y=\lambda x$ (on dit que $x$ et $y$ sont positivement liés).
  • La norme associée est une norme sur $E$, c'est-à-dire qu'elle vérifie les trois conditions suivantes :
    1. $\forall x\in E,\ \|x\|\geq 0$ avec égalité si et seulement si $x=0$;
    2. $\forall x\in E,\ \forall\lambda\in\mathbb R,\ \|\lambda x\|=|\lambda|\times \|x\|$;
    3. $\forall x,y\in E,\ \|x+y\|\leq \|x\|+\|y\|.$
  • On a l'identité de polarisation suivante : $$\forall (x,y)\in E,\ 2\langle x,y\rangle=\|x+y\|^2-\|x\|^2-\|y\|^2.$$
Familles orthogonales, orthonormales
  • On dit que deux vecteurs $x,y\in E$ sont orthogonaux si $\langle x,y\rangle=0$. On note $x\perp y$.
  • Une famille $(x_i)_{i\in I}$ est dit orthogonale si les vecteurs qui la composent sont deux à deux orthogonaux. Une famille orthogonale constituée de vecteurs non-nuls est une famille libre.
  • Si $(x_1,\dots,x_p)$ est une famille orthogonale, on a la relation de Pythagore $$\left\|\sum_{k=1}^p x_k\right\|^2=\sum_{k=1}^p \|x_k\|^2.$$
  • Si $X$ est une partie de $E$, on appelle orthogonal de $X$ l'ensemble noté $X^\perp$ défini par $$X^\perp=\left\{y\in E;\ \forall x\in X,\ \langle x,y\rangle=0\right\}.$$ $X^\perp$ est toujours un sous-espace vectoriel de $E$.
  • Un vecteur $x\in E$ est dit unitaire ou normé si $\|x\|=1$. Une famille $(x_i)$ est une famille orthonormale si c'est une famille orthogonale dont tous les vecteurs sont normés.
  • Si $(x_1,\dots,x_p)$ est une famille libre de $E$, il existe une unique famille orthonormale $(e_1,\dots,e_p)$ vérifiant les deux conditions suivantes :
    1. pour tout $k=1,\dots,p$, $\textrm{vect}(e_1,\dots,e_k)=\textrm{vect}(x_1,\dots,x_k)$;
    2. pour tout $k=1,\dots,p$, $\langle e_k,x_k\rangle>0$.
    Le passage de $(x_1,\dots,x_p)$ à $(e_1,\dots,e_p)$ s'appelle procédé d'orthonormalisation de Gram-Schmidt.
Bases orthonormées
  On suppose dans cette partie que $E$ est euclidien de dimension $n$.
  • Une base orthonormée de $E$ est une famille orthogonale $(e_1,\dots,e_n)$ dont tous les vecteurs sont unitaires. C'est en particulier une base de $E$.
  • $E$ possède des bases orthonormées.
  • Si $(e_1,\dots,e_n)$ est une base orthonormée de $E$, alors tout $x\in E$ s'écrit de façon unique $$x=\sum_{i=1}^n \langle x,e_i\rangle e_i.$$ Le réel $\langle x,e_i\rangle$ s'appelle coordonnée de $x$ par rapport à $e_i$ dans la base $(e_1,\dots,e_n)$.
  • Si $(e_1,\dots,e_n)$ est une base orthonormée de $E$, si $x=\sum_{i=1}^n x_i e_i$ et $y=\sum_{i=1}^n y_i e_i$, alors on peut calculer le produit scalaire et la norme par les formules suivantes : $$\langle x,y\rangle=\sum_{i=1}^n x_i y_i$$ $$\|x\|=\left(\sum_{i=1}^n x_i^2\right)^{1/2}.$$
Orientation et produit mixte
  On suppose dans cette partie que $E$ est euclidien de dimension $n$.
  • Rappelons que choisir une orientation de $E$, c'est fixer une base $\mathcal B$ de $E$. Une base orthonormée $(e_1,\dots,e_n)$ de $E$ est alors une base orthonormée directe si $\det_\mathcal B(e_1,\dots,e_n)>0$.
  • Théorème et définition : Si $x_1,\dots,x_n$ sont $n$ vecteurs de $E$, le déterminant de la famille $(x_1,\dots,x_n)$ est le même dans toute base orthonormée directe. On l'appelle le produit mixte des vecteurs $x_1,\dots,x_n$ et on le note $$[x_1,\dots,x_n].$$
  • Si $f\in\mathcal L(E)$, on a $$[f(x_1),\dots,f(x_n)]=\det(f)\times [x_1,\dots,x_n].$$
Projection orthogonale
  On suppose dans cette partie que $F$ est un sous-espace de $E$ de dimension finie.
  • $F^\perp$ est un sous-espace supplémentaire de $F$ appelé supplémentaire orthogonal de $F$. Si $E$ est lui-même de dimension finie, on a en particulier $$\dim(F^\perp)=\dim(E)-\dim(F).$$
  • Soit $x\in E$, qui s'écrit uniquement $x=y+z$ dans la somme directe $F\oplus F^\perp$. Alors $y$ s'appelle le projeté orthogonal de $x$ sur $F$, et est noté $p_F(x)$.
  • Si $(e_1,\dots,e_p)$ est une base orthonormée de $F$, alors $$p_F(x)=\sum_{i=1}^p \langle x,e_i\rangle e_i.$$
  • Théorème et définition : Pour tout $x\in E$ et tout $f\in F$, on a $$\|x-f\|\geq \|x-p_F(x)\|$$ avec égalité si et seulement si $f=p_F(x)$. La quantité $$d(x,F)=\|x-p_F(x)\|=\inf_{f\in F}\|x-f\|$$ d'appelle distance de $x$ à $F$.
  • Par le théorème de Pythagore, on a $$d(x,F)=\sqrt{\|x\|^2-\|p_F(x)\|^2}.$$
Hyperplan affine
  On suppose dans cette partie que $E$ est euclidien de dimension $n$.
  • Soit $H$ un hyperplan affine de $E$. On appelle vecteur normal à $H$ tout vecteur non nul orthogonal à sa direction.
  • Proposition : Soit $H$ un hyperplan affine, soit $A\in H$ et soit $\mathbb n$ un vecteur normal à $H$. Alors $$M\in H\iff \langle \overrightarrow{AM},\mathbb n\rangle=0.$$
  • En particulier, $H$ est un hyperplan affine de vecteur normal $\mathbb n=(a_1,\dots,a_n)$ si et seulement s'il existe un réel $h$ tel que l'équation de $H$ soit $$a_1x_1+\dots+a_nx_n+h=0.$$
  • Proposition : Soit $H$ un hyperplan affine, soit $A\in H$ et soit $\mathbb n$ un vecteur normal à $H$. Alors $$d(M,H)=\frac{|\langle \mathbb n,\overrightarrow{AM}\rangle|}{\|\mathbb n\|}.$$
  • En particulier, si $H$ est un hyperplan affine d'équation $\sum_{i=1}^n a_ix_i+h=0$ et si $M$ est un point de coordonnées $(x_1,\dots,x_n)$, alors la distance de $M$ à $H$ est donnée par $$d(M,H)=\frac{\left|\sum_{i=1}^n a_ix_i+h\right|}{\sqrt{\sum_{i=1}^n a_i^2}}.$$
Isométrie vectorielle
  On suppose dans cette partie que $E$ est euclidien de dimension $n$.
  • On appelle isométrie vectorielle de $E$, ou automorphisme orthogonal de $E$, toute application linéaire $f\in\mathcal L(E)$ telle que, pour tout $x\in E$, $\|f(x)\|=\|x\|$.
  • Proposition : Soit $f\in\mathcal L(E)$. Les assertions suivantes sont équivalentes :
    • $f$ est un endomorphisme orthogonal de $E$.
    • $f$ conserve le produit scalaire : $\forall x,y\in E,\ \langle f(x),f(y)\rangle=\langle x,y\rangle$.
    • L'image par $f$ d'une base orthonormale est une base orthonormale.
  • L'ensemble des automorphismes orthogonaux de $E$ est un groupe, appelle groupe orthogonal de $E$ et noté $\mathcal O(E)$.
  • On appelle symétrie orthogonale une symétrie $s\in\mathcal L(E)$ telle que $\ker(s-Id_E)$ et $\ker(s+Id_E)$ soient orthogonaux. Une symétrie est un endomorphisme orthogonal si et seulement si c'est une symétrie orthogonale.
  • On appelle réflexion de $E$ une symétrie orthogonale par rapport à un hyperplan.
Matrices orthogonales
  On suppose dans cette partie que $E$ est euclidien de dimension $n$.
  • On appelle matrice orthogonale de taille $n$ toute matrice $M\in\mathcal M_n(\mathbb R)$ vérifiant $M^T M=I_n$ (on a alors automatiquement $MM^T=I_n$).
  • Une matrice est orthogonale si et seulement ses colonnes forment une base orthonormale de $\mathbb R^n$, si et seulement si ses lignes forment une base orthonormale de $\mathbb R^n$.
  • L'ensemble des matrices orthogonales de taille $n$ forme un groupe appelé groupe orthogonal et noté $\mathcal O_n(\mathbb R)$.
  • Théorème : Soit $f\in\mathcal L(E)$. Alors les assertions suivantes sont équivalentes :
    • $f$ est orthogonal;
    • La matrice de $f$ dans toute base orthonormale de $E$ est orthogonale.
  • Le déterminant d'une matrice orthogonale vaut $\pm 1$. Une matrice orthogonale est dite positive si son déterminant vaut $1$, négative si son déterminant vaut $-1$. L'ensemble des matrices orthogonales positives forme un groupe appelé le groupe spécial orthogonal et note $SO_n(\mathbb R)$.
  • On suppose désormais que $E$ est orienté. Une isométrie est appelée isométrie positive si sa matrice dans une base orthonormée directe est une matrice orthogonale positive. L'ensemble des isométries positives de $E$ est un groupe, appelé groupe spécial orthogonal et noté $SO(E)$.
Isométries vectorielles en dimension 2
  On suppose dans cette partie que $E$ est euclidien orienté de dimension 2.
  • Les matrices orthogonales positives en dimension 2 sont les matrices de la forme $$M(\theta)=\left(\begin{array}{cc} \cos(\theta)&-\sin(\theta)\\ \sin(\theta)&\cos(\theta) \end{array}\right),\ \theta\in\mathbb R.$$ Les matrices orthogonales négatives en dimension 2 sont les matrices de la forme $$N(\theta)=\left(\begin{array}{cc} \cos(\theta)&\sin(\theta)\\ \sin(\theta)&-\cos(\theta) \end{array}\right),\ \theta\in\mathbb R.$$
  • On appelle rotation vectorielle d'angle $\theta\in [0,2\pi[$ un endomorphisme orthogonal de $E$ dont la matrice dans une (dans toute) base orthonormale directe de $E$ est de la forme $M(\theta)$. On note l'endomorphisme correspondant $r_\theta$.
  • Si $u,v$ sont deux vecteurs unitaires de $E$, il existe une unique rotation vectorielle $r_\theta$ telle que $r_\theta(u)=v$. $\theta$ est appelé mesure de l'angle orienté $(u,v)$ (et est défini à $2\pi$-près).
  • Les automorphismes orthogonaux de $E$ sont les rotations vectorielles et les réflexions.