$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Espaces vectoriels, applications linéaires, dimension

$\mathbb K$ désigne le corps $\mathbb R$ ou $\mathbb C$.
Structure d'espace vectoriel
  • On appelle espace vectoriel sur $\mathbb K$ (ou $\mathbb K$-espace vectoriel) un ensemble $E$ muni de deux lois :
    • une loi interne, notée $+$, telle que $(E,+)$ soit un groupe commutatif. L'élément nul est noté $0_E$.
    • une loi externe, notée $\cdot$, qui est une application de $\mathbb K\times E$ dans $E$ vérifiant :
      1. $\forall (\alpha,\beta)\in\mathbb K^2,\ \forall x\in E,\ (\alpha+\beta)\cdot x=\alpha \cdot x+\beta \cdot x$.
      2. $\forall \alpha\in\mathbb K,\ \forall (x,y)\in E^2,\ \alpha\cdot(x+y)=\alpha\cdot x+\alpha\cdot y$.
      3. $\forall (\alpha,\beta)\in\mathbb K^2,\ \forall x\in E,\ \alpha\cdot(\beta\cdot x)=(\alpha\beta)\cdot x$.
      4. $\forall x\in E,\ 1\cdot x=x$.
Famille de vecteurs
  • Une combinaison linéaire de la famille finie de vecteurs $(x_1,\dots,x_n)$ de $E$ est un vecteur $x\in E$ s'écrivant $x=\sum_{i=1}^n \alpha_i x_i$ où les $\alpha_i$ sont des scalaires (des éléments de $\mathbb K$).
  • Une combinaison linéaire d'une famille quelconque $(x_i)_{i\in I}$ est un vecteur $x$ s'écrivant $x=\sum_{i\in I}\alpha_i x_i$ où tous les $\alpha_i$, sauf un nombre fini, sont nuls.
  • Une famille finie de vecteurs $(x_1,\dots,x_n)$ est libre si, pour tout choix de $\alpha_1,\dots,\alpha_n\in\mathbb K$, $$\sum_{i=1}^n \alpha_i x_i=0\implies \forall i\in\{1,\dots,n\},\ \alpha_i=0.$$
  • Une famille quelconque de vecteurs est libre si toute sous-famille finie extraite est libre.
  • Une famille qui n'est pas libre est une famille liée.
  • Une famille $(x_i)_{i\in I}$ est génératrice de $E$ si tout vecteur de $E$ est combinaison linéaire des $(x_i)_{i\in I}$.
Sous-espaces vectoriels
  • Une partie $F$ de $E$ est un sous-espace vectoriel de $E$ si $F$ est non-vide et si $F$ est stable par $+$ et $\cdot$. Dans ce cas, $F$ est lui-même un espace vectoriel.
  • Caractérisation des sous-espaces vectoriels : Une partie $F$ de $E$ est un sous-espace vectoriel de $E$ si et seulement si les 3 propriétés suivantes sont vérifiées :
    1. $0_E\in F$;
    2. Pour tous $(x,y)\in F^2$, $x+y\in F$;
    3. Pour tout $x\in F$ et tout $\lambda\in \mathbb K$, $\lambda\cdot x\in F$.
  • L'intersection de deux sous-espaces vectoriels est un sous-espace vectoriel.
  • Si $X$ est une partie de $E$, il existe un sous-espace vectoriel de $E$ contenant $X$ qui est le plus petit possible (pour l'inclusion). On l'appelle le sous-espace engendré par $X$ et on le note $\textrm{vect}(X)$.
  • Si $X=\{x_1,\dots,x_n\}$, alors $\vect(X)$ est l'ensemble des combinaisons linéaires des vecteurs $x_1,\dots,x_n$.
Somme de sous-espaces vectoriels
  • Soient $F$ et $G$ deux sous-espaces vectoriels de $E$. On appelle somme de $F$ et $G$ l'espace vectoriel noté $F+G$ défini par $$F+G=\{x+y;\ x\in F,\ y\in G\}.$$
  • Deux sous-espaces $F$ et $G$ sont en somme directe si la décomposition de tout vecteur de $F+G$ comme somme d'un vecteur de $F$ et d'un vecteur de $G$ est unique. On note alors $F\oplus G$.
  • Proposition : Deux sous-espaces $F$ et $G$ sont en somme directe si et seulement si $F\cap G=\{0\}$.
  • On dit que $F$ et $G$ sont supplémentaires dans $E$ s'ils sont en somme directe et si $F\oplus G=E$.
  • Plus généralement, on définit la somme de $p$ sous-espaces vectoriels $F_1,\dots,F_p$ de $E$ par $$F_1+\cdots+F_p=\{x_1+\dots+x_p;\ x_1\in F_1,\dots,x_p\in F_p\}.$$ C'est un sous-espace vectoriel de $E$.
  • La somme $F_1+\cdots+F_p$ est directe si la décomposition de tout vecteur de $F_1+\cdots+F_p$ sous la forme $x_1+\dots+x_p$ avec $x_i\in F_i$ est unique. Ceci revient à dire que si $x_1+\dots+x_p=0_E$ avec $x_i\in F_i$, alors $x_i=0$.
  • Attention! On ne peut pas caractériser le fait que $F_1,\dots,F_p$ soient en somme directe en vérifiant que $F_i\cap F_j=\{0_E\}$ si $i\neq j$.
Applications linéaires
  • Une application $f:E\to F$ est appelée une application linéaire si, pour tous $x,y\in E$ et tous $\lambda,\mu\in \mathbb K$, on a $$f(\lambda x+\mu y)=\lambda f(x)+\mu f(y).$$ On note $\mathcal L(E,F)$ l'ensemble des applications linéaires de $E$ dans $F$, et $\mathcal L(E)$ si $E=F$. Une application linéaire de $E$ dans $E$ s'appelle aussi un endomorphisme de $E$.
  • Toute combinaison linéaire d'applications linéaires est linéaire. La composée d'applications linéaires est linéaire.
  • On dit qu'une application linéaire $f:E\to F$ est un isomorphisme si elle est bijective. La réciproque d'un isomorphisme est linéaire.
  • L'image directe d'un sous-espace vectoriel de $E$ par une application linéaire est un sous-espace vectoriel de $F$. L'image réciproque d'un sous-espace vectoriel de $F$ par une application linéaire est un sous-espace vectoriel de $E$.
  • On appelle noyau de l'application linéaire $f\in\mathcal L(E,F)$ le sous-espace vectoriel de $E$ $$\ker(f)=\{x\in E;\ f(x)=0\}.$$
  • Théorème : $f\in\mathcal L(E,F)$ est injective si et seulement si $\ker(f)=\{0\}$.
  • On appelle image de l'application linéaire $f\in\mathcal L(E,F)$ le sous-espace vectoriel de $F$ $$\imv(f)=\{f(x);\ x\in E\}.$$
  • Si $(x_i)_{i\in I}$ est une famille génératrice de $E$, alors $\imv(f)=\textrm{vect}(f(x_i);\ i\in I\}$.
Symétries et projections
  • Soient $F$ et $G$ deux sous-espaces supplémentaires de $E$. On appelle projecteur sur $F$ parallèlement à $G$ l'application linéaire $p$ définie sur $E$ par $p(z)=x$ où $z\in E$ se décompose uniquement en $z=x+y$ avec $x\in F$ et $y\in G$. On a alors $\imv( p)=F$ et $\ker( p)=G$.
  • Caractérisation des projecteurs : Un endomorphisme $p\in\mathcal L(E)$ est un projecteur si et seulement si $p\circ p=p$. L'application $p$ est alors le projecteur sur $\imv( p)$ parallèlement à $\ker( p)$.
  • Soient $F$ et $G$ deux sous-espaces supplémentaires de $E$. On appelle symétrie par rapport à $F$ parallèlement à $G$ l'application linéaire $s$ définie sur $E$ par $s(z)=x-y$ où $z\in E$ se décompose uniquement en $z=x+y$ avec $x\in F$ et $y\in G$. On a alors $\ker( s-Id_E)=F$ et $\ker( s+Id_E)=G$.
  • Caractérisation des symétries : Un endomorphisme $s\in\mathcal L(E)$ est une symétrie si et seulement si $s\circ s=Id_E$. L'application $s$ est alors la symétrie par rapport à $\ker( s-Id_E)$ parallèlement à $\ker( s+Id_E)$.
On fixe $E,F$ des $\mathbb K$-espace vectoriels.
Base
  • On appelle base de $E$ toute famille libre et génératrice de $E$.
  • Si $\mathcal B=(x_i)_{i\in I}$ est une base de $E$, alors tout $x\in E$ s'écrit de façon unique comme combinaison linéaire $$x=\sum_{i\in I}\alpha_i x_i.$$ Les scalaires $(\alpha_i)_{i\in I}$ s'appellent les coordonnées de $x$ dans la base $\mathcal B$.
  • Si $(e_i)_{i\in I}$ est une base de $E$ et $(f_i)_{i\in I}$ est une famille de $F$, alors il existe un unique $u\in\mathcal L(E,F)$ tel que $u(e_i)=f_i$ pour tout $i\in I$. De plus,
    • $u$ est injective si et seulement si $(f_i)_{i\in I}$ est une famille libre de $F$;
    • $u$ est surjective si et seulement si $(f_i)_{i\in I}$ est une famille génératrice de $F$;
    • $u$ est bijective si et seulement si $(f_i)_{i\in I}$ est une base de $F$;
Espace de dimension finie
  • On dit que $E$ est de dimension finie s'il possède une famille génératrice finie.
  • Théorème de la base extraite : De toute famille génératrice finie de $E$, on peut extraire une base de $E$. En particulier, un espace de dimension finie admet une base.
  • Théorème de la base incomplète : Si $E$ est de dimension finie, alors toute famille libre de $E$ peut-être complétée en une base de $E$. Pour la compléter, il suffit de considérer certains vecteurs d'une famille génératrice de $E$.
  • En particulier, on déduit des résultats précédents que tout espace vectoriel de dimension finie admet une base finie.
  • Théorème et définition : Si $E$ est de dimension finie, alors toutes les bases de $E$ ont le même nombre d'éléments. Ce nombre s'appelle la dimension de $E$ et est noté $\dim(E)$.
  • Corollaire : Si $E$ est de dimension $n$ et si $(x_1,\dots,x_n)$ est une famille de $n$ vecteurs de $E$, alors les conditions suivantes sont équivalentes :
    • $(x_1,\dots,x_n)$ est une famille libre de $E$;
    • $(x_1,\dots,x_n)$ est une famille génératrice de $E$;
    • $(x_1,\dots,x_n)$ est une base de $E$.
  • En particulier, dans un espace de dimension $n$, une famille libre a toujours au plus $n$ éléments, et une famille génératrice a toujours au moins $n$ éléments.
  • Si $E$ et $F$ sont de dimension finie, alors $\dim(E\times F)=\dim(E)+\dim(F)$. En particulier, $\dim(\mathbb K^n)=n$.
  • Si $E$ et $F$ sont de dimension finie, alors $\dim\big(\mathcal L(E,F)\big)=\dim(E)\times\dim(F)$.
  • $\dim(\mathbb K_n[X])=n+1$.
  • Si $(x_1,\dots,x_n)$ est une famille finie de $E$, on appelle rang de $(x_1,\dots,x_n)$ la dimension de $F=\textrm{vect}(x_1,\dots,x_n)$.
Sous-espaces et dimension
  • Si $E$ est un espace vectoriel de dimension finie et si $F$ est un sous-espace vectoriel de $E$, alors $F$ est de dimension finie et on a $\dim(F)\leq \dim(E)$. De plus, on a $\dim(F)=\dim(E)\iff F=E$.
  • Tout sous-espace d'un espace de dimension finie admet un supplémentaire.
  • Formule de Grassmann : Soit $E$ un espace vectoriel de dimension finie et soient $F,G$ deux sous-espaces vectoriels de $E$. Alors $$\dim(F+G)=\dim(F)+\dim(G)-\dim(F\cap G).$$ En particulier, $F$ et $G$ sont en somme directe si et seulement si $\dim(F+G)=\dim(F)+\dim(G)$.
  • Plus généralement, si $F_1,\dots,F_p$ sont des sous-espaces vectoriels de l'espace vectoriel de dimension finie $E$, alors $$\dim(F_1+\dots+F_p)\leq \sum_{i=1}^n \dim(F_i)$$ avec égalité si et seulement si la somme est directe.
Applications linéaires et dimension
  • Soient $E,F$ deux espaces vectoriels et soit $u\in\mathcal L(E,F)$. Alors, si $S$ est un supplémentaire de $\ker(u)$ dans $E$, $u$ induit un isomorphisme de $S$ sur $\imv(u)$.
  • Soient $E,F$ deux espaces vectoriels avec $E$ de dimension finie. Soit également $u\in\mathcal L(E,F)$. On appelle rang de $u$ la dimension de $\imv(u)$.
  • Théorème du rang : Soient $E,F$ deux espaces vectoriels avec $E$ de dimension finie. Soit également $u\in\mathcal L(E,F)$. Alors $$\dim(E)=\dim\ker(u)+\textrm{rg}(u).$$