$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : Groupe symétrique et déterminants

Groupe symétrique
  • On appelle groupe symétrique ou groupe des permutations de $\{1,\dots,n\}$ l'ensemble des bijections de $\{1,\dots,n\}$. Il est noté $S_n$. C'est un groupe muni de la loi de composition des applications. Ses éléments sont appelés des permutations.
  • Les permutations sont en général écrites sous forme matricielle : $$\sigma=\left( \begin{array}{ccccc} 1&2&\dots&k&\dots&n\\ \sigma(1)&\sigma(2)&\dots&\sigma(k)&\dots&\sigma(n) \end{array} \right).$$
  • Une permutation $\sigma$ de $\{1,\dots,n\}$ est appelé un cycle de longueur $k$ s'il existe $k$ entiers distincts de $\{1,\dots,n\}$ notés $a_1,\dots,a_k$ tels que $\sigma(a_1)=a_2$, $\sigma(a_2)=a_3,\dots,\sigma(a_k)=a_1$ et $\sigma(a)=a$ si $a$ n'est pas l'un des $a_i$. $\{a_1,\dots,a_k\}$ est appelé le support de la permutation et on la note simplement $$\sigma=(a_1\ a_2\ \dots\ a_k).$$
  • Une transposition est un cycle de longueur 2.
  • Théorème : Toute permutation de $\{1,\dots,n\}$ admet une décomposition en produit de cycles à supports disjoints. Cette décomposition est unique, à l'ordre des cycles près.
  • Théorème : Toute permutation de $\{1,\dots,n\}$ admet une décomposition (non unique en général) en produit de transpositions.
Signature
  • Théorème : Il existe une et une seule application $\veps:S_n\to\{-1,1\}$ vérifiant les propriétés suivantes :
    1. si $\sigma,\sigma'\in\mathcal S_n$, alors $\veps(\sigma\sigma')=\veps(\sigma)\veps(\sigma')$.
    2. si $\tau$ est une transposition, $\veps(\tau)=-1$.
    Cette application s'appelle la signature.
  • Si $\sigma$ est un cycle de longueur $k$, alors $\veps(\sigma)=(-1)^{k-1}$.
Dans la suite, $\mathbb K$ est un corps, $n\geq 2$ est un entier et $E$ est un $\mathbb K$-espace vectoriel de dimension $n$.
Forme $n$-linéaire alternée
  • Une forme $n$-linéaire alternée sur $E$ est une application $f:E^n\to\mathbb K$ vérifiant :
    1. pour tout $i\in\{1,\dots,n\}$ et tous $u_1,\dots,u_n\in E$, l'application $u\in E\mapsto f(u_1,\dots,u_{i-1},u,u_{i+1},\dots,u_n)$ est linéaire;
    2. $f(u_1,\dots,u_n)=0$ dès que deux vecteurs parmi $u_1,\dots,u_n$ sont égaux.
  • Si $\sigma\in S_n$ et si $f$ est une forme $n$-linéaire alternée sur $E$, alors pour tous $u_1,\dots,u_n\in E$, $$f(u_{\sigma(1)},\dots,u_{\sigma(n)})=\veps(\sigma)f(u_1,\dots,u_n).$$
  • Proposition : Si $f$ est une forme $n$-linéaire alternée, alors pour toute famille liée $(u_1,\dots,u_n)$, on a $f(u_1,\dots,u_n)=0$.
Déterminant dans une base
  • Théorème : Soit $\mathcal B=\{e_1,\dots,e_n\}$ une base de $E$. Il existe une et une seule forme $n$-linéaire alternée $f$ sur $E$ telle que $f(e_1,\dots,e_n)=1$. Cette forme $n$-linéaire est appelée déterminant dans la base $\mathcal B$ et est notée $\textrm{det}_{\mathcal B}$. De plus, si $f$ est une autre forme $n$-linéaire sur $E$, alors il existe $\lambda\in\mathbb K$ telle que $f=\lambda\textrm{det}_{\mathcal B}$.
  • Soit $(x_1,\dots,x_n)$ une famille de $n$ vecteurs de $E$. On suppose que les $x_j$ s'écrivent dans la base $\mathcal B=(e_1,\dots,e_n)$ sous la forme $x_j=\sum_{i=1}^n a_{i,j}e_i$. Alors $$\textrm{det}_{\mathcal B}(x_1,\dots,x_n)=\sum_{\sigma\in\mathcal S_n}\veps(\sigma)a_{\sigma(1),1}\cdots a_{\sigma(n),n}.$$
  • Proposition : Si $\mathcal B_1$ et $\mathcal B_2$ sont deux bases de $E$, alors pour toute famille $(x_1,\dots,x_n)$ de $E$, on a $$\textrm{det}_{\mathcal B_2}(x_1,\dots,x_n)=\textrm{det}_{\mathcal B_2}(\mathcal B_1)\times\textrm{det}_{\mathcal B_1}(x_1,\dots,x_n).$$ En particulier, $(x_1,\dots,x_n)$ est une base de $E$ si et seulement si $\textrm{det}_{\mathcal B_1}(x_1,\dots,x_n)\neq 0$.
  • Si $\mathcal B_1$ et $\mathcal B_2$ sont deux bases de $E$, on dit que $\mathcal B_2$ a la même orientation que $\mathcal B_1$ si $\textrm{det}_{\mathcal B_1}(\mathcal B_2)>0$. On définit ainsi une relation d'équivalence sur les bases de $E$, qui comporte deux classes d'équivalence. Orienter $E$, c'est choisir une de ces deux classes, dont les éléments seront appelés bases directes, tandis que les éléments de l'autre classe seront appelés bases rétrogrades.
Déterminant d'un endomorphisme
  • Théorème : Si $\mathcal B=(u_1,\dots,u_n)$ et $\mathcal B'=(v_1,\dots,v_n)$ sont deux bases de $E$, et si $f\in\mathcal L(E)$, alors $$\textrm{det}_{\mathcal B}\big(f(u_1),\dots,f(u_n)\big)=\textrm{det}_{\mathcal B'}\big(f(v_1),\dots,f(v_n)\big).$$ Cette valeur commune est notée $\textrm{det}(f)$ et s'appelle déterminant de l'endomorphisme $f$.
  • Si $f,g\in\mathcal L(E)$, on a $\textrm{det}(f\circ g)=\textrm{det}(f)\textrm{det}(g)$.
  • $f\in\mathcal L(E)$ est un automorphisme si et seulement si $\textrm{det}(f)\neq 0$.
Déterminant d'une matrice carrée
  • Si $A\in\mathcal M_n(\mathbb K)$, on appelle déterminant de $A$ le déterminant des vecteurs colonnes dans la base canonique de $\mathbb K^n$ : $$\textrm{det}(A)=\sum_{\sigma\in\mathcal S_n}\veps(\sigma)a_{\sigma(1),1}\cdots a_{\sigma(n),n}.$$ Ceci est aussi égal au déterminant de l'endomorphisme associé à $A$ dans la base canonique de $\mathbb K^n$.
  • Propriétés : Le déterminant vérifie les propriétés suivantes :
    • $\textrm{det}(AB)=\textrm{det}(A)\textrm{det}(B)$;
    • $A$ est inversible si et seulement si $\textrm{det}(A)\neq 0$. Dans ce cas, $\textrm{det}(A^{-1})=\big(\textrm{det}(A)\big)^{-1}$.
    • $\textrm{det}(A^T)=\textrm{det}(A)$.
    • $\textrm{det}(\lambda A)=\lambda^n \textrm{det}(A)$.
Calcul pratique des déterminants
  • Opérations élémentaires :
    • Ajouter à une ligne une combinaison linéaire des autres lignes ne change pas le déterminant;
    • Échanger deux lignes multiplie le déterminant par $-1$;
    • Multiplier une ligne par $\lambda$ multiplie le déterminant par $\lambda$.
    • Idem sur les colonnes.
  • Le déterminant d'une matrice triangulaire est égal au produit des coefficients diagonaux.
  • Si $A$ est triangulaire par blocs, ie si $A$ s'écrit $$A=\left( \begin{array}{c|c} B&D\\ \hline 0&C \end{array}\right),$$ alors $\textrm{det}(A)=\textrm{det}(B)\textrm{det}(C )$.
  • Si $A\in \mathcal M_n(\mathbb K)$ et si $i,j\in\{1,\dots,n\}$, on appelle mineur d'indices $i,j$ le déterminant obtenu à partir de $A$ en supprimant la $i$-ème ligne et la $j$-ième colonne. On le note $\Delta_{i,j}$.
  • Développement par rapport à la $i$-ème ligne : $$\textrm{det}(A)=\sum_{j=1}^n (-1)^{i+j}a_{i,j} \Delta_{i,j}.$$
  • Développement par rapport à la $j$-ème colonne : $$\textrm{det}(A)=\sum_{i=1}^n (-1)^{i+j}a_{i,j} \Delta_{i,j}.$$
Formules de Cramer, comatrice
Soit $A\in\mathcal M_n(\mathbb K)$.
  • Si $\Delta_{i,j}$ est le mineur de $A$ d'indices $i,j$, le cofacteur de $A$ d'indices $i,j$ est le scalaire $(-1)^{i+j}\Delta_{i,j}$.
  • On appelle comatrice de $A$ la matrice des cofacteurs de $A$, on la note $\textrm{comat}(A)$.
  • On a $$A\big(\textrm{comat}(A)\big)^T=\big(\textrm{comat}(A)\big)^TA=\det(A)I_n.$$ En particulier, si $A$ est inversible, on a $$A^{-1}=\frac1{\det A}\big(\textrm{comat}(A)\big)^T.$$