$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : Groupe symétrique et déterminant

Groupe symétrique

Soit $n\geq 1$. On appelle groupe symétrique ou groupe des permutations de $\{1,\dots,n\}$ l'ensemble des bijections de $\{1,\dots,n\}$. Il est noté $S_n$. C'est un groupe muni de la loi de composition des applications. Ses éléments sont appelés des permutations.

Les permutations sont en général écrites sous forme matricielle : $$\sigma=\left( \begin{array}{ccccc} 1&2&\dots&k&\dots&n\\ \sigma(1)&\sigma(2)&\dots&\sigma(k)&\dots&\sigma(n) \end{array} \right).$$

Une permutation $\sigma$ de $\{1,\dots,n\}$ est appelé un cycle de longueur $k$ s'il existe $k$ entiers distincts de $\{1,\dots,n\}$ notés $a_1,\dots,a_k$ tels que $\sigma(a_1)=a_2$, $\sigma(a_2)=a_3,\dots,\sigma(a_k)=a_1$ et $\sigma(a)=a$ si $a$ n'est pas l'un des $a_i$. $\{a_1,\dots,a_k\}$ est appelé le support de la permutation et on la note simplement $$\sigma=(a_1\ a_2\ \dots\ a_k).$$

Une transposition est un cycle de longueur 2.

Théorème : Toute permutation de $\{1,\dots,n\}$ admet une décomposition en produit de cycles à supports disjoints. Cette décomposition est unique, à l'ordre des cycles près.
Théorème : Toute permutation de $\{1,\dots,n\}$ admet une décomposition (non unique en général) en produit de transpositions.

Signature d'une permutation

Dans ce paragraphe, $n$ désigne un entier supérieur ou égal à $2$.

Soit $\sigma\in S_n$. On appelle inversion de $\sigma$ toute paire $\{i,j\}$ telle que $i<j$ et $\sigma(i)>\sigma(j)$. On appelle signature de $\sigma$ le réel $\veps(\sigma)=(-1)^N$ où $N$ est le nombre d'inversions de $\sigma$.

Proposition : La signature de $\sigma\in S_n$ vérifie $$\veps(\sigma)=\prod_{1\leq i<j\leq n}\frac{\sigma(i)-\sigma(j)}{i-j}.$$
Théorème : La signature $\veps:S_n\to\{-1,1\}$ vérifie les deux propriétés suivantes :
  • si $\sigma,\sigma'\in\mathcal S_n$, alors $\veps(\sigma\circ \sigma')=\veps(\sigma)\times\veps(\sigma')$.
  • si $\tau$ est une transposition, $\veps(\tau)=-1$.
C'est la seule application de $S_n$ dans $\{-1,1\}$ vérifiant ces deux propriétés.
Corollaire : Si $\sigma$ est un cycle de longueur $k$, alors $\veps(\sigma)=(-1)^{k-1}$.
Application multilinéaire et forme $n$-linéaire alternée

Dans la suite, $\mathbb K$ est un corps, $n\geq 1$ est un entier et $E$, $E_1,\dots,E_n$ et $F$ sont des $\mathbb K$-espaces vectoriels.

On appelle application multilinéaire de $E_1\times\cdots\times E_n$ dans $F$ toute application $f:E_1\times\cdots\times E_n\to F$ telle que, pour tout $i\in\{1,\dots,n\}$ et tous $u_1,\dots,u_n\in E_1\times\cdots\times E_n,$ l'application partielle $$\begin{array}{rcl} E_i&\to&F\\ x&\mapsto& f(u_1,\dots,u_{i-1},x,u_{i+1},\dots,u_n) \end{array} $$ est une application linéaire de $E_i$ dans $F.$ Une forme multilinéaire est une application multilinéaire à valeurs dans $\mathbb K.$

Une forme $n$-linéaire alternée sur $E$ est une forme multilinéaire $f:E^n\to\mathbb K$ vérifiant $f(u_1,\dots,u_n)=0$ dès que deux vecteurs parmi $u_1,\dots,u_n$ sont égaux.

Proposition : Soit $\sigma\in S_n$ et $f$ est une forme $n$-linéaire alternée sur $E$. Alors pour tous $u_1,\dots,u_n\in E$, $$f(u_{\sigma(1)},\dots,u_{\sigma(n)})=\veps(\sigma)f(u_1,\dots,u_n).$$

En particulier, une forme $n$-linéaire alternée est antisymétrique au sens où $$f(u_2,u_1,u_3,\dots,u_n)=-f(u_1,u_2,u_3,\dots,u_n).$$

Proposition : Si $f$ est une forme $n$-linéaire alternée, alors pour toute famille liée $(u_1,\dots,u_n)$, on a $f(u_1,\dots,u_n)=0$.
Déterminant dans une base

Désormais, $E$ désigne un $\mathbb K$-espace vectoriel de dimension finie $n$.

Théorème : Soit $\mathcal B=\{e_1,\dots,e_n\}$ une base de $E$. Il existe une et une seule forme $n$-linéaire alternée $f$ sur $E$ telle que $f(e_1,\dots,e_n)=1$. Cette forme $n$-linéaire est appelée déterminant dans la base $\mathcal B$ et est notée $\textrm{det}_{\mathcal B}$. De plus, si $f$ est une autre forme $n$-linéaire alternée sur $E$, alors il existe $\lambda\in\mathbb K$ telle que $f=\lambda\textrm{det}_{\mathcal B}$.
Proposition : Soit $(x_1,\dots,x_n)$ une famille de $n$ vecteurs de $E$. On suppose que les $x_j$ s'écrivent dans la base $\mathcal B=(e_1,\dots,e_n)$ sous la forme $x_j=\sum_{i=1}^n a_{i,j}e_i$. Alors $$\textrm{det}_{\mathcal B}(x_1,\dots,x_n)=\sum_{\sigma\in\mathcal S_n}\veps(\sigma)a_{\sigma(1),1}\cdots a_{\sigma(n),n}.$$

En particulier, si $\dim(E)=2$, si $u$ a pour coordonnées $(x_1,y_1)$ dans la base $\mathcal B$, si $v$ a pour coordonnées $(x_2,y_2)$ dans cette même base, alors $$\mathrm{det}_{\mathcal B}(u,v)=x_1y_2-x_2y_1.$$

Proposition : Si $\mathcal B_1$ et $\mathcal B_2$ sont deux bases de $E$, alors pour toute famille $(x_1,\dots,x_n)$ de $E$, on a $$\textrm{det}_{\mathcal B_2}(x_1,\dots,x_n)=\textrm{det}_{\mathcal B_2}(\mathcal B_1)\times\textrm{det}_{\mathcal B_1}(x_1,\dots,x_n).$$ En particulier, $(x_1,\dots,x_n)$ est une base de $E$ si et seulement si $\textrm{det}_{\mathcal B_1}(x_1,\dots,x_n)\neq 0$.
Déterminant d'un endomorphisme
Théorème : Si $\mathcal B=(u_1,\dots,u_n)$ et $\mathcal B'=(v_1,\dots,v_n)$ sont deux bases de $E$, et si $f\in\mathcal L(E)$, alors $$\textrm{det}_{\mathcal B}\big(f(u_1),\dots,f(u_n)\big)=\textrm{det}_{\mathcal B'}\big(f(v_1),\dots,f(v_n)\big).$$ Cette valeur commune est notée $\textrm{det}(f)$ et s'appelle déterminant de l'endomorphisme $f.$

Si $f,g\in\mathcal L(E)$, on a $\textrm{det}(f\circ g)=\textrm{det}(f)\textrm{det}(g)$.

$f\in\mathcal L(E)$ est un automorphisme si et seulement si $\textrm{det}(f)\neq 0$.

Déterminant d'une matrice carrée

Si $A\in\mathcal M_n(\mathbb K)$, on appelle déterminant de $A$ le déterminant des vecteurs colonnes dans la base canonique de $\mathbb K^n$ : $$\textrm{det}(A)=\left|\begin{array}{cccc} a_{1,1}&a_{1,2}&\dots&a_{1,n}\\ a_{2,1}&a_{2,2}&\dots&a_{2,n}\\ \vdots&\vdots&\vdots&\vdots\\ a_{n,1}&a_{n,2}&\dots&a_{n,n} \end{array}\right|= \sum_{\sigma\in\mathcal S_n}\veps(\sigma)a_{\sigma(1),1}\cdots a_{\sigma(n),n}.$$ Ceci est aussi égal au déterminant de l'endomorphisme associé à $A$ dans la base canonique de $\mathbb K^n$.

Propriétés : Le déterminant vérifie les propriétés suivantes :
  • $\textrm{det}(AB)=\textrm{det}(A)\textrm{det}(B)$;
  • $A$ est inversible si et seulement si $\textrm{det}(A)\neq 0$. Dans ce cas, $\textrm{det}(A^{-1})=\big(\textrm{det}(A)\big)^{-1}$.
  • $\textrm{det}(A^T)=\textrm{det}(A)$.
  • $\textrm{det}(\lambda A)=\lambda^n \textrm{det}(A)$.
Calcul pratique des déterminants

Effet des opérations élémentaires sur le déterminant :

  • Ajouter à une ligne une combinaison linéaire des autres lignes ne change pas le déterminant;
  • Échanger deux lignes multiplie le déterminant par $-1$;
  • Multiplier une ligne par $\lambda$ multiplie le déterminant par $\lambda$.
  • Les propriétés précédentes sont encore vérifiées en remplaçant partout "ligne(s)" par "colonne(s)".

Le déterminant d'une matrice triangulaire est égal au produit des coefficients diagonaux.

Si $A$ est triangulaire par blocs, ie si $A$ s'écrit $$A=\left( \begin{array}{c|c} B&D\\ \hline 0&C \end{array}\right),$$ alors $\textrm{det}(A)=\textrm{det}(B)\textrm{det}(C )$.

Si $A\in \mathcal M_n(\mathbb K)$ et si $i,j\in\{1,\dots,n\}$, on appelle mineur d'indices $i,j$ le déterminant obtenu à partir de $A$ en supprimant la $i$-ème ligne et la $j$-ième colonne. On le note $\Delta_{i,j}$.

Développement par rapport à la $i$-ème ligne : $$\textrm{det}(A)=\sum_{j=1}^n (-1)^{i+j}a_{i,j} \Delta_{i,j}.$$

Développement par rapport à la $j$-ème colonne : $$\textrm{det}(A)=\sum_{i=1}^n (-1)^{i+j}a_{i,j} \Delta_{i,j}.$$

Déterminant de Vandermonde : Soit $a_1,\dots,a_n\in \mathbb K$. Alors $$\left|\begin{array}{cccc} 1&1&\dots&1\\ a_1&a_2&\dots&a_n\\ \vdots&\vdots&\vdots&\vdots\\ a_1^{n-1}&a_2^{n-1}&\dots&a_n^{n-1} \end{array}\right|=\prod_{1\leq i<j\leq n}(a_j-a_i).$$
Formules de Cramer, comatrice

Soit $A\in\mathcal M_n(\mathbb K)$. Si $\Delta_{i,j}$ est le mineur de $A$ d'indices $i,j$, le cofacteur de $A$ d'indices $i,j$ est le scalaire $(-1)^{i+j}\Delta_{i,j}$. On appelle comatrice de $A$ la matrice des cofacteurs de $A$, on la note $\textrm{comat}(A)$ ou $\textrm{Com}(A)$.

Formule de Cramer : $$A\big(\textrm{comat}(A)\big)^T=\big(\textrm{comat}(A)\big)^TA=\det(A)I_n.$$ En particulier, si $A$ est inversible, on a $$A^{-1}=\frac1{\det A}\big(\textrm{comat}(A)\big)^T.$$
Groupe symétrique et déterminant