Résumé de cours : Groupe symétrique et déterminants
- On appelle groupe symétrique ou groupe des permutations de $\{1,\dots,n\}$ l'ensemble des bijections de $\{1,\dots,n\}$. Il est noté $S_n$. C'est un groupe muni de la loi de composition des applications. Ses éléments sont appelés des permutations.
- Les permutations sont en général écrites sous forme matricielle : $$\sigma=\left( \begin{array}{ccccc} 1&2&\dots&k&\dots&n\\ \sigma(1)&\sigma(2)&\dots&\sigma(k)&\dots&\sigma(n) \end{array} \right).$$
- Une permutation $\sigma$ de $\{1,\dots,n\}$ est appelé un cycle de longueur $k$ s'il existe $k$ entiers distincts de $\{1,\dots,n\}$ notés $a_1,\dots,a_k$ tels que $\sigma(a_1)=a_2$, $\sigma(a_2)=a_3,\dots,\sigma(a_k)=a_1$ et $\sigma(a)=a$ si $a$ n'est pas l'un des $a_i$. $\{a_1,\dots,a_k\}$ est appelé le support de la permutation et on la note simplement $$\sigma=(a_1\ a_2\ \dots\ a_k).$$
- Une transposition est un cycle de longueur 2.
- Théorème : Toute permutation de $\{1,\dots,n\}$ admet une décomposition en produit de cycles à supports disjoints. Cette décomposition est unique, à l'ordre des cycles près.
- Théorème : Toute permutation de $\{1,\dots,n\}$ admet une décomposition (non unique en général) en produit de transpositions.
- Théorème : Il existe une et une seule application $\veps:S_n\to\{-1,1\}$ vérifiant les propriétés suivantes :
- si $\sigma,\sigma'\in\mathcal S_n$, alors $\veps(\sigma\sigma')=\veps(\sigma)\veps(\sigma')$.
- si $\tau$ est une transposition, $\veps(\tau)=-1$.
- Si $\sigma$ est un cycle de longueur $k$, alors $\veps(\sigma)=(-1)^{k-1}$.
- Une forme $n$-linéaire alternée sur $E$ est une application $f:E^n\to\mathbb K$ vérifiant :
- pour tout $i\in\{1,\dots,n\}$ et tous $u_1,\dots,u_n\in E$, l'application $u\in E\mapsto f(u_1,\dots,u_{i-1},u,u_{i+1},\dots,u_n)$ est linéaire;
- $f(u_1,\dots,u_n)=0$ dès que deux vecteurs parmi $u_1,\dots,u_n$ sont égaux.
- Si $\sigma\in S_n$ et si $f$ est une forme $n$-linéaire alternée sur $E$, alors pour tous $u_1,\dots,u_n\in E$, $$f(u_{\sigma(1)},\dots,u_{\sigma(n)})=\veps(\sigma)f(u_1,\dots,u_n).$$
- Proposition : Si $f$ est une forme $n$-linéaire alternée, alors pour toute famille liée $(u_1,\dots,u_n)$, on a $f(u_1,\dots,u_n)=0$.
- Théorème : Soit $\mathcal B=\{e_1,\dots,e_n\}$ une base de $E$. Il existe une et une seule forme $n$-linéaire alternée $f$ sur $E$ telle que $f(e_1,\dots,e_n)=1$. Cette forme $n$-linéaire est appelée déterminant dans la base $\mathcal B$ et est notée $\textrm{det}_{\mathcal B}$. De plus, si $f$ est une autre forme $n$-linéaire alternée sur $E$, alors il existe $\lambda\in\mathbb K$ telle que $f=\lambda\textrm{det}_{\mathcal B}$.
- Soit $(x_1,\dots,x_n)$ une famille de $n$ vecteurs de $E$. On suppose que les $x_j$ s'écrivent dans la base $\mathcal B=(e_1,\dots,e_n)$ sous la forme $x_j=\sum_{i=1}^n a_{i,j}e_i$. Alors $$\textrm{det}_{\mathcal B}(x_1,\dots,x_n)=\sum_{\sigma\in\mathcal S_n}\veps(\sigma)a_{\sigma(1),1}\cdots a_{\sigma(n),n}.$$
- Proposition : Si $\mathcal B_1$ et $\mathcal B_2$ sont deux bases de $E$, alors pour toute famille $(x_1,\dots,x_n)$ de $E$, on a $$\textrm{det}_{\mathcal B_2}(x_1,\dots,x_n)=\textrm{det}_{\mathcal B_2}(\mathcal B_1)\times\textrm{det}_{\mathcal B_1}(x_1,\dots,x_n).$$ En particulier, $(x_1,\dots,x_n)$ est une base de $E$ si et seulement si $\textrm{det}_{\mathcal B_1}(x_1,\dots,x_n)\neq 0$.
- Si $\mathcal B_1$ et $\mathcal B_2$ sont deux bases de $E$, on dit que $\mathcal B_2$ a la même orientation que $\mathcal B_1$ si $\textrm{det}_{\mathcal B_1}(\mathcal B_2)>0$. On définit ainsi une relation d'équivalence sur les bases de $E$, qui comporte deux classes d'équivalence. Orienter $E$, c'est choisir une de ces deux classes, dont les éléments seront appelés bases directes, tandis que les éléments de l'autre classe seront appelés bases rétrogrades.
Si $f,g\in\mathcal L(E)$, on a $\textrm{det}(f\circ g)=\textrm{det}(f)\textrm{det}(g)$.
$f\in\mathcal L(E)$ est un automorphisme si et seulement si $\textrm{det}(f)\neq 0$.
- Si $A\in\mathcal M_n(\mathbb K)$, on appelle déterminant de $A$ le déterminant des vecteurs colonnes dans la base canonique de $\mathbb K^n$ : $$\textrm{det}(A)=\sum_{\sigma\in\mathcal S_n}\veps(\sigma)a_{\sigma(1),1}\cdots a_{\sigma(n),n}.$$ Ceci est aussi égal au déterminant de l'endomorphisme associé à $A$ dans la base canonique de $\mathbb K^n$.
- Propriétés : Le déterminant vérifie les propriétés suivantes :
- $\textrm{det}(AB)=\textrm{det}(A)\textrm{det}(B)$;
- $A$ est inversible si et seulement si $\textrm{det}(A)\neq 0$. Dans ce cas, $\textrm{det}(A^{-1})=\big(\textrm{det}(A)\big)^{-1}$.
- $\textrm{det}(A^T)=\textrm{det}(A)$.
- $\textrm{det}(\lambda A)=\lambda^n \textrm{det}(A)$.
Effet des opérations élémentaires sur le déterminant :
- Ajouter à une ligne une combinaison linéaire des autres lignes ne change pas le déterminant;
- Échanger deux lignes multiplie le déterminant par $-1$;
- Multiplier une ligne par $\lambda$ multiplie le déterminant par $\lambda$.
- Les propriétés précédentes sont encore vérifiées en remplaçant partout "ligne(s)" par "colonne(s)".
Le déterminant d'une matrice triangulaire est égal au produit des coefficients diagonaux.
Si $A$ est triangulaire par blocs, ie si $A$ s'écrit $$A=\left( \begin{array}{c|c} B&D\\ \hline 0&C \end{array}\right),$$ alors $\textrm{det}(A)=\textrm{det}(B)\textrm{det}(C )$.
Si $A\in \mathcal M_n(\mathbb K)$ et si $i,j\in\{1,\dots,n\}$, on appelle mineur d'indices $i,j$ le déterminant obtenu à partir de $A$ en supprimant la $i$-ème ligne et la $j$-ième colonne. On le note $\Delta_{i,j}$.
Développement par rapport à la $i$-ème ligne : $$\textrm{det}(A)=\sum_{j=1}^n (-1)^{i+j}a_{i,j} \Delta_{i,j}.$$
Développement par rapport à la $j$-ème colonne : $$\textrm{det}(A)=\sum_{i=1}^n (-1)^{i+j}a_{i,j} \Delta_{i,j}.$$
- Si $\Delta_{i,j}$ est le mineur de $A$ d'indices $i,j$, le cofacteur de $A$ d'indices $i,j$ est le scalaire $(-1)^{i+j}\Delta_{i,j}$.
- On appelle comatrice de $A$ la matrice des cofacteurs de $A$, on la note $\textrm{comat}(A)$.
- On a $$A\big(\textrm{comat}(A)\big)^T=\big(\textrm{comat}(A)\big)^TA=\det(A)I_n.$$ En particulier, si $A$ est inversible, on a $$A^{-1}=\frac1{\det A}\big(\textrm{comat}(A)\big)^T.$$