$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : Matrices

$\mathbb K$ désigne le corps $\mathbb R$ ou $\mathbb C$, $m,n,p$ sont des entiers strictement positifs.
Les matrices
  • Une matrice à $n$ lignes et $p$ colonnes à coefficients dans $\mathbb K$ est un tableau à double entrée $$A=\left( \begin{array}{cccc} a_{1,1}&a_{1,2}&\dots&a_{1,p}\\ a_{2,1}&a_{2,2}&\dots&a_{2,p}\\ \vdots&\vdots&&\vdots\\ a_{n,1}&a_{n,2}&\dots&a_{n,p} \end{array} \right)$$ aussi noté $A=(a_{i,j})_{1\leq i\leq n,1\leq j\leq p}$ où les éléments $a_{i,j}$ appartiennent à $\mathbb K$.
  • On note $\mathcal M_{n,p}(\mathbb K)$ l'ensemble des matrices à $n$ lignes et $p$ colonnes. On définit la somme de deux matrices en ajoutant les coefficients termes à termes, et le produit d'une matrice par un scalaire $\lambda\in\mathbb K$ en multipliant chaque coefficient de la matrice par $\lambda$. Muni de ces deux opérations, $\mathcal M_{n,p}(\mathbb K)$ est un espace vectoriel.
  • La dimension de $\mathcal M_{n,p}(\mathbb K)$ est $np$. Une base de $\mathcal M_{n,p}(\mathbb K)$ est donnée par les matrices $(E_{i,j})_{1\leq i\leq n,1\leq j\leq p}$, où tous les coefficients de la matrice $E_{i,j}$ sont nuls sauf celui de la $i$-ème ligne et de la $j$-ème colonne qui vaut 1. Cette base s'appelle la base canonique de $\mathcal M_{n,p}(\mathbb K)$.
  • Si $n=p$, on dit que la matrice est carrée et on note simplement $\mathcal M_n(\mathbb K)$.
  • Si $A=(a_{i,j})\in \mathcal M_{m,n}(\mathbb K)$ et si $B=(b_{j,k})\in\mathcal M_{n,p}(\mathbb K)$, on appelle produit de $A$ et $B$ la matrice notée $AB=(c_{i,j})$ de $\mathcal M_{m,p}(\mathbb K)$ définie par $$c_{i,j}=\sum_{k=1}^n a_{i,k}b_{k,j}$$ pour tout $i\in\{1,\dots,m\}$ et tout $j\in \{1,\dots,p\}$. Remarquons que pour que le produit $AB$ soit défini, il faut que le nombre de colonnes de $A$ soit égal au nombre de lignes de $B$. De plus, même si $AB$ et $BA$ sont tous les deux définis, on n'a pas toujours $AB=BA$.
  • Une matrice $A=(a_{i,j})_{1\leq i,j\leq n}$ est diagonale si $a_{i,j}=0$ dès que $i\neq j$. Le produit de deux matrices diagonales est une matrice diagonale.
  • Une matrice $A=(a_{i,j})_{1\leq i,j\leq n}$ est triangulaire supérieure si $a_{i,j}=0$ dès que $i> j$. Le produit de deux matrices triangulaires supérieures est une matrice triangulaire supérieure.
  • Une matrice $A=(a_{i,j})_{1\leq i,j\leq n}$ est triangulaire inférieure si $a_{i,j}=0$ dès que $i< j$. Le produit de deux matrices triangulaires inférieures est une matrice triangulaire inférieure.
  • Muni du produit matriciel et de l'addition de matrices, $\mathcal M_n(\mathbb K)$ est un anneau. Son élément neutre est la matrice identité $I_n$, qui est la matrice diagonale n'ayant que des 1 sur sa diagonale.
  • Si $A,B\in\mathcal M_n(\mathbb K)$ sont telles que $AB=BA$, alors $$(A+B)^n =\sum_{k=0}^n \binom nk A^k B^{n-k}.$$
  • On a $E_{i,j}E_{k,l}=\delta_{j,k}E_{i,l}$.
  • Une matrice $M\in\mathcal M_n(\mathbb K)$ est dite inversible s'il existe $M'\in\mathcal M_n(\mathbb K)$ telle que $$MM'=M'M=I_n.$$ $M'$ s'appelle l'inverse de $M$ et est noté $M^{-1}$.
  • L'ensemble des matrices inversibles de taille $n$ est noté $GL_n(\mathbb K)$. C'est un groupe pour le produit matriciel appelé le groupe linéaire.
  • En particulier, si $A$ et $B$ sont inversibles, alors $AB$ est inversible d'inverse $B^{-1}A^{-1}$.
  • Si $A=(a_{i,j})\in\mathcal M_{n,p}(\mathbb K)$, on appelle transposée de $A$ la matrice $A^T=(b_{i,j})\in\mathcal M_{p,n}(\mathbb K)$ définie par $$b_{i,j}=a_{j,i}.$$ On a les formules : $$(A+B)^T=A^T+B^T$$ $$(AB)^T=B^TA^T.$$
  • Produit par blocs : Soient $M,M'$ deux matrices s'écrivant $$M=\left(\begin{array}{cc} A&B\\ C&D \end{array}\right),\quad \quad M'=\left(\begin{array}{cc} A'&B'\\ C'&D' \end{array}\right).$$ Alors, sous réserve de compatibilité des dimensions : $$MM'=\left(\begin{array}{cc} AA'+BC'&AB'+BD'\\ CA'+DC'&CB'+DD' \end{array}\right).$$
Matrices et applications linéaires

$E$, $F$ et $G$ désignent des espaces vectoriels de dimensions respectives $p,n,m$, dont $\mathcal B=(e_i)_{1\leq i\leq p}$, $\mathcal C=(f_i)_{1\leq i\leq n}$ et $\mathcal D=(g_i)_{1\leq i\leq m}$ sont des bases respectives.

Soit $x\in E$. La matrice du vecteur $x$ dans la base $\mathcal B$ est la matrice colonne $X\in\mathcal M_{p,1}(\mathbb R)$ constituée par les coordonnées de $x$ dans la base $\mathcal B$ : si $x=a_1e_1+\cdots+a_pe_p$, alors $$X=\begin{pmatrix}a_1\\a_2\\ \vdots \\ a_p\end{pmatrix}.$$

Soit $(x_1,\dots,x_r)\in E^r$ une famille de vecteurs de $E$. La matrice de la famille $(x_1,\dots,x_r)$ dans la base $\mathcal B$ est la matrice de $\mathcal M_{p,r}(\mathbb K)$ dont la $j$-ème colonne est constituée par les coordonnée de $x_j$ dans la base $\mathcal B$.

Soit $u\in \mathcal L(E,F)$. La matrice de $u$ dans les bases $\mathcal B$ et $\mathcal C$ est la matrice de $\mathcal M_{n,p}(\mathbb K)$ dont les vecteurs colonnes sont les coordonnées des vecteurs $(u(e_1),\dots,u(e_p))$ dans la base $\mathcal C=(f_1,\dots,f_n)$. On la note $\textrm{Mat}_{(\mathcal B,\mathcal C)}(u)$.

L'introduction de la matrice d'une application linéaire permet de connaitre facilement l'image d'un vecteur par cette application linéaire :

Proposition : Soit $x\in E$ de matrice $X$ dans la base $\mathcal B$ et $y=u(x)$ de matrice $Y$ dans la base $\mathcal C$. Alors on a $$Y=\textrm{Mat}_{(\mathcal B,\mathcal C)}(u)X.$$
Théorème : L'application \begin{eqnarray*} \mathcal L(E,F)&\to &\mathcal M_{n,p}(\mathbb K)\\ u&\mapsto&\textrm{Mat}_{(\mathcal B,\mathcal C)}(u) \end{eqnarray*} est un isomorphisme d'espace vectoriel.
Théorème : La composée d'applications linéaires correspond au produit de matrices. Plus précisément, si $u\in \mathcal L(E,F)$ et $v\in\mathcal L(F,G)$, alors $$\textrm{Mat}_{(\mathcal B,\mathcal D)}(v\circ u)=\textrm{Mat}_{(\mathcal C,\mathcal D)}(v) \textrm{Mat}_{(\mathcal B,\mathcal C)}(u).$$ En particulier, l'application \begin{eqnarray*} \mathcal L(E)&\to &\mathcal M_{p,p}(\mathbb K)\\ u&\mapsto&\textrm{Mat}_{(\mathcal B,\mathcal B)}(u) \end{eqnarray*} est un isomorphisme d'anneaux.
Théorème : Si $E$ et $F$ ont même dimension, alors $u$ est inversible si et seulement si $\textrm{Mat}_{(\mathcal B,\mathcal C)}(u)$ est inversible. Dans ce cas, on a $$\textrm{Mat}_{(\mathcal C,\mathcal B)}(u^{-1})=\big[\textrm{Mat}_{(\mathcal B,\mathcal C)}(u)\big]^{-1}.$$

Si $A\in\mathcal M_{n,p}(\mathbb K)$, alors $A$ induit une application linéaire $u_A:\mathbb K^p \to\mathbb K^n$ définie par $u_A(X)=AX$ où on identifie un vecteur de $\mathbb K^p$ (resp. $\mathbb K^n$) et le vecteur colonne formé des coordonnées de ce vecteur dans la base canonique. Le noyau, l'image, et le rang de $A$ sont alors par définition le noyau, l'image et le rang de l'endomorphisme associé. Le rang de $A$ est aussi le rang des vecteurs colonnes qui la compose.

Changements de base

$E,F$ sont des espaces vectoriels de dimension finie.

Soit $\mathcal B_1$ et $\mathcal B_2$ deux bases de $E$. La matrice de passage de la base $\mathcal B_1$ à la base $\mathcal B_2$ est la matrice de la famille de vecteurs $\mathcal B_2$ dans la base $\mathcal B_1$. On la note $P_{\mathcal B_1\to \mathcal B_2}$.

En interprétant $P_{\mathcal B_1\to\mathcal B_2}$ comme $\textrm{Mat}_{(\mathcal B_2,\mathcal B_1)}(\textrm{id}_E)$, on démontre les faits importants suivants :

  • La matrice $P_{\mathcal B_1\to \mathcal B_2}$ est inversible, d'inverse $P_{\mathcal B_2\to \mathcal B_1}$.
  • Si $x\in E$ a pour coordonnées $X_1$ dans la base $\mathcal B_1$ et pour coordonnées $X_2$ dans la base $\mathcal B_2$, alors $$X_1=P_{\mathcal B_1\to \mathcal B_2}X_2.$$
Formule de changement de base pour les applications linéaires : Soit $u\in\mathcal L(E,F)$, $\mathcal B,\ \mathcal B'$ deux bases de $E$, $\mathcal C,\ \mathcal C'$ deux bases de $F$. Alors, si l'on note $A=\textrm{Mat}_{(\mathcal B,\mathcal C)}(u)$, $B=\textrm{Mat}_{(\mathcal B',\mathcal C')}(u)$, $P=P_{\mathcal B\to \mathcal B'}$, $Q=P_{\mathcal C\to \mathcal C'}$, on a $$B=Q^{-1}AP.$$ En particulier, si $u$ est un endomorphisme, si $A=\textrm{Mat}_{(\mathcal B,\mathcal B)}(u)$, $B=\textrm{Mat}_{(\mathcal B',\mathcal B')}(u)$, $P=P_{\mathcal B\to \mathcal B'}$, alors $$B=P^{-1}AP.$$
Équivalence et similitude

Deux matrices $M$ et $M'$ de $\mathcal M_{n,p}(\mathbb K)$ sont dites équivalentes si elles représentent la même application linéaire dans des bases différentes. Autrement dit, $M$ et $M'$ sont équivalentes si et seulement s'il existe $P\in GL_p(\mathbb K)$ et $Q\in GL_n(\mathbb K)$ telles que $$M'=Q^{-1}MP.$$

Théorème (caractérisation des matrices équivalentes) : Deux matrices sont équivalentes si et seulement si elles ont le même rang. De plus, si $M\in\mathcal M_{n,p}(\mathbb K)$ a pour rang $r$, $M$ est équivalente à la matrice $J_r\in\mathcal M_{n,p}(\mathbb K)$ dont tous les coefficients sont nuls, sauf les $r$ premiers de la diagonale qui valent 1.

En particulier, si $u\in\mathcal L(E,F)$ est de rang $r$, il existe une base $\mathcal B$ de $E$ et une base $\mathcal C$ de $F$ telle que $\textrm{Mat}_{(\mathcal B,\mathcal C)}(u)=J_r$.

Corollaire : Soit $M\in \mathcal M_{n,p}(\mathbb K)$. Alors $M$ et $M^T$ ont le même rang.
Théorème (caractérisation du rang) : Une matrice $A\in\mathcal M_{n,p}(\mathbb K)$ est de rang $r$ si et seulement si :
  1. Il existe une matrice carrée d'ordre $r$ extraite de $A$ qui est inversible;
  2. Toute matrice carrée extraite de $A$ d'ordre $r+1$ n'est pas inversible.

Deux matrices $M,M'\in\mathcal M_n(\mathbb K)$ sont dites semblables s'il existe $P\in GL_n(\mathbb K)$ tel que $M'=P^{-1}MP$. Autrement dit, $M$ et $M'$ représentent le même endomorphisme dans des bases différentes.

Trace d'une matrice

Si $A\in\mathcal M_n(\mathbb K)$, on appelle trace de $A$, notée $\textrm{Tr}(A)$, la somme des coefficients diagonaux de $A$. La trace est une forme linéaire sur $\mathcal M_n(\mathbb K)$.

Proposition : Soit $A,B\in\mathcal M_n(\mathbb K)$. Alors
  • $\textrm{Tr}(AB)=\textrm{Tr}(BA)$.
  • Si $A$ et $B$ sont semblables, alors $\textrm{Tr}(A)=\textrm{Tr}(B)$.

Si $u\in\mathcal L(E)$, alors on appelle trace de $u$ la trace de la matrice représentant $u$ dans n'importe quelle base de $E$.

Proposition : Soit $u,v\in\mathcal L(E)$.
  • $\textrm{Tr}(uv)=\textrm{Tr}(vu)$.
  • La trace d'un projecteur est égale à son rang.
Opérations, systèmes linéaires
  • On appelle opération élémentaire sur les lignes d'une matrice l'une des trois opérations suivantes :
    1. permuter deux lignes $L_i$ et $L_j$;
    2. multiplier une ligne $L_i$ par un scalaire $\lambda$ non nul;
    3. ajouter un multiple d'une ligne $L_j$ à une autre ligne $L_i$.
    On définit de même des opérations élémentaires sur les colonnes.
  • Les opérations élémentaires sur les lignes correspondent à la multiplication à gauche par une matrice inversible. Les opérations élémentaires sur les colonnes correspondent à la multiplication à droite par une matrice inversible.
  • Les opérations élémentaires transforment une matrice en une matrice équivalente. En particulier, elles conservent le rang. Ainsi, pour calculer le rang d'une matrice, on effectue une suite de transformations élémentaires l'amenant à une matrice du type $J_r$.
  • Soit $A\in\mathcal GL_n(\mathbb K)$. Il existe une suite d'opérations élémentaires sur les lignes de $A$ transformant $A$ en $I_n$. Les mêmes opérations élémentaires effectuées sur les lignes de $I_n$ transforment $I_n$ en $A^{-1}$.
  • Un système linéaire à $n$ équations et $p$ inconnues s'écrit matriciellement $AX=B$, avec $A\in\mathcal M_{n,p}(\mathbb K)$, $X=\left(\begin{array}c x_1\\\vdots\\x_p\end{array}\right)$ et $B$ la matrice du second membre.
  • Si $B=0$, l'ensemble des solutions est un sous-espace vectoriel de $\mathbb K^p$ de dimension $p-\textrm{rg}(A)$. Dans le cas général, l'ensemble des solutions est ou bien vide, ou bien un sous-espace affine de $\mathbb K^p$ de dimension $p-\textrm{rg}(A)$.
  • Si $n=p$, on dit que le système est carré. L'équation $AX=B$ admet alors une solution unique si et seulement $A$ est inversible. Dans ce cas, la solution est $X=A^{-1}B$.