$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : Variables aléatoires finies

Dans toute la suite, $\Omega$ est un univers fini muni d'une probabilité $P$.
Variables aléatoires
  • On appelle variable aléatoire toute application $X$ définie sur $\Omega$ à valeurs dans un ensemble $E$. La variable aléatoire est dite réelle lorsque $E$ est une partie de $\mathbb R$.
  • On définit alors une probabilité $P_X$ sur $E$ par : $$\forall A\subset E,\ P_X(A)=P(X\in A)=P(X^{-1}(A))=P(\{\omega\in \Omega;\ X(\omega)\in A\}).$$ $P_X$ s'appelle la loi de $X$. La variable aléatoire ne prenant qu'un nombre fini de valeurs, elle est entièrement déterminée par la donnée des $P(X=x)$ pour $x\in X(\Omega)$.
  • Si $f:E\to F$, l'application $Y=f\circ X:\Omega\to F$ est une variable aléatoire appelée image de $X$ par $f$. La loi image est alors la loi de $Y$.
Couple de variables aléatoires finies
  • Soient $X:\Omega\to E$ et $Y:\Omega\to F$ deux variables aléatoires (finies). Alors $(X,Y):\Omega\to\mathbb E\times F,\ \omega\mapsto \big(X(\omega),Y(\omega)\big)$ est une variable aléatoire sur $\mathbb R^2$. On appelle loi conjointe de $(X,Y)$ la loi du couple $(X,Y)$. Les lois marginales du couple $(X,Y)$ sont alors les lois de $X$ et les lois de $Y$.
  • Si $X(\Omega)=\{x_1,\dots,x_n\}$ et $Y(\Omega)=\{y_1,\dots,y_m\}$, déterminer la loi conjointe du couple $(X,Y)$, c'est donc déterminer toutes les valeurs de $P\big( (X=x_i)\cap (Y=y_j)\big)$.
  • On peut toujours retrouver les lois marginales à l'aide de la loi conjointe, par la formule des probabilités totales. En effet, $$P(X=x_i)=\sum_{j=1}^m P\big( (X=x_i)\cap (Y=y_j)\big).$$ En revanche, connaitre les lois marginales ne suffit par pour définir la loi conjointe.
  • Si $A$ est un événement de probabilité non-nulle, on appelle loi conditionnelle de $X$ sachant $A$ la probabilité $P_X(\cdot|A)$ définie sur $E$ par $P_X(\{x\}|A)=P(X=x|A)$. En particulier, si $P(Y=y)\neq 0$, on appelle loi conditionnelle de $X$ sachant $(Y=y)$ la probabilité sur $E$ définie par $$P_X\big(\{x\}|(Y=y)\big)=\frac{P\big ( (X=x)\cap(Y=y)\big)}{P(Y=y)}.$$
Indépendance de variables aléatoires
  • On dit que deux variables aléatoires $X$ et $Y$ sont indépendantes si, pour tout couple $(x,y)$ de $X(\Omega)\times Y(\Omega)$, on a $$P\big ( (X,Y)=(x,y)\big)=P(X=x)P(Y=y).$$ Ceci entraîne que, pour tout $A\subset X(\Omega)$ et tout $B\subset Y(\Omega)$, on a $$P\big( (X,Y)\in A\times B\big)=P(X\in A)P(Y\in B).$$
  • Plus généralement, si $X_1,\dots,X_n$ sont $n$ variables aléatoires définies sur $\Omega$, on dit qu'elles sont mutuellement indépendantes si, pour tout $(x_1,\dots,x_n)\in \prod_{i=1}^n X_i(\Omega)$, on a $$P\big( (X_1,\dots,X_n)=(x_1,\dots,x_n)\big) = \prod_{i=1}^n P(X_i=x_i).$$ Si $X_1,\dots,X_n$ sont mutuellement indépendantes, alors quelque soit $(A_1,\dots,A_n)\in\prod_{i=1}^n\mathcal P(X_i(\Omega))$, les événements $X_i\in A_i$ sont mutuellement indépendants.
Espérance, variance, covariance
  • Si $X$ est une variable aléatoire réelle prenant les valeurs $x_1,\dots,x_n$, on appelle espérance de $X$ le réel $$E(X)=\sum_{i=1}^n x_i P(X=x_i).$$ On dit que $X$ est centrée si l'espérance de $X$ est nulle.
  • L'espérance vérifie les propriétés suivantes :
    • elle est linéaire : $E(aX+Y)=aE(X)+E(Y)$;
    • elle est positive : si $X\geq 0$, alors $E(X)\geq 0$;
    • elle est croissante : si $X\leq Y$, alors $E(X)\leq E(Y)$;
  • Formule de transfert : Si $X$ est une variable aléatoire définie sur $\Omega$ et à valeurs dans $E$ et si $f:E\to\mathbb R$, alors $$E(f(X))=\sum_{x\in X(\Omega)}P(X=x)f(x).$$
    En particulier, il suffit de connaitre la loi de $X$ pour connaitre l'espérance de $f(X)$ (on n'a pas besoin de la loi de $f(X)$).
  • Si $X$ et $Y$ sont indépendantes, alors $E(XY)=E(X)E(Y)$. La réciproque est fausse en général.
  • Inégalité de Markov : Soit $X$ une variable aléatoire réelle et soit $t>0$. Alors $$P(|X|\geq t)\leq \frac{|E(X)|}t.$$
  • On appelle moment d'ordre $k$ de la variable aléatoire réelle $X$ l'espérance de $X^k$. On appelle variance de $X$ la quantité $$V(X)=E\bigg(\big (X-E(X)\big)^2\bigg)$$ et écart-type de $X$ la quantité $\sigma(X)=\sqrt{V(X)}$. On dit que $X$ est réduite si sa variance vaut $1$.
  • La variance vérifie les relations suivantes : $$V(X)=E(X^2)-\big(E(X)\big)^2;$$ $$V(aX+b)=a^2 V(X).$$ En particulier, si $X$ n'est pas de variance nulle, alors la variable aléatoire $\frac{X-E(X)}{\sigma(X)}$ est centrée réduite.
  • Inégalité de Bienaymé-Tchebychev : Soit $X$ une variable aléatoire réelle et soit $\veps>0$. Alors $$P(|X-E(X)|\geq \veps)\leq \frac{V(X)}{\veps^2}.$$
  • On appelle covariance des deux variables aléatoires réelles la quantité $$Cov(X,Y)=E(XY)-E(X)E(Y).$$
  • Variance d'une somme : On a $$V(X+Y)=V(X)+V(Y)+2Cov(X,Y).$$ En particulier, si $X$ et $Y$ sont indépendantes, $$V(X+Y)=V(X)+V(Y).$$ Plus généralement, si $X_1,\dots,X_n$ sont $n$ variables aléatoires réelles, alors $$V(X_1+\dots+X_n)=V(X_1)+\dots+V(X_n)+2\sum_{i<j}Cov(X_i,X_j).$$ Si les variables sont deux à deux indépendantes, alors $$V(X_1+\dots+X_n)=V(X_1)+\dots+V(X_n).$$
Lois discrètes finies usuelles
  • On dit qu'une variable aléatoire $X$ suit une loi de Bernoulli de paramètre $p\in [0,1]$, que l'on note $\mathcal B( p)$, lorsque $X$ est à valeurs dans $\{0,1\}$ avec $P(X=0)=1-p$ et $P(X=1)=p$. On a alors $$E(X)=p,\ V(X)=p(1-p).$$
  • On dit qu'une variable aléatoire $X$ suit une loi binomiale de paramètres $n\in\mathbb N^*$ et $p\in [0,1]$, que l'on note $\mathcal B( n,p)$, lorsque $X$ est à valeurs dans $\{0,\dots,n\}$ avec, pour tout $k\in\{0,\dots,n\}$, $$P(X=k)=\binom nk p^k(1-p)^{n-k}.$$ On a alors $$E(X)=np,\ V(X)=np(1-p).$$
  • Proposition : Si $X_1,\dots,X_n$ sont $n$ variables aléatoires indépendantes définies sur le même univers $\Omega$ suivant toutes une loi de Bernoulli $\mathcal B( p)$, alors $X_1+\dots+X_n$ suit une loi binomiale $\mathcal B(n,p)$.
  • On dit que $X$ suit une loi uniforme sur un ensemble fini $E$ lorsque $X$ prend toutes ses valeurs dans $E$ et que, pour chaque $x\in E$, $$P(X=x)=\frac{1}{\card(E)}.$$