$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : variables aléatoires discrètes

$(\Omega,\mathcal T,P)$ est un espace de probabilité et $E$ un ensemble.
Variables aléatoires discrètes
  • On appelle variable aléatoire discrète une application $X$ de $\Omega$ dans $E$ telle que $X(\Omega)$ est fini ou dénombrable et, pour tout $x\in E$, $X^{-1}(\{x\})\in \mathcal T$. On dit que $X$ est une variable aléatoire discrète réelle si $E=\mathbb R$.
  • Soit $X$ une variable aléatoire discrète et notons $X(\Omega)=\{x_n;\ n\in I\}$ où $I$ est fini ou dénombrable. La loi de probabilité de $X$ est la suite $(p_n)_{n\in I}$, où pour tout $n\in I$, $p_n=P(X=x_n)$.
  • Soit $(\Omega_1,\mathcal T_1,P_1)$ et $(\Omega_2,\mathcal T_2,P_2)$ deux espaces de probabilité. Soit $X$ (resp. $Y$) une variable aléatoire discrète définie sur $\Omega_1$ (resp. $\Omega_2$). On dit que $X$ et $Y$ ont même loi si $X(\Omega_1)=Y(\Omega_2)$ et si, pour tout $x\in X(\Omega_1)$, $P_1(X=x)=P_2(Y=x)$. On note $X\sim Y$.
Couple de variables aléatoires - indépendance
  • On appelle couple de variables aléatoires discrètes un couple $(X,Y)$ où $X$ et $Y$ sont deux variables aléatoires discrètes. La loi conjointe du couple $(X,Y)$ est la loi de $(X,Y)$ vue comme variable aléatoire. Autrement dit, la loi conjointe est la donnée de toutes les valeurs de $P(X=x,Y=y)$ pour $(x,y)\in X(\Omega)\times Y(\Omega)$. Les lois de $X$ et de $Y$ sont les lois marginales de $X$ et de $Y$.
  • Soit $x$ un élément de $X(\Omega)$ tel que $P(X=x)>0$. On appelle loi conditionnelle de $Y$ sachant que $(X=x)$ la probabilité $P_x$ définie sur $Y(\Omega)$ par $$\forall y\in Y(\Omega), P_x(\{y\})=P(Y=y|X=x)=\frac{P(X=x,Y=y)}{P(X=x)}.$$
  • Ces définitions se généralisent à des $n$-uplets de variables aléatoires discrètes. Si $X_1,\dots,X_n$ sont $n$ variables aléatoires discrètes, $(X_1,\dots,X_n)$ s'appelle un vecteur aléatoire discret.
  • Deux variables aléatoires discrètes $X$ et $Y$ sont dites indépendantes si, pour tout $x\in X(\Omega)$ et tout $y\in Y(\Omega)$, on a $$P(X=x,Y=y)=P(X=x)P(Y=y).$$
  • Proposition : Deux variables aléatoires discrètes $X$ et $Y$ sont indépendantes si et seulement si, pour tout $A\subset X(\Omega)$ et tout $B\subset Y(\Omega)$, on a $$P(X\in A,Y\in B)=P(X\in A)P(Y\in B).$$
  • Soit $(X_n)_{n\in I}$ une famille de variables aléatoires, où $I$ est fini ou dénombrable. On dit que les variables aléatoires $(X_n)_{n\in I}$ sont mutuellement indépendantes lorsque, pour toute partie finie $J=\{i_1,\dots,i_p\}\subset I$, pour tout $(x_{i_1},\dots,x_{i_p})\in X_{i_1}(\Omega)\times\dots\times X_{i_p}(\Omega)$, on a $$P(X_{i_1}=x_{i_1},\dots,X_{i_p}=x_{i_p})=P(X_{i_1}=x_{i_1})\cdots P(X_{i_p}=x_{i_p}).$$
  • Proposition : Si $X_1,X_2,\dots,X_n$ sont des variables aléatoires mutuellement indépendantes, alors pour tout $m$ compris entre 1 et $n-1$, et pour toutes fonctions $f$ et $g$, les variables $f(X_1,\cdots,X_m)$ et $g(X_{m+1},\cdots,X_n)$ sont indépendantes.
Espérance, variance et covariance
Dans cette partie, $X$ et $Y$ désignent deux variables aléatoires discrètes réelles. On note $X(\Omega)=\{x_n;\ n\in I\}$ et $Y(\Omega)=\{y_n;\ n\in J\}$.
  • On dit que $X$ est d'espérance finie si la famille $(x_n P(X=x_n))$ est sommable. Si c'est le cas, on appelle espérance de $X$ la somme de cette famille : $$E(X)=\sum_{n\in I}x_n P(X=x_n).$$
  • Proposition :
    • L'espérance est linéaire : si $X$ et $Y$ sont d'espérance finie, $X+Y$ est d'espérance finie et $E(X+Y)=E(X)+E(Y)$.
    • L'espérance est positive : si $X\geq 0$ est d'espérance finie, alors $E(X)\geq 0$. En particulier, si $X\leq Y$ et $X$ et $Y$ sont d'espérance finie, alors $E(X)\leq E(Y)$.
    • Si $|Y|\leq X$ et $X$ est d'espérance finie, alors $Y$ est d'espérance finie.
  • Théorème (espérance du produit de deux variables aléatoires indépendantes) : Si $X$ et $Y$ sont indépendantes et admettent une espérance, alors $XY$ admet une espérance et $E(XY)=E(X)E(Y)$.
  • Théorème de transfert : Soit $f$ une fonction définie sur $X(\Omega)$ à valeurs dans $\mathbb R$. Alors $f(X)$ est d'espérance finie si et seulement si la famille $(P(X=x_n)f(x_n))_{n\in I}$ est sommable. Dans ce cas, $$E(f(X))=\sum_{n\in I}f(x_n)P(X=x_n).$$
  • Soit $p\in\mathbb N^*$. On dit que $X$ admet un moment d'ordre $p$ si $X^p$ est d'espérance finie. Dans ce cas, $E(X^p)$ s'appelle le moment d'ordre $p$ de $X$.
  • Proposition : Soit $p,q\in\mathbb N^*$ avec $p\leq q$. Si $X$ admet un moment d'ordre $q$, alors $X$ admet un moment d'ordre $p$.
  • Inégalité de Cauchy-Schwarz : Si $X$ et $Y$ admettent des moments d'ordre $2$, alors $XY$ est d'espérance finie et $$\big(E(XY)\big)^2\leq E(X^2)E(Y^2).$$
  • Lorsque $X^2$ est d'espérance finie, on appelle variance de $X$ le réel $$V(X)=E\big( (X-E(X))^2\big)=E(X^2)-\big(E(X)\big)^2$$ et écart-type de $X$ le réel $\sigma(X)=\sqrt{V(X)}$.
  • On a $V(aX+b)=a^2V(X)$.
  • Théorème (variance d'une somme de variables aléatoires) : Soit $X_1,\dots,X_n$ des variables aléatoires discrètes finies admettant des moments d'ordre $2$. Alors $$V\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^n V(X_i)+2\sum_{1\leq i<j\leq n}\big(E(X_iX_j)-E(X_i)E(X_j)\big).$$ En particulier, si les $X_I$ sont deux à deux indépendantes, alors $$V\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^n V(X_i).$$
  • Si $X$ et $Y$ admettent un moment d'ordre $2$, on appelle covariance de $X$ et de $Y$ le réel $$\textrm{Cov}(X,Y)=E\big((X-E(X))(Y-E(Y)\big)=E(XY)-E(X)E(Y).$$ Le coefficient de corrélation linéaire est $$\rho(X,Y)=\frac{\textrm{Cov}(X,Y)}{\sigma(X)\sigma(Y)}.$$
Loi discrètes usuelles
  • On dit qu'une variable aléatoire $X$ suit une loi binomiale de paramètres $n\in\mathbb N^*$ et $p\in [0,1]$, que l'on note $\mathcal B( n,p)$, lorsque $X$ est à valeurs dans $\{0,\dots,n\}$ avec, pour tout $k\in\{0,\dots,n\}$, $$P(X=k)=\binom nk p^k(1-p)^{n-k}.$$ On a alors $$E(X)=np,\ V(X)=np(1-p).$$
  • Proposition : Si $X_1,\dots,X_n$ sont $n$ variables aléatoires indépendantes définies sur le même univers $\Omega$ suivant toutes une loi de Bernoulli $\mathcal B( p)$, alors $X_1+\dots+X_n$ suit une loi binomiale $\mathcal B(n,p)$.
  • Soit $p\in ]0,1[$. On dit que la variable aléatoire $X$ suit une loi géométrique de paramètre $p$ si elle est à valeurs dans $\mathbb N^*$ et si, pour tout $n\geq 1$, $$P(X=n)=p(1-p)^{n-1}.$$ On a alors $$E(X)=\frac 1p\textrm{ et }V(X)=\frac{1-p}{p^2}.$$
  • Proposition : Si $(X_n)$ est une suite de variables aléatoires de Bernoulli indépendantes de même paramètre $p$, et si $X$ est la variable aléatoire qui donne le rang du premier succès dans cette succession d'épreuves, alors $X$ suit une loi géométrique de paramètre $p$.
  • Théorème (caractérisation comme loi sans mémoire) : Soit $X$ une variable aléatoire à valeurs dans $\mathbb N$. $X$ est sans mémoire, c'est-à-dire que pour tout $n,k\in\mathbb N^2$, $$P(X>n+k|X>n)=P(X>k)$$ si et seulement si $X$ suit une loi géométrique.
  • Soit $\lambda>0$. On dit que $X$ suit une loi de Poisson de paramètre $\lambda$ si elle est à valeurs dans $\mathbb N$ et si, pour tout $n\in \mathbb N$, $$P(X=n)=\frac{e^{-\lambda}\lambda^n}{n!}.$$ On a alors $E(X)=\lambda$ et $V(X)=\lambda$.
Estimation
  • Inégalité de Markov : Soit $X$ une variable aléatoire discrète réelle admettant une espérance et soit $t>0$. Alors $$P(|X|\geq t)\leq\frac{E(|X|)}{t}.$$
  • Inégalité de Bienaymé-Tchebychev : Soit $X$ une variable aléatoire discrète réelle telle que $X^2$ soit d'espérance finie. Alors, pour tout $\veps>0$, $$P(|X-E(X)|\geq \veps)\leq \frac{V(X)}{\veps^2}.$$
  • Loi faible des grands nombres : Soit $(X_n)_{n\geq 1}$ une suite de variables aléatoires discrètes réelles deux à deux indépendantes, de même loi, et admettant un moment d'ordre 2. Alors, si $m=E(X_1)$, on a $$P\left(\left|\frac{S_n}n-m\right|\geq\veps\right)\xrightarrow{n\to+\infty}0.$$
  • Approximation de la loi binomiale par la loi de Poisson : Soit $(X_n)$ une suite de variables aléatoires telle que, pour tout $n$, $X_n$ suit une loi binomiale de paramètres $(n,p_n)$. Si la suite $(np_n)$ converge vers $\lambda>0$, alors, pour tout $k\in\mathbb N$, $$P(X_n=k)\xrightarrow{n\to+\infty}\frac{e^{-\lambda}\lambda^k}{k!}.$$
Fonction génératrice
  • Soit $X$ une variable aléatoire à valeurs dans $\mathbb N$. On appelle fonction génératrice de $X$ la série entière suivante : $$G_X(t)=\sum_{n=0}^{+\infty}P(X=n)t^n.$$
  • Le rayon de convergence de la série entière précédente est supérieur ou égal à $1$. $G_X$ définit donc une fonction de classe $\mathcal C^\infty$ sur $]-1,1[$. Elle est en fait continue sur l'intervalle fermé $[-1,1]$.

  • Exemples :
    • Si $X$ suit une loi de Bernoulli de paramètre $p$, alors $$G_X(t)=(1-p)+pt.$$
    • Si $X$ suit une loi binomiale de paramètres $n,p$, alors $$G_X(t)=\big((1-p)+pt)^n.$$
    • Si $X$ suit une loi géométrique de paramètre $p\in ]0,1[$, alors $$G_X(t)=\frac{pt}{1-(1-p)t}.$$
    • Si $X$ suit une loi de Poisson de paramètre $\lambda>0$, alors $$G_X(t)=e^{-\lambda}e^{\lambda t}.$$
  • La fonction génératrice caractérise la loi d'une variable aléatoire :
    Théorème : Si $X$ et $Y$ sont deux variables aléatoires à valeurs dans $\mathbb N$ telles que, pour tout $t\in ]-1,1[$, $G_X(t)=G_Y(t)$, alors $X$ et $Y$ ont la même loi.
  • La fonction génératrice permet également de retrouver la loi de la somme de deux variables aléatoires indépendantes :
    Théorème : Si $X$ et $Y$ sont deux variables aléatoires à valeurs dans $\mathbb N$ indépendantes, alors, pour tout $t\in ]-1,1[$, $G_{X+Y}(t)=G_X(t)G_Y(t)$.
  • La fonction génératrice permet de retrouver les moments d'une variable aléatoire :
    Théorème : Soit $X$ une variable aléatoire à valeurs dans $\mathbb N$. Alors
    • $X$ admet une espérance si et seulement si $G_X$ est dérivable en $1$. Dans ce cas, $G_X'(1)=E(X)$;
    • $X$ admet une variance si et seulement si $G_X$ est deux fois dérivable en $1$. Dans ce cas, $V(X)=G_X''(1)+G_X'(1)-\big(G_X'(1)\big)^2.$