Résumé de cours : variables aléatoires discrètes
$(\Omega,\mathcal T,P)$ est un espace de probabilité et $E$ un ensemble.Variables aléatoires discrètes
- On appelle variable aléatoire discrète une application $X$ de $\Omega$ dans $E$ telle que $X(\Omega)$ est fini ou dénombrable et, pour tout $x\in E$, $X^{-1}(\{x\})\in \mathcal T$. On dit que $X$ est une variable aléatoire discrète réelle si $E=\mathbb R$.
- Soit $X$ une variable aléatoire discrète et notons $X(\Omega)=\{x_n;\ n\in I\}$ où $I$ est fini ou dénombrable. La loi de probabilité de $X$ est la suite $(p_n)_{n\in I}$, où pour tout $n\in I$, $p_n=P(X=x_n)$.
- Soit $(\Omega_1,\mathcal T_1,P_1)$ et $(\Omega_2,\mathcal T_2,P_2)$ deux espaces de probabilité. Soit $X$ (resp. $Y$) une variable aléatoire discrète définie sur $\Omega_1$ (resp. $\Omega_2$). On dit que $X$ et $Y$ ont même loi si $X(\Omega_1)=Y(\Omega_2)$ et si, pour tout $x\in X(\Omega_1)$, $P_1(X=x)=P_2(Y=x)$. On note $X\sim Y$.
Couple de variables aléatoires - indépendance
- On appelle couple de variables aléatoires discrètes un couple $(X,Y)$ où $X$ et $Y$ sont deux variables aléatoires discrètes. La loi conjointe du couple $(X,Y)$ est la loi de $(X,Y)$ vue comme variable aléatoire. Autrement dit, la loi conjointe est la donnée de toutes les valeurs de $P(X=x,Y=y)$ pour $(x,y)\in X(\Omega)\times Y(\Omega)$. Les lois de $X$ et de $Y$ sont les lois marginales de $X$ et de $Y$.
- Soit $x$ un élément de $X(\Omega)$ tel que $P(X=x)>0$. On appelle loi conditionnelle de $Y$ sachant que $(X=x)$ la probabilité $P_x$ définie sur $Y(\Omega)$ par $$\forall y\in Y(\Omega), P_x(\{y\})=P(Y=y|X=x)=\frac{P(X=x,Y=y)}{P(X=x)}.$$
- Ces définitions se généralisent à des $n$-uplets de variables aléatoires discrètes. Si $X_1,\dots,X_n$ sont $n$ variables aléatoires discrètes, $(X_1,\dots,X_n)$ s'appelle un vecteur aléatoire discret.
- Deux variables aléatoires discrètes $X$ et $Y$ sont dites indépendantes si, pour tout $x\in X(\Omega)$ et tout $y\in Y(\Omega)$, on a $$P(X=x,Y=y)=P(X=x)P(Y=y).$$
- Proposition : Deux variables aléatoires discrètes $X$ et $Y$ sont indépendantes si et seulement si, pour tout $A\subset X(\Omega)$ et tout $B\subset Y(\Omega)$, on a $$P(X\in A,Y\in B)=P(X\in A)P(Y\in B).$$
- Soit $(X_n)_{n\in I}$ une famille de variables aléatoires, où $I$ est fini ou dénombrable. On dit que les variables aléatoires $(X_n)_{n\in I}$ sont mutuellement indépendantes lorsque, pour toute partie finie $J=\{i_1,\dots,i_p\}\subset I$, pour tout $(x_{i_1},\dots,x_{i_p})\in X_{i_1}(\Omega)\times\dots\times X_{i_p}(\Omega)$, on a $$P(X_{i_1}=x_{i_1},\dots,X_{i_p}=x_{i_p})=P(X_{i_1}=x_{i_1})\cdots P(X_{i_p}=x_{i_p}).$$
- Proposition : Si $X_1,X_2,\dots,X_n$ sont des variables aléatoires mutuellement indépendantes, alors pour tout $m$ compris entre 1 et $n-1$, et pour toutes fonctions $f$ et $g$, les variables $f(X_1,\cdots,X_m)$ et $g(X_{m+1},\cdots,X_n)$ sont indépendantes.
Espérance, variance et covariance
Dans cette partie, $X$ et $Y$ désignent deux variables aléatoires discrètes réelles. On note $X(\Omega)=\{x_n;\ n\in I\}$ et $Y(\Omega)=\{y_n;\ n\in J\}$.
- On dit que $X$ est d'espérance finie si la famille $(x_n P(X=x_n))$ est sommable. Si c'est le cas, on appelle espérance de $X$ la somme de cette famille : $$E(X)=\sum_{n\in I}x_n P(X=x_n).$$
- Proposition :
- L'espérance est linéaire : si $X$ et $Y$ sont d'espérance finie, $X+Y$ est d'espérance finie et $E(X+Y)=E(X)+E(Y)$.
- L'espérance est positive : si $X\geq 0$ est d'espérance finie, alors $E(X)\geq 0$. En particulier, si $X\leq Y$ et $X$ et $Y$ sont d'espérance finie, alors $E(X)\leq E(Y)$.
- Si $|Y|\leq X$ et $X$ est d'espérance finie, alors $Y$ est d'espérance finie.
- Théorème (espérance du produit de deux variables aléatoires indépendantes) : Si $X$ et $Y$ sont indépendantes et admettent une espérance, alors $XY$ admet une espérance et $E(XY)=E(X)E(Y)$.Théorème de transfert : Soit $f$ une fonction définie sur $X(\Omega)$ à valeurs dans $\mathbb R$. Alors $f(X)$ est d'espérance finie si et seulement si la famille $(P(X=x_n)f(x_n))_{n\in I}$ est sommable. Dans ce cas, $$E(f(X))=\sum_{n\in I}f(x_n)P(X=x_n).$$
- Soit $p\in\mathbb N^*$. On dit que $X$ admet un moment d'ordre $p$ si $X^p$ est d'espérance finie. Dans ce cas, $E(X^p)$ s'appelle le moment d'ordre $p$ de $X$.
Proposition : Soit $p,q\in\mathbb N^*$ avec $p\leq q$. Si $X$ admet un moment d'ordre $q$, alors $X$ admet un moment d'ordre $p$.Inégalité de Cauchy-Schwarz : Si $X$ et $Y$ admettent des moments d'ordre $2$, alors $XY$ est d'espérance finie et $$\big(E(XY)\big)^2\leq E(X^2)E(Y^2).$$- Lorsque $X^2$ est d'espérance finie, on appelle variance de $X$ le réel $$V(X)=E\big( (X-E(X))^2\big)=E(X^2)-\big(E(X)\big)^2$$ et écart-type de $X$ le réel $\sigma(X)=\sqrt{V(X)}$.
- On a $V(aX+b)=a^2V(X)$.
Théorème (variance d'une somme de variables aléatoires) : Soit $X_1,\dots,X_n$ des variables aléatoires discrètes finies admettant des moments d'ordre $2$. Alors $$V\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^n V(X_i)+2\sum_{1\leq i<j\leq n}\big(E(X_iX_j)-E(X_i)E(X_j)\big).$$ En particulier, si les $X_i$ sont deux à deux indépendantes, alors $$V\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^n V(X_i).$$- Si $X$ et $Y$ admettent un moment d'ordre $2$, on appelle covariance de $X$ et de $Y$ le réel $$\textrm{Cov}(X,Y)=E\big((X-E(X))(Y-E(Y))\big)=E(XY)-E(X)E(Y).$$ Le coefficient de corrélation linéaire est $$\rho(X,Y)=\frac{\textrm{Cov}(X,Y)}{\sigma(X)\sigma(Y)}.$$
Loi discrètes usuelles- On dit qu'une variable aléatoire $X$ suit une loi de Bernoulli de paramètre $p\in [0,1]$ lorsque $X$ est à valeurs dans $\{0,1\}$ et que $$P(X=1)=p\textrm{ et }P(X=0)=1-p.$$ On a alors $$E(X)=p,\ V(X)=p(1-p).$$
- On dit qu'une variable aléatoire $X$ suit une loi binomiale de paramètres $n\in\mathbb N^*$ et $p\in [0,1]$, que l'on note $\mathcal B( n,p)$, lorsque $X$ est à valeurs dans $\{0,\dots,n\}$ avec, pour tout $k\in\{0,\dots,n\}$, $$P(X=k)=\binom nk p^k(1-p)^{n-k}.$$ On a alors $$E(X)=np,\ V(X)=np(1-p).$$
- Proposition : Si $X_1,\dots,X_n$ sont $n$ variables aléatoires indépendantes définies sur le même univers $\Omega$ suivant toutes une loi de Bernoulli $\mathcal B( p)$, alors $X_1+\dots+X_n$ suit une loi binomiale $\mathcal B(n,p)$.
- Soit $p\in ]0,1[$. On dit que la variable aléatoire $X$ suit une loi géométrique de paramètre $p$ si elle est à valeurs dans $\mathbb N^*$ et si, pour tout $n\geq 1$, $$P(X=n)=p(1-p)^{n-1}.$$ On a alors $$E(X)=\frac 1p\textrm{ et }V(X)=\frac{1-p}{p^2}.$$
- Proposition : Si $(X_n)$ est une suite de variables aléatoires de Bernoulli indépendantes de même paramètre $p$, et si $X$ est la variable aléatoire qui donne le rang du premier succès dans cette succession d'épreuves, alors $X$ suit une loi géométrique de paramètre $p$.Théorème (caractérisation comme loi sans mémoire) : Soit $X$ une variable aléatoire à valeurs dans $\mathbb N$. $X$ est sans mémoire, c'est-à-dire que pour tout $n,k\in\mathbb N^2$, $$P(X>n+k|X>n)=P(X>k)$$ si et seulement si $X$ suit une loi géométrique.
- Soit $\lambda>0$. On dit que $X$ suit une loi de Poisson de paramètre $\lambda$ si elle est à valeurs dans $\mathbb N$ et si, pour tout $n\in \mathbb N$, $$P(X=n)=\frac{e^{-\lambda}\lambda^n}{n!}.$$ On a alors $E(X)=\lambda$ et $V(X)=\lambda$.
Estimation- Inégalité de Markov : Soit $X$ une variable aléatoire discrète réelle admettant une espérance et soit $t>0$. Alors $$P(|X|\geq t)\leq\frac{E(|X|)}{t}.$$
- Inégalité de Bienaymé-Tchebychev : Soit $X$ une variable aléatoire discrète réelle telle que $X^2$ soit d'espérance finie. Alors, pour tout $\veps>0$, $$P(|X-E(X)|\geq \veps)\leq \frac{V(X)}{\veps^2}.$$
- Loi faible des grands nombres : Soit $(X_n)_{n\geq 1}$ une suite de variables aléatoires discrètes réelles deux à deux indépendantes, de même loi, et admettant un moment d'ordre 2. Alors, si $m=E(X_1)$ et si on pose $S_n=X_1+\cdots+X_n$, on a $$P\left(\left|\frac{S_n}n-m\right|\geq\veps\right)\xrightarrow{n\to+\infty}0.$$
- Approximation de la loi binomiale par la loi de Poisson : Soit $(X_n)$ une suite de variables aléatoires telle que, pour tout $n$, $X_n$ suit une loi binomiale de paramètres $(n,p_n)$. Si la suite $(np_n)$ converge vers $\lambda>0$, alors, pour tout $k\in\mathbb N$, $$P(X_n=k)\xrightarrow{n\to+\infty}\frac{e^{-\lambda}\lambda^k}{k!}.$$
Fonction génératrice- Soit $X$ une variable aléatoire à valeurs dans $\mathbb N$. On appelle fonction génératrice de $X$ la série entière suivante : $$G_X(t)=\sum_{n=0}^{+\infty}P(X=n)t^n.$$
- Le rayon de convergence de la série entière précédente est supérieur ou égal à $1$. $G_X$ définit donc une fonction de classe $\mathcal C^\infty$ sur $]-1,1[$. Elle est en fait continue sur l'intervalle fermé $[-1,1]$.
- Exemples :
- Si $X$ suit une loi de Bernoulli de paramètre $p$, alors $$G_X(t)=(1-p)+pt.$$
- Si $X$ suit une loi binomiale de paramètres $n,p$, alors $$G_X(t)=\big((1-p)+pt)^n.$$
- Si $X$ suit une loi géométrique de paramètre $p\in ]0,1[$, alors $$G_X(t)=\frac{pt}{1-(1-p)t}.$$
- Si $X$ suit une loi de Poisson de paramètre $\lambda>0$, alors $$G_X(t)=e^{-\lambda}e^{\lambda t}.$$
- La fonction génératrice caractérise la loi d'une variable aléatoire :
Théorème : Si $X$ et $Y$ sont deux variables aléatoires à valeurs dans $\mathbb N$ telles que, pour tout $t\in ]-1,1[$, $G_X(t)=G_Y(t)$, alors $X$ et $Y$ ont la même loi.
- La fonction génératrice permet également de retrouver la loi de la somme de deux variables aléatoires indépendantes :
Théorème : Si $X$ et $Y$ sont deux variables aléatoires à valeurs dans $\mathbb N$ indépendantes, alors, pour tout $t\in ]-1,1[$, $G_{X+Y}(t)=G_X(t)G_Y(t)$.
- La fonction génératrice permet de retrouver les moments d'une variable aléatoire :
Théorème : Soit $X$ une variable aléatoire à valeurs dans $\mathbb N$. Alors
- $X$ admet une espérance si et seulement si $G_X$ est dérivable en $1$. Dans ce cas, $G_X'(1)=E(X)$;
- $X$ admet une variance si et seulement si $G_X$ est deux fois dérivable en $1$. Dans ce cas, $V(X)=G_X''(1)+G_X'(1)-\big(G_X'(1)\big)^2.$