$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : Variables aléatoires finies

Dans toute la suite, $\Omega$ est un univers fini muni d'une probabilité $P$.

Variables aléatoires

On appelle variable aléatoire toute application $X$ définie sur $\Omega$ à valeurs dans un ensemble $E$. La variable aléatoire est dite réelle lorsque $E$ est une partie de $\mathbb R$.

Pour toute partie $A$ de $\mathbb R$, l'événement $X^{-1}(A)$ est noté $\{X\in A\}$ ou simplement $(X\in A)$ : $$X^{-1}(A)=(X\in A)=\{\omega\in\Omega:\ X(\omega)\in A\}.$$ Lorsque $A=\{x\}$, on note plus simplement l'événement $X^{-1}(\{x\})$ sous la forme $(X=x)$ : $$(X=x)=\{\omega\in\Omega:\ X(\omega)=x\}.$$ Enfin, si $X$ est à valeurs dans $\mathbb R$, on note aussi \begin{align*} (X\leq x)&=X^{-1}(]-\infty,x])=\{\omega\in\Omega:\ X(\omega)\leq x\}\\ (X\geq x)&=X^{-1}([x,+\infty[)=\{\omega\in\Omega:\ X(\omega)\geq x\}. \end{align*}

Théorème et définition : Soit $X$ une variable aléatoire sur $(\Omega,P)$ à valeurs dans $E$. Alors l'application $P_X$ définie sur $\mathcal P(E)$ par $$\forall A\subset E,\ P_X(A)=P(X\in A)=P(X^{-1}(A))=P(\{\omega\in \Omega;\ X(\omega)\in A\})$$ est une probabilité sur $X$. $P_X$ s'appelle la loi de $X$.

Remarquons que la probabilité $P_X$ est uniquement déterminée par la distribution de probabilité $(P(X=x))_{x\in E}$.

On dit que deux variables aléatoires $X$ et $Y$ suivent la même loi si $P_X=P_Y$, et on note alors $X\sim Y$.

Si $X:\Omega\to E$ est une variable aléatoire et si $f:E\to F$, l'application $Y=f\circ X:\Omega\to F$ est une variable aléatoire sur $\Omega$ appelée variable aléatoire image de $X$ par $f$, et notée $f(X)$. La loi de $f(X)$ s'appelle la loi image de $X$ par $f$.

Proposition : Soit $X,Y:\Omega\to E$ deux variables aléatoires et soit $f:X\to Y$. Alors, si $X\sim Y$, on a $f(X)\sim f(Y)$.

Si $A\subset\Omega$ est un événement de probabilité non-nulle et si $X:\Omega\to E$ est une variable aléatoire, on appelle loi conditionnelle de $X$ sachant $A$ la probabilité $P_X(\cdot|A)$ définie sur $E$ par $P_X(\{x\}|A)=P(X=x|A)$.

Lois usuelles

On dit qu'une variable aléatoire $X$ suit une loi de Bernoulli de paramètre $p\in [0,1]$ lorsque $X$ est à valeurs dans $\{0,1\}$ avec $P(X=0)=1-p$ et $P(X=1)=p$. On note alors $X\sim \mathcal B(p)$. La loi de Bernoulli intervient naturellement dans le contexte suivant. Une épreuve de Bernoulli est une expérience aléatoire à deux issues désignées "succès" et "échec". La variable aléatoire $X$ tel que $X(\textrm{"succès"})=1$ et $X(\textrm{"échec"})=0$ suit une loi de Bernoulli de paramètre $p=P(\textrm{"succès"})$.

On dit qu'une variable aléatoire $X$ suit une loi binomiale de paramètres $n\in\mathbb N^*$ et $p\in [0,1]$ lorsque $X$ est à valeurs dans $\{0,\dots,n\}$ avec, pour tout $k\in\{0,\dots,n\}$, $$P(X=k)=\binom nk p^k(1-p)^{n-k}.$$ On note alors $X\sim \mathcal B(n,p)$. La loi binomiale intervient naturellement dans le contexte suivant : lorsqu'on répète $n$ fois indépendamment une épreuve de Bernoulli avec probabilité $p$ de succès, alors la variable aléatoire qui compte le nombre de succès de l'expérience suit une loi binomiale $\mathcal B(n,p)$.

On dit que $X$ suit une loi uniforme sur un ensemble fini $E$ lorsque $X$ prend toutes ses valeurs dans $E$ et que, pour chaque $x\in E$, $$P(X=x)=\frac{1}{\card(E)}.$$ On note alors $X\sim \mathcal U(E)$.

Couple de variables aléatoires finies

Soit $X:\Omega\to E$ et $Y:\Omega\to F$ deux variables aléatoires. Alors $(X,Y):\Omega\to\mathbb E\times F,\ \omega\mapsto \big(X(\omega),Y(\omega)\big)$ est une variable aléatoire à valeurs dans $\mathbb R^2$, qu'on appelle couple de variables aléatoires. La loi du couple $(X,Y)$ est alors appelée loi conjointe de $(X,Y)$. Les lois marginales du couple $(X,Y)$ sont la loi de $X$ et la loi de $Y$.

La loi conjointe de $(X,Y)$ est alors entièrement déterminée par la distribution de probabilité $(P(X=x\textrm{ et }Y=y))_{(x,y)\in (X\times Y)(\Omega)}.$ On note en général $$P\big((X,Y)=(x,y)\big)=P(X=x\textrm{ et }Y=y).$$ Par la formule des probabilités totales, on peut toujours retrouver les lois marginales à partir de la loi conjointe :

Proposition : Soit $(X,Y)$ un couple de variables aléatoires définies sur $(\Omega,P)$. Alors, pour tout $x\in X(\Omega)$ $$P(X=x)=\sum_{y\in Y(\Omega)} P\big( (X,Y)=(x,y)\big).$$

En revanche, pour retrouver la loi conjointe de $(X,Y)$, il faut non seulement connaitre les lois marginales de $X$ et de $Y$, mais aussi connaitre les liens entre ces variables.

Indépendance de variables aléatoires
  • On dit que deux variables aléatoires $X$ et $Y$ sont indépendantes si, pour tout couple $(x,y)$ de $X(\Omega)\times Y(\Omega)$, on a $$P\big ( (X,Y)=(x,y)\big)=P(X=x)P(Y=y).$$ Ceci entraîne que, pour tout $A\subset X(\Omega)$ et tout $B\subset Y(\Omega)$, on a $$P\big( (X,Y)\in A\times B\big)=P(X\in A)P(Y\in B).$$
  • Plus généralement, si $X_1,\dots,X_n$ sont $n$ variables aléatoires définies sur $\Omega$, on dit qu'elles sont mutuellement indépendantes si, pour tout $(x_1,\dots,x_n)\in \prod_{i=1}^n X_i(\Omega)$, on a $$P\big( (X_1,\dots,X_n)=(x_1,\dots,x_n)\big) = \prod_{i=1}^n P(X_i=x_i).$$ Si $X_1,\dots,X_n$ sont mutuellement indépendantes, alors quelque soit $(A_1,\dots,A_n)\in\prod_{i=1}^n\mathcal P(X_i(\Omega))$, les événements $X_i\in A_i$ sont mutuellement indépendants.
Expliquer que ça permet de retrouver la loi conjointe!!!!!
Espérance, variance, covariance
  • Si $X$ est une variable aléatoire réelle prenant les valeurs $x_1,\dots,x_n$, on appelle espérance de $X$ le réel $$E(X)=\sum_{i=1}^n x_i P(X=x_i).$$ On dit que $X$ est centrée si l'espérance de $X$ est nulle.
  • L'espérance vérifie les propriétés suivantes :
    • elle est linéaire : $E(aX+Y)=aE(X)+E(Y)$;
    • elle est positive : si $X\geq 0$, alors $E(X)\geq 0$;
    • elle est croissante : si $X\leq Y$, alors $E(X)\leq E(Y)$;
  • Formule de transfert : Si $X$ est une variable aléatoire définie sur $\Omega$ et à valeurs dans $E$ et si $f:E\to\mathbb R$, alors $$E(f(X))=\sum_{x\in X(\Omega)}P(X=x)f(x).$$
    En particulier, il suffit de connaitre la loi de $X$ pour connaitre l'espérance de $f(X)$ (on n'a pas besoin de la loi de $f(X)$).
  • Si $X$ et $Y$ sont indépendantes, alors $E(XY)=E(X)E(Y)$. La réciproque est fausse en général.
  • Inégalité de Markov : Soit $X$ une variable aléatoire réelle et soit $t>0$. Alors $$P(|X|\geq t)\leq \frac{|E(X)|}t.$$
  • On appelle moment d'ordre $k$ de la variable aléatoire réelle $X$ l'espérance de $X^k$. On appelle variance de $X$ la quantité $$V(X)=E\bigg(\big (X-E(X)\big)^2\bigg)$$ et écart-type de $X$ la quantité $\sigma(X)=\sqrt{V(X)}$. On dit que $X$ est réduite si sa variance vaut $1$.
  • La variance vérifie les relations suivantes : $$V(X)=E(X^2)-\big(E(X)\big)^2;$$ $$V(aX+b)=a^2 V(X).$$ En particulier, si $X$ n'est pas de variance nulle, alors la variable aléatoire $\frac{X-E(X)}{\sigma(X)}$ est centrée réduite.
  • Inégalité de Bienaymé-Tchebychev : Soit $X$ une variable aléatoire réelle et soit $\veps>0$. Alors $$P(|X-E(X)|\geq \veps)\leq \frac{V(X)}{\veps^2}.$$
  • On appelle covariance des deux variables aléatoires réelles la quantité $$Cov(X,Y)=E(XY)-E(X)E(Y).$$
  • Variance d'une somme : On a $$V(X+Y)=V(X)+V(Y)+2Cov(X,Y).$$ En particulier, si $X$ et $Y$ sont indépendantes, $$V(X+Y)=V(X)+V(Y).$$ Plus généralement, si $X_1,\dots,X_n$ sont $n$ variables aléatoires réelles, alors $$V(X_1+\dots+X_n)=V(X_1)+\dots+V(X_n)+2\sum_{i<j}Cov(X_i,X_j).$$ Si les variables sont deux à deux indépendantes, alors $$V(X_1+\dots+X_n)=V(X_1)+\dots+V(X_n).$$
Lois discrètes finies usuelles
  • On a alors $$E(X)=p,\ V(X)=p(1-p).$$
  • On a alors $$E(X)=np,\ V(X)=np(1-p).$$
  • Proposition : Si $X_1,\dots,X_n$ sont $n$ variables aléatoires indépendantes définies sur le même univers $\Omega$ suivant toutes une loi de Bernoulli $\mathcal B( p)$, alors $X_1+\dots+X_n$ suit une loi binomiale $\mathcal B(n,p)$.