$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Variables aléatoires à densité

Dans ce qui suit, $\Omega$ désigne un univers muni d'une probabilité $P$.
Généralités sur les variables aléatoires à densité
  • On appelle variable aléatoire à densité toute fonction $X:\Omega\to\mathbb R$ telle qu'il existe une fonction $f:\mathbb R\to\mathbb R$ continue par morceaux vérifiant la propriété suivante : $$\forall a<b,\ P(X\in [a,b])=\int_a^b f(x)dx.$$ Si une telle fonction $f$ existe, elle est appelée densité de la variable aléatoire $X$.
  • Remarquons que si $f$ est la densité d'une variable aléatoire $X$, alors nécessairement $f$ est positive, $f$ est intégrable sur $\mathbb R$ et vérifie $\int_{-\infty}^{+\infty}f(t)dt=1$.
  • Rappelons que si $X$ est une variable aléatoire, sa fonction de répartition est la fonction $F_X$ définie sur $\mathbb R$ par $F_X(t)=P(X\leq t)$.
  • Théorème : Si $X$ est une variable aléatoire à densité, sa fonction de répartition est continue. Autrement dit, pour tout $a\in\mathbb R$, on a $P(X=a)=0$.
  • Une conséquence de ce résultat est que, si $X$ est une variable aléatoire à densité, et si $a<b$, alors $$P(a\leq X\leq b)=P(a<X\leq b)=P(a\leq X<b)=P(a<X<b)=\int_a^b f(t)dt,$$ $$P(X\geq a)=P(X>a)=\int_a^{+\infty}f(t)dt,$$ $$P(X\leq a)=P(X<a)=\int_{-\infty}^a f(t)dt.$$
Espérance
  • Soit $X$ une variable aléatoire ayant pour densité $f$. On dit que $X$ admet une espérance si l'intégrale $\int_{-\infty}^{+\infty}|x|f(x)dx$ converge. Dans ce cas, on appelle espérance de $X$ le réel $E(X)$ défini par $$E(X)=\int_{-\infty}^{+\infty}xf(x)dx.$$
  • Théorème (linéarité de l'espérance) : Soit $X$ et $Y$ deux variables aléatoires à densité définies sur $\Omega$. Alors
    • $aX+b$ admet une espérance, et $E(aX+b)=aE(X)+b$;
    • $X+Y$ admet une espérance et $E(X+Y)=E(X)+E(Y)$.
  • Théorème de transfert : Soit $X$ une variable aléatoire admettant $f$ pour densité, et soit $\varphi:\Omega\to\mathbb R$ une fonction continue. On suppose en outre que $$\int_{-\infty}^{+\infty}|\varphi(x)|f(x)dx\textrm{ converge.}$$ Alors la variable aléatoire $\varphi(X)$ admet une espérance donnée par $$E\big(\varphi(X)\big)=\int_{-\infty}^{+\infty}\varphi(x)f(x)dx.$$
  • Soit $X$ une variable aléatoire à densité $f$. On dit que $X$ admet une variance si $X$ admet une espérance $E(X)=m$ et si la variable aléatoire $\big(X-E(X)\big)^2$ admet une espérance, autrement dit si l'intégrale $\int_{-\infty}^{+\infty}(x-m)^2f(x)dx$ est convergente. Dans ce cas, on appelle variance de $X$ la valeur de cette intégrale : $$V(X)=\int_{-\infty}^{+\infty}(x-m)^2 f(x)dx.$$
  • Les propriétés de la variance des variables aléatoires discrètes restent vraies pour les variables aléatoires continues. Ainsi, si $X$ est une variable aléatoire à densité admettant une densité, alors $aX+b$ admet une variance donnée par $$V(aX+b)=a^2 V(X).$$
  • On dit que deux variables aléatoires $X$ et $Y$ (pas nécessairement à densité...) sont indépendantes si, pour tous intervalles $I$ et $J$, on a $$P\big((X\in I)\cap \big(Y\in J)\big)=P(X\in I)\times P(Y\in J).$$
  • Si $X$ et $Y$ sont deux variables aléatoires à densité indépendantes admettant une variance, alors $X+Y$ admet une variance et $$V(X+Y)=V(X)+V(Y).$$
Lois uniformes
  • On dit qu'une variable aléatoire $X$ suit une loi uniforme sur $[a,b]$ si $X$ admet pour densité la fonction $f$ définie par $$f(x)=\left\{ \begin{array}{ll} \frac{1}{b-a}&\textrm{ si }x\in[a,b]\\ 0&\textrm{ sinon.} \end{array}\right.$$
  • Si $X$ suit une loi uniforme sur $[a,b]$, alors
    • la fonction de répartition de $X$ est donnée par $$F(t)=\left\{ \begin{array}{ll} 0&\textrm{ si }t\leq a\\ \frac{t-a}{b-a}&\textrm{ si }t\in[a,b]\\ 1&\textrm{ si }t\geq b. \end{array}\right.$$
    • $X$ admet une espérance et une variance données respectivement par $$E(X)=\frac{a+b}2\textrm{ et }V(X)=\frac{(b-a)^2}{12}.$$
Lois exponentielles
  • On dit qu'une variable aléatoire $X$ suit une loi exponentielle de paramètre $\lambda>0$ si $X$ admet pour densité la fonction $f$ définie par $$f(x)=\left\{ \begin{array}{ll} \lambda e^{-\lambda x}&\textrm{ si }x\geq 0\\ 0&\textrm{ sinon.} \end{array}\right.$$
  • Si $X$ suit une loi exponentielle de paramètre $\lambda>0$, alors
    • la fonction de répartition de $X$ est donnée par $$F(t)=\left\{ \begin{array}{ll} 0&\textrm{ si }t\leq 0\\ 1-e^{-\lambda t}&\textrm{ si }t\geq 0\\ \end{array}\right.$$
    • $X$ admet une espérance et une variance données respectivement par $$E(X)=\frac{1}\lambda\textrm{ et }V(X)=\frac{1}{\lambda^2}.$$
  • Théorème : Si $X$ suit une loi exponentielle de paramètre $\lambda>0$, alors $X$ est sans mémoire : $$\forall s,t>0,\ P_{(X>s)}(X>s+t)=P(X>t).$$
  • Proposition (temps de demi-vie) : Soit $X$ une variable aléatoire suivant une loi exponentielle de paramètre $\lambda>0$ et soit $a>0$ l'unique réel tel que $P(X>a)=P(X<a)=\frac 12$. Alors $a=\frac{\ln 2}{\lambda}.$
Lois normales
  • On dit qu'une variable aléatoire $X$ suit une loi normale centrée réduite $\mathcal N(0,1)$ si $X$ admet une densité $f$ donnée par $$f(x)=\frac1{\sqrt{2\pi}}e^{-x^2/2}.$$ La variable aléatoire $X$ admet alors une espérance qui vaut $0$ et une variance qui vaut $1$.
  • Puisque la densité d'une loi normale centrée réduite est une fonction paire, on a pour $a>0$ $$P(X\leq -a)=P(X\geq a).$$
  • La fonction de répartition d'une variable aléatoire centrée réduite ne s'exprime pas à l'aide des fonctions usuelles. On en calcule des valeurs approchées à l'aide de l'outil informatique (ou de tables). Néanmoins, les valeurs suivantes interviennent souvent en statistiques : $$ \begin{array}{rcl} P(-1\leq X\leq 1)&=&0,683\\ P(-2\leq X\leq 2)&=&0,954\\ P(-3\leq X\leq 3)&=&0,997\\ P(-1,96\leq X\leq 1,96)&=&0,95\\ P(-2,57\leq X\leq 2,57)&=&0,99. \end{array}$$
  • On dit qu'une variable aléatoire $X$ suit une loi normale de paramètres $m\in\mathbb R$ et $\sigma>0$, notée $\mathcal N(m,\sigma^2)$, si $Y=\frac{X-m}{\sigma}$ suit une loi $\mathcal N(0,1)$. Dans ce cas, $X$ admet une espérance égale à $m$ et une variance égale à $\sigma^2$.
  • Théorème : Si $X$ suit une loi normale $\mathcal N(m,\sigma^2)$, alors $X$ admet pour densité la fonction $f$ donnée par $$f(x)=\frac{1}{\sigma\sqrt{2\pi}}\exp\left(-\frac{(x-m)^2}{2\sigma^2}\right).$$
  • Théorème de de Moivre-Laplace : Soit $(X_n)$ une suite de variables aléatoires suivant une loi binomiale $\mathcal B(n,p)$ et soit $Z_n=\frac{X_n-np}{\sqrt{np(1-p)}}$. Alors, pour tous nombres réels $a<b$, on a $$P(Z_n\in [a,b])\to \int_a^b \frac{1}{\sqrt{2\pi}}e^{-x^2/2}dx.$$