$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Loi des grands nombres

On s'est aperçu depuis longtemps que lorsqu'on lance un très grand nombre de fois un dé non pipé, la fréquence d'apparition du 5 tend vers 1/6 : c'est ce que les Anciens appelaient les lois empiriques du hasard. Le but premier des probabilités étant de donner une modélisation mathématique de ces phénomènes, les lois des grands nombres illustrent alors le succès de ce programme.

Loi faible des grands nombres

Le nom de loi faible des grands nombres est donné à tout théorème donnant une information sur la convergence en probabilité d'une moyenne de variables aléatoires. L'énoncé le plus populaire est le suivant :

Théorème : Soit $(X_n)$ une suite de variables aléatoires intégrables, identiquement distribuées, de carré intégrable, et deux à deux non corrélées. Soit $m$ leur espérance commune. On note : $$S_n=\frac{X_1+\cdots+X_n}n.$$ Alors la suite $(S_n)$ tend vers $m$ en probabilité, c'est-à-dire que, pour tout $\varepsilon>0,$ $$\lim_{n\to+\infty}P(|S_n-m|\geq \varepsilon)=0.$$

Ex : On lance un dé non pipé, $X_n$ vaut $1$ si le $n$-ème lancer amène $5,$ et $0$ sinon. Alors $(S_n)$ tend vers $1/6$ en probabilité.

Loi forte des grands nombres

Les lois fortes concernent elles des théorèmes dont la conclusion est une convergence presque sûre.

Théorème : Soit $(X_n)$ une suite de variables aléatoires intégrables mutuellement indépendantes, identiquement distribuées. Soit $m$ leur espérance commune. On note : $$S_n=\frac{X_1+\cdots+X_n}n.$$ Alors la suite $(S_n)$ tend vers $m$ presque sûrement, c'est-à-dire que l'ensemble des $\omega$ tels que la suite $(S_n(\omega))$ converge vers $m$ est de probabilité $1.$

Par rapport à la loi faible énoncée plus haut, on fait une hypothèse plus forte concernant l'indépendance, mais on obtient aussi une conclusion plus forte puisque la convergence presque sûre entraîne la convergence en probabilité.

C'est à Jacques Bernoulli que l'on doit le premier énoncé d'une loi des grands nombres; il apparait dans son ouvrage Ars Conjectandi publié en 1713, huit ans après sa mort. Il avait pour cadre le jeu du pile ou face (schéma de Bernoulli). Le terme de "loi des grands nombres" est lui dû à Poisson. Ce terme juridique est à mettre en rapport avec le titre de l'ouvrage dans lequel il l'introduit, Recherches sur les probabilités des jugements, paru en 1837. De nombreux mathématiciens ont ensuite généralisé les énoncés de Bernoulli et Poisson, citons notamment Kolmogorov, Tchebychev et Khintchine.
Consulter aussi
Recherche alphabétique
Recherche thématique