$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Théorème limite central

On lance $n$ fois une pièce de monnaie, et on convient que l'on gagne 1 euro si l'on obtient pile, que l'on perd 1 euro si l'on obtient face. On note $S_n$ l'argent gagné, ou perdu, après $n$ parties. Quelle est la loi de probabilité de $S_n$? Intuitivement, il est clair qu'il y a plus de chances que $S_n$ soit proche de 0 plutôt que $S_n$ soit grand. Mais peut-on aller plus loin, et donner l'allure de la loi de probabilité de $S_n$? Le théorème suivant, dit théorème limite central, affirme que c'est effectivement le cas.

Théorème : Soit $(X_n)$ une suite de variables indépendantes identiquement distribuées admettant un moment d'ordre 2. On pose : $$\mu=E(X_1),\ \sigma^2=\textrm{Var}(X_1)$$ $$S_n=X_1+\cdots+X_n,\ Y_n=\frac{S_n-n\mu}{\sigma\sqrt n}.$$ Alors la suite $(Y_n)$ converge en loi vers une variable aléatoire de loi $\mathcal N(0,1)$ (la loi normale centrée réduite). En d'autres termes, pour tout $x\in\mathbb R$, $$P(Y_n\leq x)\to\frac1{\sqrt{2\pi}}\int_{-\infty}^x e^{-u^2/2}du.$$

La grande force de ce théorème est sa généralité : il y a vraiment très peu d'hypothèses sur la suite $(X_n)$. Quelle que soit la loi de probabilité d'un événement aléatoire, si on le répète infiniment souvent, de façon indépendante, sa moyenne finit par se comporter comme une loi normale. C'est ce théorème qui permet d'affirmer que la loi normale est la loi des phénomènes naturels. Si on observe par exemple la taille des individus dans une population, celle-ci va suivre une répartition qui va ressembler à celle de la loi normale (la fameuse courbe en cloche).

L'importance de la loi normale a d'abord été mise en évidence par De Moivre en 1718, puis par Gauss et Laplace au XIXè s., qui ont notamment prouvé des cas particuliers du théorème (si $(X_n)$ est une suite de va de Bernoulli par exemple). Le cas général est dû à Lévy et Lindeberg (en 1920), et c'est Polya qui le premier emploie le nom de théorème limite central. Le fait qu'il n'y ait pas de "e" à la fin de central n'est pas une erreur : c'est le "théorème (limite)" qui est central dans la théorie des probabilités, ce n'est pas la limite.
Consulter aussi...
Recherche alphabétique
Recherche thématique