$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Théorème limite central

On lance $n$ fois une pièce de monnaie, et on convient que l'on gagne 1 euro si l'on obtient pile, que l'on perd 1 euro si l'on obtient face. On note $S_n$ l'argent gagné, ou perdu, après $n$ parties. Quelle est la loi de probabilité de $S_n$? Intuitivement, il est clair qu'il y a plus de chances que $S_n$ soit proche de 0 plutôt que $S_n$ soit grand. Mais peut-on aller plus loin, et donner l'allure de la loi de probabilité de $S_n$? Le théorème suivant, dit théorème limite central, affirme que c'est effectivement le cas.

Théorème : Soit $(X_n)$ une suite de variables indépendantes identiquement distribuées admettant un moment d'ordre 2. On pose : $$\mu=E(X_1),\ \sigma^2=\textrm{Var}(X_1)$$ $$S_n=X_1+\cdots+X_n,\ Y_n=\frac{S_n-n\mu}{\sigma\sqrt n}.$$ Alors la suite $(Y_n)$ converge en loi vers une variable aléatoire de loi $\mathcal N(0,1)$ (la loi normale centrée réduite). En d'autres termes, pour tout $x\in\mathbb R$, $$P(Y_n\leq x)\to\frac1{\sqrt{2\pi}}\int_{-\infty}^x e^{-u^2/2}du.$$

La grande force de ce théorème est sa généralité : il y a vraiment très peu d'hypothèses sur la suite $(X_n)$. Quelle que soit la loi de probabilité d'un événement aléatoire, si on le répète infiniment souvent, de façon indépendante, sa moyenne finit par se comporter comme une loi normale. C'est ce théorème qui permet d'affirmer que la loi normale est la loi des phénomènes naturels. Si on observe par exemple la taille des individus dans une population, celle-ci va suivre une répartition qui va ressembler à celle de la loi normale (la fameuse courbe en cloche).

L'importance de la loi normale a d'abord été mise en évidence par De Moivre en 1718, puis par Gauss et Laplace au XIXè s., qui ont notamment prouvé des cas particuliers du théorème (si $(X_n)$ est une suite de variables de Bernoulli par exemple). Poisson en donne des versions plus générales que pour les variables aléatoires de Bernoulli (et avec des démonstrations plus rigoureuses) mais le fait que la notion de variable aléatoire n'est pas encore formalisée empêche des énoncés du type de celui écrit ici. Il faut attendre la fin du XIXè siècle et le début du XXè siècle et les travaux de l'école russe de probabilités, ainsi que ceux de Paul Lévy, pour avoir le cadre permettant un énoncé de ce type. Ainsi, le théorème limite central énoncé ici est dû à Lévy et Lindeberg (en 1920), et c'est Polya qui le premier emploie le nom de théorème limite central en 1933. Le fait qu'il n'y ait pas de "e" à la fin de central n'est pas une erreur : c'est le "théorème (limite)" qui est central dans la théorie des probabilités, ce n'est pas la limite.
Consulter aussi...
Recherche alphabétique
Recherche thématique