$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Indépendance en probabilités

Dans toute la suite, $(\Omega,\mathcal A,P)$ désigne un espace de probabilité.

Événéments indépendants

Deux événements $A$ et $B$ sont dits indépendants (par rapport à $P$) si $P(A\cap B)=P(A)P(B),$ ce qui peut encore s'écrire, si $P(A)\neq 0$, $P(B|A)=P(B)$. Dire que $A$ et $B$ sont indépendants signifie donc qu'avoir des informations concernant la réalisation de $A$ ne renseigne pas sur la réalisation de $B.$

Exemple :

  1. On lance un dé à 6 faces et on note $A$ l'événement "Obtenir un nombre pair", et $B$ l'événément "Obtenir un multiple de 3". On a : $$P(A)=1/2,\ P(B)=1/3,\ P(A\cap B)=1/6=P(A)P(B).$$ Les événements $A$ et $B$ sont indépendants.
  2. On lance deux dés rouges et verts, et on note $A$ l'événement "La somme des numéros fait 6" et $B$ l'événement "Sur le dé rouge, on obtient un nombre pair". Un petit dénombrement de tous les cas possibles montre que : $$P(A)=5/36,\ P(B)=18/36,\ P(A\cap B)=2/36\neq P(A)P(B).$$ Les événements $A$ et $B$ ne sont pas indépendants.

Si on considère $m$ événements $A_1,\dots,A_m$, il y a deux façons de définir leur indépendance :

  • On dit que $A_1,\dots,A_m$ sont mutuellement indépendants si, pour toute partie $J=\{j_1,\dots,j_p\}\subset\{1,...,m\},$ on a $$P(A_{j_1}\cap\cdots\cap A_{j_p})=P(A_{j_1})\times\cdots\times P(A_{j_p}).$$
  • On dit que $A_1,\dots,A_m$ sont deux à deux indépendants si, pour tous $i$ et $j$ de $\{1,...,m\},$ $$P(A_i\cap A_j)=P(A_i)P(A_j).$$

Ces définitions s'étendent à des familles quelconques $(A_i)_{i\in I}$ d'événements, avec $I$ non nécessairement finie, en considérant uniquement les parties finies $J$ contenues dans $I$.

Par exemple, trois événements $A$, $B$ et $C$ sont :

  • mutuellement indépendants lorsque : $$P(A\cap B)=P(A)P(B),P(A\cap C)=P(A)P(C),\ P(B\cap C)=P(B)P(C)$$ $$P(A\cap B\cap C)=P(A)P(B)P(C).$$
  • indépendants deux à deux lorsque $$P(A\cap B)=P(A)P(B),P(A\cap C)=P(A)P(C),\ P(B\cap C)=P(B)P(C)$$

Bien sûr, des événements mutuellement indépendants sont indépendants deux à deux, la réciproque est fausse comme le prouve l'exemple suivant :

Exemple : On lance 2 fois une pièce de monnaie. On considère les événements suivants : $$\begin{align*} A&=\{\textrm{On obtient pile au 1er lancer}\}\\ B&=\{\textrm{On obtient face au 2ème lancer}\}\\ C&=\{\textrm{On obtient la même chose aux 2 lancers}\}. \end{align*} $$ Très facilement, on prouve que $$\begin{array}{lll} P(A)=1/2&P(B)=1/2&P(C)=1/2\\ P(A\cap B)=1/4&P(A\cap C)=1/4&P(B\cap C)=1/4\\ P(A\cap B\cap C)=0. \end{array}$$ Les événements $A$, $B$ et $C$ sont donc 2 à 2 indépendants, mais ne sont pas mutuellement indépendants.

Variables aléatoires indépendantes

Deux variables aléatoires $X$ et $Y$ sont dites indépendantes si, pour tous intervalles $A$ et $B$ de $\mathbb R$ $$P(X\in A,\ Y\in B)=P(X\in A)P(Y\in B).$$ Si $(X_1,\dots,X_n)$ est une famille de $n$ variables aléatoires définies sur le même espace $(\Omega,\mathcal A,\mathbb P)$, alors on dit que les variables aléatoires sont mutuellement indépendantes si, pour tous intervalles $A_1,\dots,A_n$ de $\mathbb R$, on a $$P\big((X_1\in A_1)\cap\cdots\cap(X_n\in A_n)\big)=P(X_1\in A_1)\times\cdots\times P(X_n\in A_n).$$ Si $X_1,\dots,X_n$ sont des variables aléatoires discrètes, alors $(X_1,\dots,X_n)$ sont mutuellement indépendantes si, pour tous $x_1,\dots,x_n\in X_1(\Omega)\times\cdots\times X_n(\Omega)$, on a $$P\big((X_1=x_1)\cap\cdots \cap(X_n=x_n)\big)=P(X_1=x_1)\times \cdots\times P(X_n=x_n).$$

Exemple : On lance 3 dés. On note $X$ la valeur du chiffre indiqué par le premier dé, $Y$ la valeur du chiffre indiqué par le deuxième, et $Z$ la valeur du chiffre indiqué par le troisième. Alors $(X,Y,Z)$ sont des variables aléatoires mutuellement indépendantes.

Tribus indépendantes

On dit que les tribus $\tau_1,\dots,\tau_n$ sont indépendantes si : $$\forall (A_1,\dots,A_n)\in \tau_1\times\dots\times\tau_n,\ P(A_1\cap\dots\cap A_n)=\prod_{i=1}^n P(A_i).$$ Une suite de tribus est dite indépendante si toute sous-famille finie l'est.

Consulter aussi
Recherche alphabétique
Recherche thématique