$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Introduction aux probabilités

Introduction
  On lance un dé, et on s'intéresse au nombre qui apparait sur la face supérieure du dé. Cette expérience est une expérience aléatoire : son résultat dépend du hasard. Les résultats possibles de cette expérience aléatoire s'appelle l'univers des possibles. Si le dé comporte 6 faces, l'univers des possibles est {1,2,3,4,5,6}.

  Intéressons-nous à des événements de l'expérience aléatoire, c'est-à-dire à des faits qui peuvent se produire. Par exemple, on peut choisir les événements A={on obtient un 6} et B={on obtient un nombre pair}. On répète l'expérience plusieurs fois, et on étudie la fréquence de réalisation de l'événement A, c'est-à-dire le nombre :
Comme le montre l'applet ci-dessous, quand le nombre de tirages augmente, la fréquence de réalisation de A tend à se stabiliser autour d'un nombre limite, compris entre 0 et 1. Ce nombre limite signifie intuitivement la chance qu'a l'événement A de se produire lorsqu'on réalise une expérience : on l'appelle probabilité de A, et on le note P(A). Dans notre exemple, on a bien sûr P(A)=1/6 et P(B)=1/2 si le dé n'est pas pipé.

  La probabilité, dans le langage courant, apparaît donc comme une limite de fréquences, et est définie a posteriori. En modélisant l'expérience aléatoire, on va définir mathématiquement pour chaque événement une probabilité a priori.

Cas fini
  On se place dans le cadre d'une épreuve aléatoire dont l'ensemble des événements possibles est fini (non vide). On note E={x1,...,xn} l'ensemble des événements possibles.

Définition :
  1. Une distribution de probabilité sur E est la donnée d'une suite finie (p1,...,pn) de nombres tels que :
    1. 0pk1.
    2. p1+p2+...+pn=1.
  2. On appelle probabilité sur E associée à la distribution (p1,...,pn) l'application définie sur l'ensemble des parties de E par :
    où A est une partie de E.
Ex : Une urne contient 7 jetons, dont 5 numérotés de 1 à 5, et 2 portant le numéro 6. Quelle est la probabilité d'obtenir un nombre pair?

L'univers des possibles est E={1,2,..,6}. La distribution de probabilité associée est :
p1=p2=...=p5=1/7, p6=2/7.
L'événement A="obtenir un nombre pair" a pour probabilité :
P(A)=p2+p4+p6=4/7.

Cas infini
  Les hypothèses précédentes ne sont pas toujours envisageables. Si l'on considère le problème d'un tireur qui tire sur une cible circulaire C, et dont la balle arrive aléatoirement sur la cible, le résultat de chaque tir peut être représenté par le point d'impact M. L'ensemble des résultats possibles est donc l'ensemble des points de la cible C, et il est infini.

  On ne peut plus envisager de donner une probabilité non-nulle à chaque point de la cible. On définit plutôt, pour toute partie A, l'événement : "L'impact est dans A". Intuitivement, il semble clair que :
Malheureusement, les mathématiciens sont assez fous pour avoir pu imaginer des parties A de C dont il est impossible de calculer l'aire. Alors, avant de parler de probabilités dans un ensemble infini, il va falloir définir pour quelle parties on peut définir la probabilité, ce qui amène aux définitions suivantes :
Définition : Soit un ensemble. On appelle tribu de parties de tout ensemble de parties de tel que :
  • Pour toute famille finie ou dénombrable d'éléments de ,
On dit alors que est un espace probabilisable.
Autrement dit, une tribu contient , est stable par passage au complémentaire, et par passage à la réunion dénombrable. Les éléments de sont appelés événements. Il est alors possible de définir abstraitement une probabilité :
Définition : Soit un espace probabilisable. On appelle probabilité sur cet espace toute application P de dans [0,1] vérifiant les deux axiomes :
  • Si (An) est une famille d'événements 2 à 2 incompatibles, alors :
On dit alors que est un espace probabilisé, et pour tout A de , P(A) est la probabilité de l'événement A.
Rappelons que deux événements A et B sont incompatibles si .

  Cette définition en terme de tribus peut semble étrangement abstraite. Dans la pratique, toutefois, on ne s'en préoccupe jamais : on peut calculer la probabilité de tous les événements étudiés!

La théorie des probabilités naît véritablement au XVIIè s. des correspondances entre Blaise Pascal et Pierre de Fermat. Le Traité du triangle arithmétique que Pascal rédige en 1654 est le premier traité moderne d'analyse combinatoire et de calcul des probabilités. L'axiomatisation des probabilités présentée au dernier paragraphe est beaucoup plus récente : elle est due au mathématicien russe Andrei Kolmogorov, en 1929, dans son Traité général de la mesure et théorie des probabilités. Ce traité a beaucoup fait avancer la théorie des probabilités.
Consulter aussi...