Tests d'hypothèse
Une partie du travail du statisticien consiste en l'aide à la décision grâce aux tests d'hypothèse. On considère une hypothèse de départ, qu'on nomme souvent hypothèse nulle, et qu'on note $H_0$. A l'aide d'un échantillon de la population, on fait une étude statistique du caractère étudié. Le test d'hypothèse consiste alors à dire si, avec un risque d'erreur $a$, l'étude statistique n'est pas incompatible avec $H_0$. Dans ce cas, on accepte $H_0$, sinon on la rejette. Remarquons que le résultat d'un test est toujours négatif : accepter $H_0$ ne signifie pas que l'hypothèse est vraie, mais que les résultats expérimentaux ne s'y opposent pas.
Suivant la validité réelle de $H_0$ et le résultat du test, il y a 4 cas possibles :
- $H_0$ est vraie et on accepte $H_0$ : c'est correct.
- $H_0$ est vraie et on refuse $H_0$ : on parle de rejet à tort ou d'erreur de première espèce. Par définition, cela se produit avec une probabilité $a.$
- $H_0$ est fausse et on accepte $H_0$ : on parle de manque de puissance ou d'erreur de deuxième espèce.
- $H_0$ est fausse et on refuse $H_0$ : c'est correct. La puissance du test est par définition la probabilité de refuser $H_0$ si $H_0$ est effectivement fausse.
Il existe deux types de tests :
- les tests paramétriques : ce sont les tests pour lesquels on évalue un paramètre de la loi de probabilité de $H_0$, loi qu'on suppose connue à l'avance. Ces tests sont très liés aux problèmes des intervalles de confiance.
- les tests non-paramétriques, qui ne nécessitent aucune hypothèse sur la loi de $H_0$. On compare alors si deux populations ont un caractère distribué de la même façon, etc... Un des tests non-paramétriques les plus célèbres est le test du $\chi^2.$
Il faut faire attention à la signification du risque d'erreur.
Comme écrit plus haut, le résultat d'un test est toujours négatif : accepter $H_0$
signifie en fait ne pas refuser $H_0$, ou encore que les résultats du test
ne sont pas incompatibles avec $H_0$. Dans la pratique, on s'arrange toujours
pour que refuser $H_0$ alors que $H_0$ était vraie soit l'alternative la plus grave.
Diminuer le risque d'erreur signifie donc diminuer la probabilité que ceci arrive (et pas du tout que
quand on accepte $H_0$, $H_0$ soit effectivement vraie). Donnons deux exemples :
- Le service de répression des fraudes enquête sur un casino. Sur un jeu de roulette à 37 numéros, le zéro est sorti $298$ fois sur $10 000$ tirages, ce qui donne une fréquence d'environ $0,\!03$ alors que la probabilité théorique est d'environ $0,\!027.$ Y-a-t-il tricherie? L'hypothèse à tester ici est $$H_0\ :\ P(\textrm{obtenir zéro})\leq \frac{298}{10000}".$$ Bien sûr, il faut que le risque qu'on rejette cette hypothèse alors que le casino est honnête soit très faible (on appelle ceci le bénéfice du doute).
- On compare l'efficacité de deux médicaments. Sur $100$ malades, le premier donne $63$ guérisons et le second $67$ guérisons. Le second est-il meilleur que le premier, ou bien est-ce dû aux fluctuations de l'échantillon? L'hypothèse à tester ici est $$H_0\ :\ "\textrm{Les deux médicaments sont équivalents}".$$ Il est en effet grave d'affirmer que le second médicament soigne mieux que le premier si ce n'est pas le cas.








