Théorème de Neyman-Pearson
Le théorème de Neyman-Pearson est un théorème qui permet lors de test d'hypothèses simples, de construire le "meilleur" test à risque fixé.
On suppose donc qu'on a une variable aléatoire dépendant d'un paramètre $\theta$ et $(x_1,\dots,x_n)$ un échantillon de valeurs observées de $X.$ La vraisemblance de l'échantillon pour le paramètre $\theta$ est défini par $$L(x_1,\dots,x_n;\theta)=\prod_{i=1}^n P(X=x_i|\theta)$$ si $X$ est une variable aléatoire discrète, ou par $$L(x_1,\dots,x_n;\theta)=\prod_{i=1}^n f(x_i;\theta)$$ si $X$ est une variable aléatoire continue de densité $f(x;\theta).$
On suppose qu'on doive décider entre $H_0:"\theta=\theta_0"$ et $H_1:"\theta=\theta_1".$ Alors le test de puissance maximum pour un risque de première espèce $a$ fixé est celui dont la région critique est définie par $$C=\left\{(x_1,\dots,x_n):\ \frac{L(x_1,\dots,x_n;\theta_0)}{L(x_1,\dots,x_n;\theta_1)}\leq k\right\}$$ où $k$ est défini par $$P\left( \frac{L(x_1,\dots,x_n;\theta_0)}{L(x_1,\dots,x_n;\theta_1)}\leq k|\theta=\theta_0\right)=a.$$ Autrement dit, on rejette $H_0$ si et seulement si $(x_1,\dots,x_n)\in C.$