Forum de mathématiques - Bibm@th.net
Vous n'êtes pas identifié(e).
- Contributions : Récentes | Sans réponse
Répondre
Résumé de la discussion (messages les plus récents en premier)
- JeCl
- 27-03-2010 17:57:28
Re,
merci pour vos réponses,
j'ai fait un copié collé du support de cours, donc je ne sais pas s'il s'agit d'une erreur ou non, le prof nous a dit que cet exercice avait des résultats similaires au premier sans plus de détail.
Pardon pour le délai de compréhension, j'ai étais noyer sous les informations alors qu'on a pas vraiment de notion de statistique.
maintenant je comprends la démarche pour le calcul du biais.
si je comprends bien il faut diviser par [tex]m-1[/tex], pour obtenir un estimateur non biaisé.
- freddy
- 27-03-2010 17:32:19
Alors je confirme mon propos : tu as n va de Bernoulli de paramètre p uniquement.
Tu peux soit prendre une réalisation, soit la moyenne empirique de n observations. On montre que le second estimateur est meilleur que le premier qui est de toute façon sans biais.
A +
- freddy
- 27-03-2010 17:16:13
Re,
tu ne m'as toujours pas donné le lien entre m et n et je pense que ton pb est mal posé.
Dans le cas que j'ai donnée, tu observes la réalisation de n va de Bernoulli de paramètre p inconnu et tu cherches à l'estimer.
Maintenant, si on a n va B(m,p), alors ton premier estimateur a pour biais p(m-1) puisque [tex]E(X_1)=mp[/tex] !!!
Pour ton second estimateur, le biais est égal à [tex]\frac{nmp}{n}-p=p\left(m-1\right)[/tex]
Donc dans les deux cas, il faut que tu divises ton estimateur par [tex]\frac{1}{m-1}[/tex] avec m > 1.
Tu vois mieux ?
- JeCl
- 27-03-2010 15:54:20
j'ai beau chercher, je ne comprends pas comment [tex]E(X_1) + ... + E(X_2) = np[/tex] car [tex]E(X_1) = np[/tex] mais les autres la dedans ne valent pas 0 quand même ?
- freddy
- 27-03-2010 13:43:03
Non, le biais est égal à :
[tex]b(\bar X) = \frac{E(X_1) + ... + E(X_n)}{n} - p=\frac{np}{n}-p=0[/tex] !!!
- JeCl
- 27-03-2010 13:37:55
Est ce que les formules de cette page sont valables tout le temps pour toute loi ?
Donc le biais vaudrait juste la formule :
[tex]b(\bar X) = \frac{X_1 + ... + X_n}{n} - p[/tex]
et la variance
serait la même que celle de la page http://www.bibmath.net/dico/index.php3? … ation.html
- freddy
- 27-03-2010 13:22:05
Salut,
quel est le lien entre m et n ?
Pour ce que je pressens comprendre, l'idée est de te dire que le premier estimateur de p n'est pas terrible, tandis que le second est meilleur, car son biais = 0 (refais le calcul, celui que tu donnes est faux) et sa variance est minimale (là encore, refais ton calcul, il est faux). Mieux : sa variance converge vers 0 quand le nombre d'observations tend vers l'infini, donc ... Consulte ce lien et reviens nous voir.
Bis bald
- JeCl
- 27-03-2010 12:17:52
Bonjour,
j'ai un petit souci de compréhension en statistique sur les estimateurs. voila l'énoncé :
Soit [tex]X_1, . . . ,X_n[/tex], une suite de variables aléatoires indépendantes issues d’une loi binomiale B(m, p). Le paramètre m est connu.
On cherche à estimer le paramètre [tex]0<p<1[/tex] au vu de l’échantillon [tex]X_1, . . . ,X_n[/tex].
Trouver le biais et la variance de l’estimateur [tex]\widehat p_n= X_1[/tex].
pour le biais :
[tex]b(X_1) = E(X_1) - p = np - p = p(n-1)[/tex]
pour la variance selon la correction :
[tex]v(X_1) = \frac{np(1-p)}{n} = p(1-p)[/tex]
la je ne comprends pas vraiment pourquoi on divise par n sachant que la variance dans la loi binomiale est [tex]v = np(1-p)[/tex]. Alors est ce que c'est du au fait qu'on cherche la valeur de la variance pour [tex]X_1[/tex] ?
j'ai un autre exercice du même style mais non corrigé pouvez me le corriger s'il vous plait
mêmes questions pour [tex]\widehat p_n= \bar X[/tex]
pour le biais :
[tex]
b(\bar X) = E(\bar X) - p
= \bar X - p
= np - p
= p(n-1)[/tex]
et pour la variance :
[tex]v(\bar X) = np (1-p)[/tex]
voila pouvez éclairer ma lanterne ?







