Bibm@th

Forum de mathématiques - Bibm@th.net

Bienvenue dans les forums du site BibM@th, des forums où on dit Bonjour (Bonsoir), Merci, S'il vous plaît...

Vous n'êtes pas identifié(e).

Répondre

Veuillez composer votre message et l'envoyer
Nom (obligatoire)

E-mail (obligatoire)

Message (obligatoire)

Programme anti-spam : Afin de lutter contre le spam, nous vous demandons de bien vouloir répondre à la question suivante. Après inscription sur le site, vous n'aurez plus à répondre à ces questions.

Quel est le résultat de l'opération suivante (donner le résultat en chiffres)?
soixante dix plus soixante deux
Système anti-bot

Faites glisser le curseur de gauche à droite pour activer le bouton de confirmation.

Attention : Vous devez activer Javascript dans votre navigateur pour utiliser le système anti-bot.

Retour

Résumé de la discussion (messages les plus récents en premier)

JeCl
27-03-2010 17:57:28

Re,

merci pour vos réponses,
j'ai fait un copié collé du support de cours, donc je ne sais pas s'il s'agit d'une erreur ou non, le prof nous a dit que cet exercice avait des résultats similaires au premier sans plus de détail.

Pardon pour le délai de compréhension, j'ai étais noyer sous les informations alors qu'on a pas vraiment de notion de statistique.
maintenant je comprends la démarche pour le calcul du biais.
si je comprends bien il faut diviser par [tex]m-1[/tex], pour obtenir un estimateur non biaisé.

freddy
27-03-2010 17:32:19

Alors je confirme mon propos : tu as n va de Bernoulli de paramètre p uniquement.

Tu peux soit prendre une réalisation, soit la moyenne empirique de n observations. On montre que le second estimateur est meilleur que le premier qui est de toute façon sans biais.

A +

freddy
27-03-2010 17:16:13

Re,

tu ne m'as toujours pas donné le lien entre m et n et je pense que ton pb est mal posé.

Dans le cas que j'ai donnée, tu observes la réalisation de n va de Bernoulli de paramètre p inconnu et tu cherches à l'estimer.

Maintenant, si on a n va B(m,p), alors ton premier estimateur a pour biais p(m-1) puisque [tex]E(X_1)=mp[/tex] !!!

Pour ton second estimateur, le biais est égal à  [tex]\frac{nmp}{n}-p=p\left(m-1\right)[/tex]

Donc dans les deux cas, il faut que tu divises ton estimateur par  [tex]\frac{1}{m-1}[/tex] avec m > 1.

Tu vois mieux ?

JeCl
27-03-2010 15:54:20

j'ai beau chercher, je ne comprends pas comment [tex]E(X_1) + ... + E(X_2) = np[/tex] car [tex]E(X_1) = np[/tex] mais les autres la dedans ne valent pas 0 quand même ?

freddy
27-03-2010 13:43:03

Non, le biais est égal à :
[tex]b(\bar X) = \frac{E(X_1) + ... + E(X_n)}{n} - p=\frac{np}{n}-p=0[/tex] !!!

JeCl
27-03-2010 13:37:55

Est ce que les formules de cette page sont valables tout le temps pour toute loi ?

Donc le biais vaudrait juste la formule :
[tex]b(\bar X) = \frac{X_1 + ... + X_n}{n} - p[/tex]

et la variance
serait la même que celle de la page http://www.bibmath.net/dico/index.php3? … ation.html

freddy
27-03-2010 13:22:05

Salut,

quel est le lien entre m et n ?

Pour ce que je pressens comprendre, l'idée est de te dire que le premier estimateur de p n'est pas terrible, tandis que le second est meilleur, car son biais = 0 (refais le calcul, celui que tu donnes est faux) et sa variance est minimale (là encore, refais ton calcul, il est faux). Mieux : sa variance converge vers 0 quand le nombre d'observations tend vers l'infini, donc ... Consulte ce lien et reviens nous voir.

Bis bald

JeCl
27-03-2010 12:17:52

Bonjour,
j'ai un petit souci de compréhension en statistique sur les estimateurs. voila l'énoncé :
Soit [tex]X_1, . . . ,X_n[/tex], une suite de variables aléatoires indépendantes issues d’une loi binomiale B(m, p). Le paramètre m est connu.
On cherche à estimer le paramètre [tex]0<p<1[/tex] au vu de l’échantillon [tex]X_1, . . . ,X_n[/tex].
Trouver le biais et la variance de l’estimateur [tex]\widehat p_n= X_1[/tex].
pour le biais :
[tex]b(X_1) = E(X_1) - p = np - p = p(n-1)[/tex]

pour la variance selon la correction :
[tex]v(X_1) = \frac{np(1-p)}{n} = p(1-p)[/tex]

la je ne comprends pas vraiment pourquoi on divise par n sachant que la variance dans la loi binomiale est [tex]v = np(1-p)[/tex]. Alors est ce que c'est du au fait qu'on cherche la valeur de la variance pour [tex]X_1[/tex] ?

j'ai un autre exercice du même style mais non corrigé pouvez me le corriger s'il vous plait
mêmes questions pour [tex]\widehat p_n= \bar X[/tex]
pour le biais :
[tex]
b(\bar X) = E(\bar X) - p
= \bar X - p
= np - p
= p(n-1)[/tex]

et pour la variance :
[tex]v(\bar X) = np (1-p)[/tex]

voila pouvez éclairer ma lanterne ?

Pied de page des forums