Bibm@th

Forum de mathématiques - Bibm@th.net

Bienvenue dans les forums du site BibM@th, des forums où on dit Bonjour (Bonsoir), Merci, S'il vous plaît...

Vous n'êtes pas identifié(e).

#1 06-06-2022 18:11:43

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Probabilités et inégalités

Bonsoir,

Je considère [tex](X_n)_n[/tex] une suite de variables aléatoires réelles idépendantes et identiquement distribuées telles que [tex]E(X_n)=0[/tex] pour tout [tex]n[/tex] et [tex]E(X_1^2)<+\infty[/tex]. Pour tout [tex]n\ge 1[/tex], on pose [tex]S_n=\sum_{k=1}^n X_k[/tex].

J'ai montré que la suite de variables aléatoires [tex]\big(\frac{S_m^2}{m^2}\big)_n[/tex] converge presque sûrement vers [tex]0[/tex], en utilisant l'inégalité de Bienaymé-Tchebychev.

Par contre, ensuite, on demande de montrer que pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex], on a [tex]P\big(|L_m^{(k)}|\ge m^2 \epsilon\big)\le \frac{(2m+1)E(X_1^2)}{m^4\epsilon^2}[/tex] avec [tex]L_m^{(k)}=X_{m^2+1}+...+X_{m^2+k}[/tex].

J'ai donc pensé à utiliser l'inégalité de Bienaymé-Tchebychev, encore, appliquée à la variable aléatoire [tex]L_m^{(k)}[/tex].
Dans cette inégalité, on aura à déterminer [tex]E(L_m^{(k)})[/tex], donc autant le faire tout de suite, ou en tout cas voir ce qu'il se passe.
Par linéarité de l'espérance, on a donc, pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex] :

[tex]E(L_m^{(k)})=E(X_{m^2+1})+...+E(X_{m^2+k})[/tex].

Et là, j'ai bien envie de dire que [tex]E(L_m^{(k)})=0[/tex], car pour tout [tex]n[/tex], [tex]E(X_n)=0[/tex].

Egalement, dans l'inégalité de Bienaymé-Tchebychev, j'aurais à calculer [tex]V(L_m^{(k)})=E((L_m^{(k)})^2)-E(L_m^{(k)})^2[/tex]...

Qu'en pensez-vous ?

Merci !

Hors ligne

#2 06-06-2022 19:39:23

Fred
Administrateur
Inscription : 26-09-2005
Messages : 7 340

Re : Probabilités et inégalités

Bonjour,

  Oui, c'est probablement ainsi qu'il faut faire. N'oublie pas que tes variables aléatoires sont indépendantes, cela simplifiera le calcul de la variance.

F.

Hors ligne

#3 07-06-2022 08:50:03

richadam
Membre
Inscription : 07-06-2022
Messages : 1
Site Web

Re : Probabilités et inégalités

Vincent62 a écrit :

Bonsoir,

Je considère [tex](X_n)_n[/tex] une suite de variables aléatoires réelles idépendantes et identiquement distribuées telles que [tex]E(X_n)=0[/tex] pour tout [tex]n[/tex] et [tex]E(X_1^2)<+\infty[/tex]. Pour tout [tex]n\ge 1[/tex], on pose [tex]S_n=\sum_{k=1}^n X_k[/tex].

J'ai montré que la suite de variables aléatoires [tex]\big(\frac{S_m^2}{m^2}\big)_n[/tex] converge presque sûrement vers [tex]0[/tex], en utilisant l'inégalité de Bienaymé-Tchebychev.

Par contre, ensuite, on demande de montrer que pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex], on a [tex]P\big(|L_m^{(k)}|\ge m^2 \epsilon\big)\le \frac{(2m+1)E(X_1^2)}{m^4\epsilon^2}[/tex] avec [tex]L_m^{(k)}=X_{m^2+1}+...+X_{m^2+k}[/tex].

J'ai donc pensé à utiliser l'inégalité de Bienaymé-Tchebychev, encore, appliquée à la variable aléatoire [tex]L_m^{(k)}[/tex].
Dans cette inégalité, on aura à déterminer [tex]E(L_m^{(k)})[/tex], donc autant le faire tout de suite, ou en tout cas voir ce qu'il se passe.
Par linéarité de l'espérance, on a donc, pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex] :

[tex]E(L_m^{(k)})=E(X_{m^2+1})+...+E(X_{m^2+k})[/tex].

Et là, j'ai bien envie de dire que [tex]E(L_m^{(k)})=0[/tex], car pour tout [tex]n[/tex], [tex]E(X_n)=0[/tex].

Egalement, dans l'inégalité de Bienaymé-Tchebychev, j'aurais à calculer [tex]V(L_m^{(k)})=E((L_m^{(k)})^2)-E(L_m^{(k)})^2[/tex]...

Qu'en pensez-vous ?

Merci !

vos variables aléatoires sont indépendantes, cela simplifiera le calcul de la variance.

Hors ligne

#4 07-06-2022 09:55:46

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Re : Probabilités et inégalités

Merci Fred, merci Richadam,

Je continue le raisonnement et je poste mes réponses plus tard.

Hors ligne

#5 07-06-2022 10:47:16

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Re : Probabilités et inégalités

aAlors, voilà où j'en suis concernant le calcul de [tex]V(L_m^{(k)})[/tex].

On a : [tex]V(L_m^{(k)})=E((L_m^{(k)})^2)-(E(L_m^{(k)}))^2=E((L_m^{(k)})^2)[/tex].

Or, [tex]E((L_m^{(k)})^2)=E((X_{m^2+1}+...+X_{m^2+k})^2)=E\big(X^2_{m^2+1}+...+X^2_{m^2+k}+\sum_{i,j=1, i\neq j}^k X_{m^2+i}X_{m^2+j}\big)=\sum_{p=1}^k E(X_{m^2+p}^2)+E(\sum_{i,j=1, i\neq j}^k X_{m^2+i}X_{m^2+j})[/tex].

Si je zoome, j'ai, pour tout [tex]p[/tex], [tex]E(X^2_{m^2+p})=E(X_{m^2+p}X_{m^2+p})=E(X_{m^2+p})E(X_{m^2+p})=0[/tex] car les [tex]X_n[/tex] sont indépendantes pour tout [tex]n\ge 1[/tex].

Mais du coup, on aurait aussi avec les mêmes arguments que [tex]\sum_{p=1}^k E(X_{m^2+p}^2)+E(\sum_{i,j=1, i\neq j}^k X_{m^2+i}X_{m^2+j})=0[/tex], et tout serait nul...

Bref, qu'est-ce qui ne va pas ?

Dernière modification par Vincent62 (07-06-2022 11:26:43)

Hors ligne

#6 07-06-2022 11:53:58

Fred
Administrateur
Inscription : 26-09-2005
Messages : 7 340

Re : Probabilités et inégalités

Bonjour Vincent,

  Je ne vais pas lire ce que tu as écrit, car tu n'as pas du tout tenu compte de ce que Richadam et moi avons écrit :

les variables aléatoires sont indépendantes, cela simplifie le calcul de la variance

F.

Hors ligne

#7 07-06-2022 14:09:45

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Re : Probabilités et inégalités

Oui, en effet. J'ai zappé le terme "variance".

Bref, les variables [tex](X_n)[/tex] étant indépendantes, on obtient que :

[tex]P(|L_m^{(k)}|\ge m^2\epsilon)\le \frac{V(X_{m^2+1})+...+V(X_{m^2+k})}{m^4 \epsilon^2}[/tex].

Pour le numérateur, on pourrait majorer par le nombre de termes (k variant de [tex]1[/tex] à [tex]2m+1[/tex]) multiplié par le plus grand terme de la somme.
On aurait alors le facteur [tex](2m+1)[/tex]. Par contre, je ne sais pas déterminer le plus grand terme de cette somme.
Reste encore à trouver le lien avec [tex]E(X_1^2)[/tex].

Dernière modification par Vincent62 (07-06-2022 14:10:18)

Hors ligne

#8 07-06-2022 14:45:29

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Re : Probabilités et inégalités

Je mets mes idées ici...

Comme les variables sont indépendantes, on a que [tex]V(X_1)=E(X_1^2)-E^2(X_1)=E(X_1^2)[/tex].

L'inégalité à démontrer est donc : pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex], on a [tex]P\big(|L_m^{(k)}|\ge m^2 \epsilon\big)\le \frac{(2m+1)V(X_1)}{m^4\epsilon^2}[/tex] avec [tex]L_m^{(k)}=X_{m^2+1}+...+X_{m^2+k}[/tex].

Du coup, la question serait : pourquoi a-t-on : [tex]V(X_{m^2+1})+...+V(X_{m^2+k})\le (2m+1)V(X_1)[/tex] ?

Puisque [tex](2m+1)[/tex] est le nombre de termes, cela revient à comprendre pourquoi [tex]V(X_1)[/tex] est le plus grand des termes entre tous les [tex]V(X_{m^2+k})[/tex], pour [tex]m\ge 1[/tex] et [tex]1\le k\le 2m+1[/tex].

J'espère ne pas avoir trop divagué !

Dernière modification par Vincent62 (07-06-2022 18:37:03)

Hors ligne

#9 07-06-2022 20:15:11

Fred
Administrateur
Inscription : 26-09-2005
Messages : 7 340

Re : Probabilités et inégalités

Relis ton énoncé! Tes variables sont identiquement distribuées. En particulier, elles ont même espérance, même variance, etc....

Hors ligne

#10 08-06-2022 06:14:56

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Re : Probabilités et inégalités

Bonjour Fred,

Effectivement, du coup ça devient évident...

Hors ligne

#11 13-06-2022 14:45:54

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Re : Probabilités et inégalités

Bonjour,

Je reviens à la charge avec la suite de ce bel exercice...
On demande de montrer que :
[tex]\big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)\subset \bigcup_{k=1}^{2m+1}(|L_m^{(k)}|\ge m^2\epsilon)[/tex].

Voilà ce que je propose.
Soit [tex]m\ge 1[/tex]. Supposons que [tex]L_m\in \big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)[/tex].

On a donc que [tex]\sup_{1\le k\le 2m+1}|L_m^{(k)}|\ge m^2\epsilon[/tex]. Par définition de la borne supérieure, [tex]\forall \delta>0[/tex], [tex]\exists k_0\in [1;2m+1]\cap \mathbb{N}[/tex] tel que [tex]\sup_{1\le k\le 2m+1}|L_m^{(k)}|-\delta <|L_m^{(k_0)}|<\sup_{1\le k\le 2m+1}|L_m^{(k)}|[/tex].

Ainsi, [tex]\sup_{1\le k\le 2m+1}|L_m^{(k)}|-\delta\ge m^2\epsilon-\delta[/tex] et donc [tex]|L_m^{(k_0)}|>m^2\epsilon-\delta[/tex].

Cette relation étant valable pour tout [tex]\delta >0[/tex], on en déduit qu'il existe [tex]k_0\in [1;2m+1]\cap \mathbb{N}[/tex] tel que [tex]|L_m^{(k_0)}|\ge m^2\epsilon[/tex], d'où le résultat (à une rédaction près).

Voilà, qu'en pensez-vous ?

Merci !

Hors ligne

#12 13-06-2022 16:28:31

Fred
Administrateur
Inscription : 26-09-2005
Messages : 7 340

Re : Probabilités et inégalités

Bonjour,

Vincent62 a écrit :

Bonjour,


Soit [tex]m\ge 1[/tex]. Supposons que [tex]L_m\in \big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)[/tex].

Cette phrase n'a aucun sens. A gauche du symbole $\in$, tu as une variable aléatoire, donc une fonction. A droite, tu as un événement, donc un ensemble, qui est contenu dans l'ensemble de définition commun à toutes tes fonctions. Qu'est-ce que ça veut dire qu'une fonction appartient à une partie de son ensemble de définition????

En vérité, il ne faut pas ici se laisser noyau par le vocabulaire probabiliste. Il s'agit d'un exercice assez simple sur les fonctions.
Si on traduit ce que tu dois démontrer, c'est que si tu as $N$ (ici $2m+1$) fonctions définies sur un même ensemble $\Omega$, si tu choisis $\omega\in\Omega$, et si le sup de ces fonctions évalué en $\omega$ est plus grand que $\delta$ (ici $m^2\epsilon$), il y a une de ces fonctions dont la valeur en $\omega$ est plus grande que $\delta$.

F.

Hors ligne

#13 13-06-2022 18:30:17

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Re : Probabilités et inégalités

Je vois Fred, merci.
Donc il n'y a finalement rien à démontrer, c'est simplement l'application de la définition du sup...

Hors ligne

#14 16-06-2022 12:17:42

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Re : Probabilités et inégalités

Bonjour,

Je termine l'exercice.

J'obtiens donc, en utilisant l'inclusion précédente, que :

[tex]P\big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)\le \frac{(2m+1)^2E(X_1^2)}{m^4\epsilon^2}[/tex].

On demande de montrer que [tex]\frac{S_{m^2}+\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\to 0[/tex] presque sûrement lorsque [tex]m\to +\infty[/tex].

J'avais déjà montré que [tex]\big(\frac{S_{m^2}}{m^2}\big)\to 0[/tex] presque sûrement lorsque [tex]m\to +\infty[/tex].

J'avais procédé ainsi...
D’après l’inégalité de Bienaymé-Tchebychev, on a :

[tex]P\big(|\frac{S_{m^2}}{m^2}-E\big(\frac{S_{m^2}}{m^2}\big)|\ge t\big)\le \frac{V\big(\frac{S_{m^2}}{m^2}\big)}{t^2}[/tex].

Or, par indépendance des [tex]X_n[/tex], on obtient (après quelques étapes de calcul) que [tex]E\big(\frac{S_{m^2}}{m^2}\big)=0[/tex] et par ditribution identique des [tex]X_n[/tex], il vient que [tex]V(\big(\frac{S_{m^2}}{m^2}\big))=\frac{1}{m^4}V(S_{m^2})=\frac{1}{m^4}=kV(X_{m^2+1})=kE(X^2_{m^2+1})=kE(X_1^2)[/tex].

Finalement, [tex]P(|\frac{S_{m^2}}{m^2}|\ge t)\le \frac{kE(X_1^2}{m^4t^2}\to 0[/tex] lorsque [tex]m\to +\infty[/tex].

Qu'en pensez-vous ?

Merci !

Hors ligne

#15 16-06-2022 23:34:07

Fred
Administrateur
Inscription : 26-09-2005
Messages : 7 340

Re : Probabilités et inégalités

Re-

Là, tu ne t'intéresses pas à la convergence presque sûre, mais à la convergence en probabilité....

F.

Hors ligne

#16 17-06-2022 02:50:51

Vincent62
Membre
Inscription : 26-05-2022
Messages : 314

Re : Probabilités et inégalités

Bonjour Fred,

De ce que je comprends du but de cet exercice, c'est démontrer un cas particulier de la loi forte des grands nombres, car ici on ne suppose pas que [tex]E[X_1]<+\infty[/tex].

Ici, pour démontrer la convergence presque sûrement vers [tex]0[/tex], on demande d'utiliser l'inégalité de Bienaymé-Tchebychev, d'où mon raisonnement.

J'ai démontré que [tex](\frac{S_{m^2}}{m^2})[/tex] converge presque sûrement vers 0 équivaut à [tex]P(\forall_{M\in \mathbb{N}}\cup_{m\ge M}\{|\frac{S_{m^2}}{m^2}|\ge \epsilon\})=0[/tex].

En effet, [tex](\frac{S_{m^2}}{m^2})[/tex] converge presque sûrement vers 0 équivaut à [tex]\forall \epsilon >0, \exists M\in \mathbb{N}, |\frac{S_{m^2}}{m^2}|\le \epsilon[/tex].

Il y a forcément un truc faux car la convergence en probabilité n'implique pas celle presque sûre.

Dernière modification par Vincent62 (17-06-2022 06:13:15)

Hors ligne

#17 13-01-2026 12:29:16

johnon mikes
Invité

Re : Probabilités et inégalités

Bonsoir !

Votre raisonnement est parfaitement correct et vous êtes sur la bonne voie.
Voici l'analyse de vos points :
Espérance : Comme les $X_n$ sont centrées ($E(X_n) = 0$), vous avez bien $E(L_m^{(k)}) = 0$ par linéarité.

Variance : Puisque les variables sont indépendantes, la variance de la somme est la somme des variances :
$$V(L_m^{(k)}) = \sum_{j=1}^{k} V(X_{m^2+j}) = k \cdot E(X_1^2)$$

Inégalité de Bienaymé-Tchebychev :
En l'appliquant à $L_m^{(k)}$ avec le seuil $m^2\epsilon$, on obtient :



[EDIT@Yoshi Modérateur]
Intervention malheureuse de ma part qui a fait sauter la fin en même temps que le lien parfaitement incongru (Publicité déguisée : violation de nos Règles de fonctionnement...
Vu ce qui précédait je me limite à un avertissement..

Dernière modification par yoshi (13-01-2026 15:35:33)

Réponse rapide

Veuillez composer votre message et l'envoyer
Nom (obligatoire)

E-mail (obligatoire)

Message (obligatoire)

Programme anti-spam : Afin de lutter contre le spam, nous vous demandons de bien vouloir répondre à la question suivante. Après inscription sur le site, vous n'aurez plus à répondre à ces questions.

Quel est le résultat de l'opération suivante (donner le résultat en chiffres)?
quatre-vingt seize moins soixante
Système anti-bot

Faites glisser le curseur de gauche à droite pour activer le bouton de confirmation.

Attention : Vous devez activer Javascript dans votre navigateur pour utiliser le système anti-bot.

Pied de page des forums