Forum de mathématiques - Bibm@th.net
Vous n'êtes pas identifié(e).
- Contributions : Récentes | Sans réponse
Pages : 1
#1 06-06-2022 18:11:43
- Vincent62
- Membre
- Inscription : 26-05-2022
- Messages : 314
Probabilités et inégalités
Bonsoir,
Je considère [tex](X_n)_n[/tex] une suite de variables aléatoires réelles idépendantes et identiquement distribuées telles que [tex]E(X_n)=0[/tex] pour tout [tex]n[/tex] et [tex]E(X_1^2)<+\infty[/tex]. Pour tout [tex]n\ge 1[/tex], on pose [tex]S_n=\sum_{k=1}^n X_k[/tex].
J'ai montré que la suite de variables aléatoires [tex]\big(\frac{S_m^2}{m^2}\big)_n[/tex] converge presque sûrement vers [tex]0[/tex], en utilisant l'inégalité de Bienaymé-Tchebychev.
Par contre, ensuite, on demande de montrer que pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex], on a [tex]P\big(|L_m^{(k)}|\ge m^2 \epsilon\big)\le \frac{(2m+1)E(X_1^2)}{m^4\epsilon^2}[/tex] avec [tex]L_m^{(k)}=X_{m^2+1}+...+X_{m^2+k}[/tex].
J'ai donc pensé à utiliser l'inégalité de Bienaymé-Tchebychev, encore, appliquée à la variable aléatoire [tex]L_m^{(k)}[/tex].
Dans cette inégalité, on aura à déterminer [tex]E(L_m^{(k)})[/tex], donc autant le faire tout de suite, ou en tout cas voir ce qu'il se passe.
Par linéarité de l'espérance, on a donc, pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex] :
[tex]E(L_m^{(k)})=E(X_{m^2+1})+...+E(X_{m^2+k})[/tex].
Et là, j'ai bien envie de dire que [tex]E(L_m^{(k)})=0[/tex], car pour tout [tex]n[/tex], [tex]E(X_n)=0[/tex].
Egalement, dans l'inégalité de Bienaymé-Tchebychev, j'aurais à calculer [tex]V(L_m^{(k)})=E((L_m^{(k)})^2)-E(L_m^{(k)})^2[/tex]...
Qu'en pensez-vous ?
Merci !
Hors ligne
#3 07-06-2022 08:50:03
Re : Probabilités et inégalités
Bonsoir,
Je considère [tex](X_n)_n[/tex] une suite de variables aléatoires réelles idépendantes et identiquement distribuées telles que [tex]E(X_n)=0[/tex] pour tout [tex]n[/tex] et [tex]E(X_1^2)<+\infty[/tex]. Pour tout [tex]n\ge 1[/tex], on pose [tex]S_n=\sum_{k=1}^n X_k[/tex].
J'ai montré que la suite de variables aléatoires [tex]\big(\frac{S_m^2}{m^2}\big)_n[/tex] converge presque sûrement vers [tex]0[/tex], en utilisant l'inégalité de Bienaymé-Tchebychev.
Par contre, ensuite, on demande de montrer que pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex], on a [tex]P\big(|L_m^{(k)}|\ge m^2 \epsilon\big)\le \frac{(2m+1)E(X_1^2)}{m^4\epsilon^2}[/tex] avec [tex]L_m^{(k)}=X_{m^2+1}+...+X_{m^2+k}[/tex].
J'ai donc pensé à utiliser l'inégalité de Bienaymé-Tchebychev, encore, appliquée à la variable aléatoire [tex]L_m^{(k)}[/tex].
Dans cette inégalité, on aura à déterminer [tex]E(L_m^{(k)})[/tex], donc autant le faire tout de suite, ou en tout cas voir ce qu'il se passe.
Par linéarité de l'espérance, on a donc, pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex] :[tex]E(L_m^{(k)})=E(X_{m^2+1})+...+E(X_{m^2+k})[/tex].
Et là, j'ai bien envie de dire que [tex]E(L_m^{(k)})=0[/tex], car pour tout [tex]n[/tex], [tex]E(X_n)=0[/tex].
Egalement, dans l'inégalité de Bienaymé-Tchebychev, j'aurais à calculer [tex]V(L_m^{(k)})=E((L_m^{(k)})^2)-E(L_m^{(k)})^2[/tex]...
Qu'en pensez-vous ?
Merci !
vos variables aléatoires sont indépendantes, cela simplifiera le calcul de la variance.
Hors ligne
#5 07-06-2022 10:47:16
- Vincent62
- Membre
- Inscription : 26-05-2022
- Messages : 314
Re : Probabilités et inégalités
aAlors, voilà où j'en suis concernant le calcul de [tex]V(L_m^{(k)})[/tex].
On a : [tex]V(L_m^{(k)})=E((L_m^{(k)})^2)-(E(L_m^{(k)}))^2=E((L_m^{(k)})^2)[/tex].
Or, [tex]E((L_m^{(k)})^2)=E((X_{m^2+1}+...+X_{m^2+k})^2)=E\big(X^2_{m^2+1}+...+X^2_{m^2+k}+\sum_{i,j=1, i\neq j}^k X_{m^2+i}X_{m^2+j}\big)=\sum_{p=1}^k E(X_{m^2+p}^2)+E(\sum_{i,j=1, i\neq j}^k X_{m^2+i}X_{m^2+j})[/tex].
Si je zoome, j'ai, pour tout [tex]p[/tex], [tex]E(X^2_{m^2+p})=E(X_{m^2+p}X_{m^2+p})=E(X_{m^2+p})E(X_{m^2+p})=0[/tex] car les [tex]X_n[/tex] sont indépendantes pour tout [tex]n\ge 1[/tex].
Mais du coup, on aurait aussi avec les mêmes arguments que [tex]\sum_{p=1}^k E(X_{m^2+p}^2)+E(\sum_{i,j=1, i\neq j}^k X_{m^2+i}X_{m^2+j})=0[/tex], et tout serait nul...
Bref, qu'est-ce qui ne va pas ?
Dernière modification par Vincent62 (07-06-2022 11:26:43)
Hors ligne
#6 07-06-2022 11:53:58
- Fred
- Administrateur
- Inscription : 26-09-2005
- Messages : 7 340
Re : Probabilités et inégalités
Bonjour Vincent,
Je ne vais pas lire ce que tu as écrit, car tu n'as pas du tout tenu compte de ce que Richadam et moi avons écrit :
les variables aléatoires sont indépendantes, cela simplifie le calcul de la variance
F.
Hors ligne
#7 07-06-2022 14:09:45
- Vincent62
- Membre
- Inscription : 26-05-2022
- Messages : 314
Re : Probabilités et inégalités
Oui, en effet. J'ai zappé le terme "variance".
Bref, les variables [tex](X_n)[/tex] étant indépendantes, on obtient que :
[tex]P(|L_m^{(k)}|\ge m^2\epsilon)\le \frac{V(X_{m^2+1})+...+V(X_{m^2+k})}{m^4 \epsilon^2}[/tex].
Pour le numérateur, on pourrait majorer par le nombre de termes (k variant de [tex]1[/tex] à [tex]2m+1[/tex]) multiplié par le plus grand terme de la somme.
On aurait alors le facteur [tex](2m+1)[/tex]. Par contre, je ne sais pas déterminer le plus grand terme de cette somme.
Reste encore à trouver le lien avec [tex]E(X_1^2)[/tex].
Dernière modification par Vincent62 (07-06-2022 14:10:18)
Hors ligne
#8 07-06-2022 14:45:29
- Vincent62
- Membre
- Inscription : 26-05-2022
- Messages : 314
Re : Probabilités et inégalités
Je mets mes idées ici...
Comme les variables sont indépendantes, on a que [tex]V(X_1)=E(X_1^2)-E^2(X_1)=E(X_1^2)[/tex].
L'inégalité à démontrer est donc : pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex], on a [tex]P\big(|L_m^{(k)}|\ge m^2 \epsilon\big)\le \frac{(2m+1)V(X_1)}{m^4\epsilon^2}[/tex] avec [tex]L_m^{(k)}=X_{m^2+1}+...+X_{m^2+k}[/tex].
Du coup, la question serait : pourquoi a-t-on : [tex]V(X_{m^2+1})+...+V(X_{m^2+k})\le (2m+1)V(X_1)[/tex] ?
Puisque [tex](2m+1)[/tex] est le nombre de termes, cela revient à comprendre pourquoi [tex]V(X_1)[/tex] est le plus grand des termes entre tous les [tex]V(X_{m^2+k})[/tex], pour [tex]m\ge 1[/tex] et [tex]1\le k\le 2m+1[/tex].
J'espère ne pas avoir trop divagué !
Dernière modification par Vincent62 (07-06-2022 18:37:03)
Hors ligne
#11 13-06-2022 14:45:54
- Vincent62
- Membre
- Inscription : 26-05-2022
- Messages : 314
Re : Probabilités et inégalités
Bonjour,
Je reviens à la charge avec la suite de ce bel exercice...
On demande de montrer que :
[tex]\big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)\subset \bigcup_{k=1}^{2m+1}(|L_m^{(k)}|\ge m^2\epsilon)[/tex].
Voilà ce que je propose.
Soit [tex]m\ge 1[/tex]. Supposons que [tex]L_m\in \big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)[/tex].
On a donc que [tex]\sup_{1\le k\le 2m+1}|L_m^{(k)}|\ge m^2\epsilon[/tex]. Par définition de la borne supérieure, [tex]\forall \delta>0[/tex], [tex]\exists k_0\in [1;2m+1]\cap \mathbb{N}[/tex] tel que [tex]\sup_{1\le k\le 2m+1}|L_m^{(k)}|-\delta <|L_m^{(k_0)}|<\sup_{1\le k\le 2m+1}|L_m^{(k)}|[/tex].
Ainsi, [tex]\sup_{1\le k\le 2m+1}|L_m^{(k)}|-\delta\ge m^2\epsilon-\delta[/tex] et donc [tex]|L_m^{(k_0)}|>m^2\epsilon-\delta[/tex].
Cette relation étant valable pour tout [tex]\delta >0[/tex], on en déduit qu'il existe [tex]k_0\in [1;2m+1]\cap \mathbb{N}[/tex] tel que [tex]|L_m^{(k_0)}|\ge m^2\epsilon[/tex], d'où le résultat (à une rédaction près).
Voilà, qu'en pensez-vous ?
Merci !
Hors ligne
#12 13-06-2022 16:28:31
- Fred
- Administrateur
- Inscription : 26-09-2005
- Messages : 7 340
Re : Probabilités et inégalités
Bonjour,
Bonjour,
Soit [tex]m\ge 1[/tex]. Supposons que [tex]L_m\in \big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)[/tex].
Cette phrase n'a aucun sens. A gauche du symbole $\in$, tu as une variable aléatoire, donc une fonction. A droite, tu as un événement, donc un ensemble, qui est contenu dans l'ensemble de définition commun à toutes tes fonctions. Qu'est-ce que ça veut dire qu'une fonction appartient à une partie de son ensemble de définition????
En vérité, il ne faut pas ici se laisser noyau par le vocabulaire probabiliste. Il s'agit d'un exercice assez simple sur les fonctions.
Si on traduit ce que tu dois démontrer, c'est que si tu as $N$ (ici $2m+1$) fonctions définies sur un même ensemble $\Omega$, si tu choisis $\omega\in\Omega$, et si le sup de ces fonctions évalué en $\omega$ est plus grand que $\delta$ (ici $m^2\epsilon$), il y a une de ces fonctions dont la valeur en $\omega$ est plus grande que $\delta$.
F.
Hors ligne
#14 16-06-2022 12:17:42
- Vincent62
- Membre
- Inscription : 26-05-2022
- Messages : 314
Re : Probabilités et inégalités
Bonjour,
Je termine l'exercice.
J'obtiens donc, en utilisant l'inclusion précédente, que :
[tex]P\big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)\le \frac{(2m+1)^2E(X_1^2)}{m^4\epsilon^2}[/tex].
On demande de montrer que [tex]\frac{S_{m^2}+\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\to 0[/tex] presque sûrement lorsque [tex]m\to +\infty[/tex].
J'avais déjà montré que [tex]\big(\frac{S_{m^2}}{m^2}\big)\to 0[/tex] presque sûrement lorsque [tex]m\to +\infty[/tex].
J'avais procédé ainsi...
D’après l’inégalité de Bienaymé-Tchebychev, on a :
[tex]P\big(|\frac{S_{m^2}}{m^2}-E\big(\frac{S_{m^2}}{m^2}\big)|\ge t\big)\le \frac{V\big(\frac{S_{m^2}}{m^2}\big)}{t^2}[/tex].
Or, par indépendance des [tex]X_n[/tex], on obtient (après quelques étapes de calcul) que [tex]E\big(\frac{S_{m^2}}{m^2}\big)=0[/tex] et par ditribution identique des [tex]X_n[/tex], il vient que [tex]V(\big(\frac{S_{m^2}}{m^2}\big))=\frac{1}{m^4}V(S_{m^2})=\frac{1}{m^4}=kV(X_{m^2+1})=kE(X^2_{m^2+1})=kE(X_1^2)[/tex].
Finalement, [tex]P(|\frac{S_{m^2}}{m^2}|\ge t)\le \frac{kE(X_1^2}{m^4t^2}\to 0[/tex] lorsque [tex]m\to +\infty[/tex].
Qu'en pensez-vous ?
Merci !
Hors ligne
#16 17-06-2022 02:50:51
- Vincent62
- Membre
- Inscription : 26-05-2022
- Messages : 314
Re : Probabilités et inégalités
Bonjour Fred,
De ce que je comprends du but de cet exercice, c'est démontrer un cas particulier de la loi forte des grands nombres, car ici on ne suppose pas que [tex]E[X_1]<+\infty[/tex].
Ici, pour démontrer la convergence presque sûrement vers [tex]0[/tex], on demande d'utiliser l'inégalité de Bienaymé-Tchebychev, d'où mon raisonnement.
J'ai démontré que [tex](\frac{S_{m^2}}{m^2})[/tex] converge presque sûrement vers 0 équivaut à [tex]P(\forall_{M\in \mathbb{N}}\cup_{m\ge M}\{|\frac{S_{m^2}}{m^2}|\ge \epsilon\})=0[/tex].
En effet, [tex](\frac{S_{m^2}}{m^2})[/tex] converge presque sûrement vers 0 équivaut à [tex]\forall \epsilon >0, \exists M\in \mathbb{N}, |\frac{S_{m^2}}{m^2}|\le \epsilon[/tex].
Il y a forcément un truc faux car la convergence en probabilité n'implique pas celle presque sûre.
Dernière modification par Vincent62 (17-06-2022 06:13:15)
Hors ligne
#17 13-01-2026 12:29:16
- johnon mikes
- Invité
Re : Probabilités et inégalités
Bonsoir !
Votre raisonnement est parfaitement correct et vous êtes sur la bonne voie.
Voici l'analyse de vos points :
Espérance : Comme les $X_n$ sont centrées ($E(X_n) = 0$), vous avez bien $E(L_m^{(k)}) = 0$ par linéarité.
Variance : Puisque les variables sont indépendantes, la variance de la somme est la somme des variances :
$$V(L_m^{(k)}) = \sum_{j=1}^{k} V(X_{m^2+j}) = k \cdot E(X_1^2)$$
Inégalité de Bienaymé-Tchebychev :
En l'appliquant à $L_m^{(k)}$ avec le seuil $m^2\epsilon$, on obtient :
[EDIT@Yoshi Modérateur]
Intervention malheureuse de ma part qui a fait sauter la fin en même temps que le lien parfaitement incongru (Publicité déguisée : violation de nos Règles de fonctionnement...
Vu ce qui précédait je me limite à un avertissement..
Dernière modification par yoshi (13-01-2026 15:35:33)
Pages : 1








