Moi ce qui me gêne c'est l'égalité écrite juste avant ça, la puissance ne passe pas sous l'espérancematmeca_mcf1 a écrit : ↑03 mai 2018 23:26Théorème de convergence dominé. Il est valide pour n'importe quelle mesure, et donc en particulier pour n'importe quelle mesure de probabilité. Mais on sort du programme de prépa.
Convergence en probabilité
Re: Convergence en probabilité
Re: Convergence en probabilité
Les $ X_k $ sont iid, donc pareil pour les $ f(X_k) $K-ter a écrit : ↑03 mai 2018 23:50Moi ce qui me gêne c'est l'égalité écrite juste avant ça, la puissance ne passe pas sous l'espérancematmeca_mcf1 a écrit : ↑03 mai 2018 23:26Théorème de convergence dominé. Il est valide pour n'importe quelle mesure, et donc en particulier pour n'importe quelle mesure de probabilité. Mais on sort du programme de prépa.
The Axiom of Choice is obviously true, the Well-Ordering Principle is obviously false, and nobody knows about Zorn's Lemma. - Jerry Bona
Re: Convergence en probabilité
Oui mais pas les $ (X_1)_{1\leq k\leq n} $bullquies a écrit : ↑03 mai 2018 23:54Les $ X_k $ sont iid, donc pareil pour les $ f(X_k) $K-ter a écrit : ↑03 mai 2018 23:50Moi ce qui me gêne c'est l'égalité écrite juste avant ça, la puissance ne passe pas sous l'espérancematmeca_mcf1 a écrit : ↑03 mai 2018 23:26
Théorème de convergence dominé. Il est valide pour n'importe quelle mesure, et donc en particulier pour n'importe quelle mesure de probabilité. Mais on sort du programme de prépa.
Sinon le même raisonnement prouverait qu'une binomiale divisée par n est une bernouilli
Re: Convergence en probabilité
@prepamath : On peut en effet se débrouiller avec le programme de sup (modulo la définition de la cv en probas)
Souvent (dans les cas simples) on montre une convergence en probas avec l'inégalité de Bienaymé-Chebychev (ex loi faible des grands nombres). Ici nos variables sont d'espérance infinie, pas de chance. Par contre on sait estimer l'espérance des sommes partielles (somme harmonique).
Par ailleurs, le résultat laisse penser que chaque variable pèse en moyenne $ ln(n) $ dans la somme.
Une idée naturelle peut donc être de tronquer les v.a. de maniere à pouvoir appliquer Bienaymé-Chebychev, tout en conservant un poids $ ln(n) $ pour chaque variable, par exemple en posant
$$\widetilde{S_n}=X_1\mathbb{1}_{X_1\leq n} +... +X_n\mathbb{1}_{X_n\leq n}$$
Pour des raisons techniques, on préférera choisir $ \alpha>1 $ à ajuster plus tard et poser :
$$\widetilde{S_n} =X_1\mathbb{1}_{X_1\leq n^{\alpha} } +... +X_n\mathbb{1}_{X_n\leq n^{\alpha} }$$
A partir de là tu devrais pouvoir t'en sortir, en distinguant selon que $ S_n=\widetilde{S_n} $ ou non
Souvent (dans les cas simples) on montre une convergence en probas avec l'inégalité de Bienaymé-Chebychev (ex loi faible des grands nombres). Ici nos variables sont d'espérance infinie, pas de chance. Par contre on sait estimer l'espérance des sommes partielles (somme harmonique).
Par ailleurs, le résultat laisse penser que chaque variable pèse en moyenne $ ln(n) $ dans la somme.
Une idée naturelle peut donc être de tronquer les v.a. de maniere à pouvoir appliquer Bienaymé-Chebychev, tout en conservant un poids $ ln(n) $ pour chaque variable, par exemple en posant
$$\widetilde{S_n}=X_1\mathbb{1}_{X_1\leq n} +... +X_n\mathbb{1}_{X_n\leq n}$$
Pour des raisons techniques, on préférera choisir $ \alpha>1 $ à ajuster plus tard et poser :
$$\widetilde{S_n} =X_1\mathbb{1}_{X_1\leq n^{\alpha} } +... +X_n\mathbb{1}_{X_n\leq n^{\alpha} }$$
A partir de là tu devrais pouvoir t'en sortir, en distinguant selon que $ S_n=\widetilde{S_n} $ ou non
Dernière modification par K-ter le 04 mai 2018 01:28, modifié 2 fois.
Re: Convergence en probabilité
Vous avez entièrement raison. J'ai corrigé le post.
Ancien ENS Cachan (maths) 1999--2003
Enseignant-Chercheur à l'Enseirb-Matmeca (Bordeaux INP) filière matmeca
Les opinions exprimées ci-dessus sont miennes et ne reflètent pas la position officielle de l'école dans laquelle j'enseigne.
Enseignant-Chercheur à l'Enseirb-Matmeca (Bordeaux INP) filière matmeca
Les opinions exprimées ci-dessus sont miennes et ne reflètent pas la position officielle de l'école dans laquelle j'enseigne.
Re: Convergence en probabilité
Il faut tronquer les variables aléatoires (un peu plus précisément que dans un post précédent, $ $$\displaystyle Y_{i}=X_{i}\mathrm{1}_{\{X_{i}\leq i\ln(i)^{1+\varepsilon}\}}$) et se ramener à ce cas par l'alternative "facile" de Borel-Cantelli.
J'ai longtemps cru, dans cet exercice, que la moyenne empirique proprement normalisée convergeait presque surement... Il n'en est rien!
De manière générale, les théorèmes limites en probas sans hypothèses de moment sont difficiles et assez pathologiques (mais c'est intéressant de se documenter sur le sujet!)
J'ai longtemps cru, dans cet exercice, que la moyenne empirique proprement normalisée convergeait presque surement... Il n'en est rien!
De manière générale, les théorèmes limites en probas sans hypothèses de moment sont difficiles et assez pathologiques (mais c'est intéressant de se documenter sur le sujet!)