Espérance conditionnelle par rapport à une v.a
Espérance conditionnelle par rapport à une v.a
Bonsoir,
J'étais en train de relire mes cours de début d'année quand je suis tombé sur une notion que j'ai un peu de mal à comprendre : l'espérance conditionnelle sachant une v.a.
La définition que j'ai est la suivante : On considère deux variables aléatoires discrètes à valeurs réelles $ X $ et $ Y $ définies sur un espace probabilisé $ (\Omega , \mathcal{A} , \mathbb{P} ) $. Si on pose $ \phi : y \mapsto \mathbb{E}(X \mid Y = y) $ alors $ \mathbb{E}(X \mid Y) $ est la variable aléatoire définie pour $ \omega \in \Omega $ par $ \mathbb{E}(X \mid Y)(\omega) = \phi(Y(\omega)) $.
Je pense que ce qui me pose problème c'est de devoir parler de l'évènement $ \left(Y = Y(\omega)\right) $, enfin je sais ce dont il s'agit mais j'ai un peu de mal à comprendre le sens de cette définition ...
Quelqu'un pourrait-il m'en parler afin de m'éclaircir ?
J'étais en train de relire mes cours de début d'année quand je suis tombé sur une notion que j'ai un peu de mal à comprendre : l'espérance conditionnelle sachant une v.a.
La définition que j'ai est la suivante : On considère deux variables aléatoires discrètes à valeurs réelles $ X $ et $ Y $ définies sur un espace probabilisé $ (\Omega , \mathcal{A} , \mathbb{P} ) $. Si on pose $ \phi : y \mapsto \mathbb{E}(X \mid Y = y) $ alors $ \mathbb{E}(X \mid Y) $ est la variable aléatoire définie pour $ \omega \in \Omega $ par $ \mathbb{E}(X \mid Y)(\omega) = \phi(Y(\omega)) $.
Je pense que ce qui me pose problème c'est de devoir parler de l'évènement $ \left(Y = Y(\omega)\right) $, enfin je sais ce dont il s'agit mais j'ai un peu de mal à comprendre le sens de cette définition ...
Quelqu'un pourrait-il m'en parler afin de m'éclaircir ?
MVA
Re: Espérance conditionnelle par rapport à une v.a
Je ne suis pas sûr de bien comprendre le sens de ta question. Je pense qu'on t'a donné la définition suivante:
$
\phi: y \longmapsto \mathbb{E}(X | Y = y) = \frac{\mathbb{E}\left(X \mathbf{1}_{\{Y = y\}} \right)}{\mathbb{P}(Y = y)} = \sum_{x \in X(\Omega)} x \mathbb{P}(X = x | Y = y)
$
Cette fonction $ \phi: Y(\Omega) \longrightarrow \mathbb{R} $ est une fonction mesurable (car $ Y(\Omega) $ est muni de la tribu de toutes les parties de $ Y(\Omega) $, c'est sous-entendu par le fait que $ Y $ soit discrète), or la composition de deux fonctions mesurables est mesurable donc $ \phi \circ Y: \Omega \longrightarrow \mathbb{R} $ est mesurable, c'est donc ce qu'on appelle une variable aléatoire, et qu'on note de façon purement formelle $ \mathbb{E}(X | Y) $.
$
\phi: y \longmapsto \mathbb{E}(X | Y = y) = \frac{\mathbb{E}\left(X \mathbf{1}_{\{Y = y\}} \right)}{\mathbb{P}(Y = y)} = \sum_{x \in X(\Omega)} x \mathbb{P}(X = x | Y = y)
$
Cette fonction $ \phi: Y(\Omega) \longrightarrow \mathbb{R} $ est une fonction mesurable (car $ Y(\Omega) $ est muni de la tribu de toutes les parties de $ Y(\Omega) $, c'est sous-entendu par le fait que $ Y $ soit discrète), or la composition de deux fonctions mesurables est mesurable donc $ \phi \circ Y: \Omega \longrightarrow \mathbb{R} $ est mesurable, c'est donc ce qu'on appelle une variable aléatoire, et qu'on note de façon purement formelle $ \mathbb{E}(X | Y) $.
ENS Lyon
Ingénieur de recherche
Ingénieur de recherche
Re: Espérance conditionnelle par rapport à une v.a
Oui je comprends pourquoi c'est une variable aléatoire, ce que je ne comprends pas c'est ce qu'elle représente. Alors que je n'ai pas de problème concernant l'espérance sachant un événement ...
MVA
Re: Espérance conditionnelle par rapport à une v.a
Elle permet de représenter une sorte de moyenne selon la réalisation de tel ou tel événement.
Exemple : tu tires un premier dé et tu obtiens un nombre X entre 1 et 6
Puis tu tires X fois le même dé et tu fais la somme des résultats que tu appelles Y.
Il est alors facile de calculer l’esperance de Y sachant X (pour en déduire l’espérance de X par exemple)
Exemple : tu tires un premier dé et tu obtiens un nombre X entre 1 et 6
Puis tu tires X fois le même dé et tu fais la somme des résultats que tu appelles Y.
Il est alors facile de calculer l’esperance de Y sachant X (pour en déduire l’espérance de X par exemple)
Professeur de maths MP Lycée Sainte-Geneviève
Re: Espérance conditionnelle par rapport à une v.a
Le problème de savoir ce qu'elle représente "physiquement" est autrement plus difficile en effet
L'idée c'est que $ \mathbb{E}(X|Y) $ représente la valeur moyenne de $ X $ si tu connais la réalisation de $ Y $. Un exemple extrême est le cas où $ X $ et $ Y $ sont indépendantes. Si tu connais la réalisation de $ Y $, ça ne t'apporte aucune information sur une réalisation de $ X $. Donc tu n'auras pas non plus d'info supplémentaire sur la moyenne de $ X $ et tu auras $ \mathbb{E}(X|Y) = \mathbb{E}(X) $, autrement dit une v.a. constante (exercice: le prouver mathématiquement).
Un autre exemple extrême: $ X = h(Y) $ où $ h $ est une fonction mesurable. Alors tu as $ \mathbb{E}(h(Y)|Y) = h(Y) $, car si tu connais la réalisation de $ Y $, alors tu connais évidemment la réalisation de $ h(Y) $ donc là il n'y a même pas d'histoire de moyenne.
Un exemple moins extrême: encore avec deux variables indépendantes $ X $ et $ Y $ et cette fois-ci identiquement distribuées, et tu cherches à calculer $ \mathbb{E}(X | X + Y) $. Donc disons tu peux demander à quelqu'un de lancer deux dés $ X $ et $ Y $, et il ne peut te donner que la somme des deux dés $ X + Y $. Et toi tu aimerais savoir combien en moyenne vaut le jet du premier dé, sachant que tu connais la somme des deux. Comme les dés sont identiquement distribués et indépendants, si leur somme fait $ X + Y $ alors en moyenne le jet du premier dé (et aussi du deuxième par symétrie) sera $ \frac{X + Y}{2} $. Donc tu as $ \mathbb{E}(X | X + Y) = \frac{X + Y}{2} = \mathbb{E}(Y | X + Y) $ (exercice: le prouver, c'est un peu plus dur que le premier exo).
L'idée c'est que $ \mathbb{E}(X|Y) $ représente la valeur moyenne de $ X $ si tu connais la réalisation de $ Y $. Un exemple extrême est le cas où $ X $ et $ Y $ sont indépendantes. Si tu connais la réalisation de $ Y $, ça ne t'apporte aucune information sur une réalisation de $ X $. Donc tu n'auras pas non plus d'info supplémentaire sur la moyenne de $ X $ et tu auras $ \mathbb{E}(X|Y) = \mathbb{E}(X) $, autrement dit une v.a. constante (exercice: le prouver mathématiquement).
Un autre exemple extrême: $ X = h(Y) $ où $ h $ est une fonction mesurable. Alors tu as $ \mathbb{E}(h(Y)|Y) = h(Y) $, car si tu connais la réalisation de $ Y $, alors tu connais évidemment la réalisation de $ h(Y) $ donc là il n'y a même pas d'histoire de moyenne.
Un exemple moins extrême: encore avec deux variables indépendantes $ X $ et $ Y $ et cette fois-ci identiquement distribuées, et tu cherches à calculer $ \mathbb{E}(X | X + Y) $. Donc disons tu peux demander à quelqu'un de lancer deux dés $ X $ et $ Y $, et il ne peut te donner que la somme des deux dés $ X + Y $. Et toi tu aimerais savoir combien en moyenne vaut le jet du premier dé, sachant que tu connais la somme des deux. Comme les dés sont identiquement distribués et indépendants, si leur somme fait $ X + Y $ alors en moyenne le jet du premier dé (et aussi du deuxième par symétrie) sera $ \frac{X + Y}{2} $. Donc tu as $ \mathbb{E}(X | X + Y) = \frac{X + Y}{2} = \mathbb{E}(Y | X + Y) $ (exercice: le prouver, c'est un peu plus dur que le premier exo).
ENS Lyon
Ingénieur de recherche
Ingénieur de recherche
Re: Espérance conditionnelle par rapport à une v.a
Je dirais que $ \mathbb{E}(Y \mid X) = \frac{7}{2}X $ car en moyenne le lancer d'un dé vaut $ \frac{7}{2} $, donc s'il y'en a $ X $, on multiplie par $ X $ ? Mais comment la calculer formellement ? J'ai essayé de calculer $ \mathbb{E}(Y \mid X = k) $ avec $ k \in \lbrace 1,...,6 \rbrace $ dans le but de remplacer $ k $ par $ X $ à la fin mais il y a une probabilité que je n'arrive pas à calculer ...JeanN a écrit : ↑01 nov. 2017 21:42Elle permet de représenter une sorte de moyenne selon la réalisation de tel ou tel événement.
Exemple : tu tires un premier dé et tu obtiens un nombre X entre 1 et 6
Puis tu tires X fois le même dé et tu fais la somme des résultats que tu appelles Y.
Il est alors facile de calculer l’esperance de Y sachant X (pour en déduire l’espérance de X par exemple)
On montre que $ \mathbb{E}(X \mid Y = y) = \mathbb{E}(X) $ pour tout $ y \in Y(\Omega) $ en utilisant l'indépendance, ou devrais-je remplacer $ y $ par $ Y(\omega) $ et le faire pour tout $ \omega \in \Omega $ car après tout $ \mathbb{E}(X|Y) $ est une fonction de $ \omega $ ... (mais ça revient au même)darklol a écrit : ↑01 nov. 2017 22:00L'idée c'est que $ \mathbb{E}(X|Y) $ représente la valeur moyenne de $ X $ si tu connais la réalisation de $ Y $. Un exemple extrême est le cas où $ X $ et $ Y $ sont indépendantes. Si tu connais la réalisation de $ Y $, ça ne t'apporte aucune information sur une réalisation de $ X $. Donc tu n'auras pas non plus d'info supplémentaire sur la moyenne de $ X $ et tu auras $ \mathbb{E}(X|Y) = \mathbb{E}(X) $, autrement dit une v.a. constante (exercice: le prouver mathématiquement).
Pareil qu'avec l'exemple de JeanN j'ai du mal à calculer cela ...darklol a écrit : ↑01 nov. 2017 22:00Un exemple moins extrême: encore avec deux variables indépendantes $ X $ et $ Y $ et cette fois-ci identiquement distribuées, et tu cherches à calculer $ \mathbb{E}(X | X + Y) $. Donc disons tu peux demander à quelqu'un de lancer deux dés $ X $ et $ Y $, et il ne peut te donner que la somme des deux dés $ X + Y $. Et toi tu aimerais savoir combien en moyenne vaut le jet du premier dé, sachant que tu connais la somme des deux. Comme les dés sont identiquement distribués et indépendants, si leur somme fait $ X + Y $ alors en moyenne le jet du premier dé (et aussi du deuxième par symétrie) sera $ \frac{X + Y}{2} $. Donc tu as $ \mathbb{E}(X | X + Y) = \frac{X + Y}{2} = \mathbb{E}(Y | X + Y) $ (exercice: le prouver, c'est un peu plus dur que le premier exo).
Edit : toutes ces égalités sont des égalités presque sûres d'ailleurs (je n'avais pas fait gaffe)
MVA
Re: Espérance conditionnelle par rapport à une v.a
Pour l'exemple de JeanN, voici comment la calculer formellement: si tu notes $ (D_i)_{i \in \mathbb{N}} $ une suite de v.a. i.i.d. selon la loi uniforme sur $ [\![1,6]\!] $ (donc tes lancers de dé) et indépendantes de $ X $ (ton premier lancer de dé), tu as:
$ \displaystyle Y = \sum_{k = 1}^X D_k = \sum_{i=1}^6 \sum_{k=1}^i D_k \mathbf{1}_{\{X = i\}} $
Donc par linéarité de l'espérance conditionnelle:
$ \displaystyle \mathbb{E}(Y|X) = \sum_{i=1}^6 \sum_{k=1}^i \mathbb{E}(D_k \mathbf{1}_{\{X = i\}} | X) $
si tu connais $ X $, alors $ \mathbf{1}_{\{X=i\}} $ peut-être vu comme une constante et tu as:
$ \mathbb{E}(D_k \mathbf{1}_{\{X = i\}} | X) = \mathbf{1}_{\{X = i\}} \mathbb{E}(D_k | X) $
puis comme $ D_k $ est indépendante de $ X $ tu as $ \mathbb{E}(D_k | X) = \mathbb{E}(D_k) = \frac{7}{2} $ et la conclusion vient immédiatement.
Quand j'ai dit que $ \mathbf{1}_{\{X=i\}} $ pouvait être vu comme une constante, effectivement la formulation n'était pas rigoureuse, mais on peut montrer le théorème suivant: pour toutes variables aléatoires $ X, Y $ et toute fonction mesurable $ h $, on a:
$
\mathbb{E}(h(X)Y|X) = h(X) \mathbb{E}(Y|X)
$
(ça généralise le deuxième exemple que je t'avais donné).
Pour mon exemple avec $ \mathbb{E}(X|X+Y) $, c'est un tout petit peu plus calculatoire si tu passes par des calculs comme ci-dessus (mais faisable). L'approche la plus simple que je connaisse est la suivante: montre plus généralement que si $ X,Y,Z $ sont trois v.a. (discrètes, à valeurs réelles) telles que $ (X,Z) $ a la même loi que $ (Y,Z) $, alors $ \mathbb{E}(X|Z) = \mathbb{E}(Y|Z) $. C'est quasi immédiat en jouant avec les définitions. Ensuite tu l'appliques à mon exemple en remarquant que $ (X, X + Y) $ a même loi que $ (Y, X + Y) $, grâce à l'indépendance et le fait qu'elles aient la même distribution.
$ \displaystyle Y = \sum_{k = 1}^X D_k = \sum_{i=1}^6 \sum_{k=1}^i D_k \mathbf{1}_{\{X = i\}} $
Donc par linéarité de l'espérance conditionnelle:
$ \displaystyle \mathbb{E}(Y|X) = \sum_{i=1}^6 \sum_{k=1}^i \mathbb{E}(D_k \mathbf{1}_{\{X = i\}} | X) $
si tu connais $ X $, alors $ \mathbf{1}_{\{X=i\}} $ peut-être vu comme une constante et tu as:
$ \mathbb{E}(D_k \mathbf{1}_{\{X = i\}} | X) = \mathbf{1}_{\{X = i\}} \mathbb{E}(D_k | X) $
puis comme $ D_k $ est indépendante de $ X $ tu as $ \mathbb{E}(D_k | X) = \mathbb{E}(D_k) = \frac{7}{2} $ et la conclusion vient immédiatement.
Quand j'ai dit que $ \mathbf{1}_{\{X=i\}} $ pouvait être vu comme une constante, effectivement la formulation n'était pas rigoureuse, mais on peut montrer le théorème suivant: pour toutes variables aléatoires $ X, Y $ et toute fonction mesurable $ h $, on a:
$
\mathbb{E}(h(X)Y|X) = h(X) \mathbb{E}(Y|X)
$
(ça généralise le deuxième exemple que je t'avais donné).
Pour mon exemple avec $ \mathbb{E}(X|X+Y) $, c'est un tout petit peu plus calculatoire si tu passes par des calculs comme ci-dessus (mais faisable). L'approche la plus simple que je connaisse est la suivante: montre plus généralement que si $ X,Y,Z $ sont trois v.a. (discrètes, à valeurs réelles) telles que $ (X,Z) $ a la même loi que $ (Y,Z) $, alors $ \mathbb{E}(X|Z) = \mathbb{E}(Y|Z) $. C'est quasi immédiat en jouant avec les définitions. Ensuite tu l'appliques à mon exemple en remarquant que $ (X, X + Y) $ a même loi que $ (Y, X + Y) $, grâce à l'indépendance et le fait qu'elles aient la même distribution.
ENS Lyon
Ingénieur de recherche
Ingénieur de recherche
Re: Espérance conditionnelle par rapport à une v.a
Ah d'accord ! Bon dans l'ensemble ça va, je devrais m'y faire.
Je pense que ça ira mieux demain, j'essayerai de calculer $ \mathbb{E}(X \mid X + Y) $ en faisant comme tu as fait avec l'exemple de JeanN et je vous dirai.
Je pense que ça ira mieux demain, j'essayerai de calculer $ \mathbb{E}(X \mid X + Y) $ en faisant comme tu as fait avec l'exemple de JeanN et je vous dirai.
MVA