Page 1 sur 2

Théorème du transfert

Publié : 06 avr. 2009 23:02
par evariste gallois
Bonsoir, aujourd'hui nous avons vu le théorème du transfert dans le cadre des VAR discrètes. J'ai pas tellement bien compris la démonstration. Si quelqu'un pouvait prendre un peu de temps pour la ré-éxpliquer. Merci et bonne soirée.

Re: Théorème du transfert

Publié : 06 avr. 2009 23:17
par Dadin
Et bien pour démontrer ce théorème, il suffit de le montrer pour une famille dense de fonctions. On en déduit ensuite le résultat général par densité.
La démonstration la plus "facile" est avec l'indicatrice d'un borélien (si tu travailles avec lebesgue). Tu regardes que ca marche et tu en déduit que c'est vrai pour toutes les fonctions mesurables. Dans le cas discret, idem, mais avec la mesure de comptage.

Re: Théorème du transfert

Publié : 06 avr. 2009 23:28
par evariste gallois
Merci pour ta réponse. A vrai dire elle est pas très évidente pour moi car je suis en première année de prépa HEC voie économique :lol:. Je sais pas s'il y a des ECS ou ECE sur le forum qui l'auraient vu voire des professeur de maths :oops:. En gros voilà la définition de cours:

http://marielle.fritz.club.fr/cours/va_aleatoires.pdf (voir page 4 en bas)

Re: Théorème du transfert

Publié : 07 avr. 2009 00:12
par Dadin
Arf tu n'as alors peut être pas tout compris à mon charabia...
Voici commet procéder, et je t'offre même une démonstration complète !

on essai de démontrer :
On a $ $X$ $ une variable aléatoire réelle discrète et $ $f:\Omega \rightarrow \mathbr(R)$ $ une fonction numérique, et on veut $ E(f(X)) = $\sum\limits_{x \in X(\Omega)} f(x)P(X = x)$ $

Pour le démontrer on remarque tout d'abord que $ $f(X)$ $ prend ses valeurs dans $ $G = f(X(\Omega))$ $ et on va poser une nouvelle variable aléatoire $ $Y = f(X)$ $. Jusque là, rien de nouveau !
On pose alors pour $ \[y \in G$, $G_y = \{x \in X(\Omega)$ $ tel que $ \[f(x) = y\} = f^{-1}({y})\] $. Les ensembles $ $G_y$ $ forment une partition de $ $X(\Omega)$ $ ce qui veut dire que $ $\bigcup \limits_{y \in G} G_y = X(\Omega)$ $ et tous les $ $G_y$ $ sont disjoints.

Maintenant, par définition des $ $G_y$ $ on a : $ $$\forall y \in G_y \,,\,\, P(Y=y) = \sum\limits_{x \in G_y} P(X = x)$$ $

Il ne reste donc qu'à sommer par paquet (on a bien sur supposé la famille sommable) :

$ $E(Y) = E(f(X)) = \sum \limits_{y \in G} yP(Y=y) = \sum \limits_{y \in G} ( \sum \limits_{x \in G_y} P(X = x)f(x))$ $ $ $= \sum \limits_{x \in X(\Omega)} f(x)P(X=x)$ $

Et voila, en espérant ne pas avoir fait de faute(s) et désolé pour ces formules LaTeX que je n'arrive pas à bien caser sur les lignes...
EDIT : une faute gravissime maintenant corrigée ! Et désolé pour le 'famille sommable' j'ai été un peu vite en besogne !

Re: Théorème du transfert

Publié : 07 avr. 2009 00:44
par bzkl
Dadin a écrit : Il ne reste donc qu'à sommer par paquet (on a bien sur supposé la famille sommable) :
Les difficultés théoriques liées aux permutations de signes somme dans les séries ne sont pas vues en ECS1. Sauf à utiliser du hors programme, soit on le démontre complètement dans le cas fini, soit on admet que la convergence absolue permet de permuter les signes sommes dans le cas non fini.

En clair pour les ECS1 de passage, « famille sommable », ça veut dire que l'on peut sommer les termes dans n'importe quel ordre, et donc écrire les doubles sommes dans un sens ou dans l'autre.

Re: Théorème du transfert

Publié : 07 avr. 2009 19:23
par evariste gallois
Merci beaucoup! Ca ressemble en effet plus à ce que j'attendais :wink:. En effet comme l'a dit Bzkl on admet plus de chose que les sup dans le démonstration mais au moins ca me parait un peu plus clair. Il faut être frais pour comprendre tout ca :lol:. Bonne soirée!

Re: Théorème du transfert

Publié : 07 avr. 2009 19:34
par Dadin
La notion de "famille sommable" n'est ni au programme de sup, ni au programme de spé ! Ca veut juste dire, comme l'a justement fait remarquer bzkl, qu'on peut sommer les termes de la séries dans l'ordre que l'on veut... sans changer la valeur de la somme (ce qui n'est pas le cas de toutes les familles, on montre que $ $(u_n)_{n \in \mathbb{N}}$ $ est sommable si et seulement si $ $\sum |u_n| $ converge) !

Re: Théorème du transfert

Publié : 07 avr. 2009 21:18
par YLS
Juste pour pinailler :
Dadin a écrit :On pose alors pour $ \[y \in G$, $G_y = \{x \in X(\Omega)$ $ tel que $ \[f(x) = y\} = f^{-1}({y})\] $. Les ensembles $ $G_y$ $ forment une partition de $ $X(\Omega)$ $ ce qui veut dire que $ $\bigcup \limits_{y \in G} G_y = X(\Omega)$ $ et tous les $ $G_y$ $ sont disjoints.
Tu voulais parler de l'image réciproque $ f^{-1}(\{y\}) $. Sinon la démonstration est bien :wink:


Moi aussi j'ai une question. Soit $ X $ une variable à densité définie sur l'espace probabilisé $ (\Omega,\mathcal{A},P) $, et $ A $ un évènement de probabilité non nulle. On définit l'espérance de $ X $ pour la loi de probabilité $ P_A $ (aussi appelée "espérance conditionnelle de $ X $ sachant $ A $) comme étant l'espérance (éventuelle) de $ X $ lorsqu'on se place sur l'espace probabilisé $ (\Omega,\mathcal{A},P_A) $. Je crois que c'est la définition la plus générale; dans mon cours, la notion d'espérance conditionnelle n'a été présentée que dans le cadre de variables aléatoires discrètes. Lorsqu'il s'agit de déterminer $ E(X\mid A) $, on fait le calcul de l'intégrale (sous réserve de convergence) $ \displaystyle \int_{-\infty}^{+\infty}{tf_{X,A}(t)dt} $, où $ f_{X,A} $ est... justement, quoi? "Une densité de $ X $ pour la loi de probabilité $ P_A $" ? Cette densité me paraît dépendre clairement de la loi $ P_A $, c'est la dérivée de la fonction de répartition de $ X $ pour la loi conditionnelle $ P_A $, c'est-à-dire $ t\rightarrow P_A[(X\leq t)] $. En fait, c'est surtout un problème de vocabulaire que j'ai, je vois mal comment formaliser les choses le plus proprement possible. Merci de votre aide :P

Re: Théorème du transfert

Publié : 07 avr. 2009 22:02
par Zitoune
Pour moi, l'espérance conditionnelle de X sachant une sous-tribu $ \mathcal{B} $ de $ \mathcal{A} $, c'est une variable aléatoire... (qui correspond à une sorte de projection de X sur l'espace des variables aléatoires B-intégrables).
Du coup, je ne vois pas trop ce que tu veux dire :?

Si je prends X et Y deux variables aléatoires dont la loi jointe (donc de (X,Y)) a pour densité p(x, y) , la densité de la loi de Y est $ q(y) = \int p(x,y) dx $ et celle de $ \mathbb{E} (X | Y) $ serait alors $ \displaystyle \int \nu (Y, dx) =\frac{1}{q(Y)} \int dx \ p(x, Y) $, là où q(y) est non nul. (Sinon on remplace $ \nu (y, dx) $ par $ \delta_o(dx) $).

Alors, pour toute fonction h mesurable positive (ou bornée), on a $ \displaystyle \mathbb{E}(h(X) | Y) := y \longrightarrow \frac{1}{q(y)} \int dx \ p(x, y) h(x) $

Ici je crois que tu voudrais E (X | 1_A).

Re: Théorème du transfert

Publié : 07 avr. 2009 23:13
par Eti-N
YLS a écrit :Moi aussi j'ai une question. Soit $ X $ une variable à densité définie sur l'espace probabilisé $ (\Omega,\mathcal{A},P) $, et $ A $ un évènement de probabilité non nulle. On définit l'espérance de $ X $ pour la loi de probabilité $ P_A $ (aussi appelée "espérance conditionnelle de $ X $ sachant $ A $) comme étant l'espérance (éventuelle) de $ X $ lorsqu'on se place sur l'espace probabilisé $ (\Omega,\mathcal{A},P_A) $. Je crois que c'est la définition la plus générale; dans mon cours, la notion d'espérance conditionnelle n'a été présentée que dans le cadre de variables aléatoires discrètes.
Et normalement, elle ne devrait l'être que dans ce cadre-là. (Elle n'est pas au programme pour d'autres types de variables aléatoires.) De toute façon, comme te l'explique maladroitement Zitoune, l'espérance conditionnelle telle que définie en ECS n'est que peu d'intérêt...
Lorsqu'il s'agit de déterminer $ E(X\mid A) $, on fait le calcul de l'intégrale (sous réserve de convergence) $ \displaystyle \int_{-\infty}^{+\infty}{tf_{X,A}(t)dt} $, où $ f_{X,A} $ est... justement, quoi? "Une densité de $ X $ pour la loi de probabilité $ P_A $" ? Cette densité me paraît dépendre clairement de la loi $ P_A $, c'est la dérivée de la fonction de répartition de $ X $ pour la loi conditionnelle $ P_A $, c'est-à-dire $ t\rightarrow P_A[(X\leq t)] $. En fait, c'est surtout un problème de vocabulaire que j'ai, je vois mal comment formaliser les choses le plus proprement possible. Merci de votre aide :P
Oui, ça me semble correct. (Mais bon, puisque vous ne savez pas vraiment ce qu'est une densité...)
Zitoune a écrit :Pour moi, l'espérance conditionnelle de X sachant une sous-tribu $ \mathcal{B} $ de $ \mathcal{A} $, c'est une variable aléatoire... (qui correspond à une sorte de projection de X sur l'espace des variables aléatoires B-intégrables).
Du coup, je ne vois pas trop ce que tu veux dire :?
Là et avec ce qui suit, tu le fais craquer.

Ce qu'il veut lui, sous réserve que A soit de proba non nulle, c'est $ \frac{1}{P(A)} E(X1_A) $, qui est égal à $ \displaystyle \frac{1}{P(A)} \int_{-\infty}^{+\infty}{t1_{B}(t)f_X(t)dt} $ si X est une variable à densité et s'il existe B élément de la tribu tel que $ A=(X \in B) $.

---
Alors, pour toute fonction h mesurable positive (ou bornée), on a $ \displaystyle \mathbb{E}(h(X) | Y) := y \longrightarrow \frac{1}{q(y)} \int dx \ p(x, y) h(x) $
Je sais que ce sont des maths appliquées, mais j'imagine qu'on écrit soit $ \displaystyle \mathbb{E}(h(X) | Y) = \frac{1}{q(Y)} \int p(x, Y) h(x) dx $ soit $ \displaystyle \mathbb{E}(h(X) | Y) := \omega \longrightarrow \frac{1}{q(Y(\omega))} \int p(x, Y(\omega)) h(x) dx $.