Exos sympas MP(*)

Un problème, une question, un nouveau théorème ?

Modérateurs : JeanN, Michel Quercia

artslidd
Messages : 28
Enregistré le : sam. août 15, 2015 9:58 pm

Re: Exos sympas MP(*)

Message par artslidd » jeu. nov. 08, 2018 10:14 pm

Oui j'étais dans sa classe il y a deux ans maintenant
2015/2016 MPSI Jean Perrin
2016/2017 MP * Lycée du Parc

"Parfois ce sont les personnes que l'on imagine capable de rien qui font des choses que personne n'auraient imaginé"
Le bon vieil Alan

Avatar du membre
oty20
Messages : 808
Enregistré le : dim. avr. 30, 2017 1:48 am

Re: Exos sympas MP(*)

Message par oty20 » sam. nov. 17, 2018 5:17 am

Autour de l'espérance :

Soit $ X,Y $ deux variables aléatoires réelles indépendantes de même loi , et pour simplifier à valeurs dans un ensemble fini.

Montrer que : $ E(|X-Y|) \leq E(|X+Y|) $
''L’ennemi du savoir , n'est pas l'ignorance , mais l'illusion du savoir '' .

BobbyJoe
Messages : 172
Enregistré le : lun. oct. 16, 2017 10:49 pm

Re: Exos sympas MP(*)

Message par BobbyJoe » sam. nov. 17, 2018 11:28 am

Voilà une preuve générale fondée sur unes astuce due au mathématicien polonais : Jacek Wesolowski.

Soit $X$ et $Y$ deux vecteurs aléatoires de $\mathbb{R}^{n}$ intégrables, de même loi et indépendants.

On note $<,>$ un produit scalaire sur $\mathbb{R}^{n}$ et $\|.\|$ la norme associée.

On veut montrer l'inégalité : $$\mathbb{E}[\|X-Y\|]\leq \mathbb{E}[\|X+Y\|].$$

**Lemme
Tout d'abord, il existe une constante $C_{n}>0$ telle que pour tout $u$ appartenant à $\mathbb{R}^{n}$ $$\|u\|=C_{n}\int_{\mathbb{S}^{n-1}}dx\int_{\mathbb{R}}\frac{1-\cos(t<x,u>)}{t^{2}}dt.$$

L'intégrande étant positif, on peut calculer formellement.
L'identité à prouver repose sur le fait qu'il existe une constante $C>0$ telle que pour $x$ appartenant à $\mathbb{R}$ $$\int_{\mathbb{R}} \frac{\sin^{2}(tx)}{t^{2}}=C\vert x \vert.$$
Si $u=0$, l'identité est directe. Si $u\neq 0$, on écrit que $\mathbb{R}^{n}$ est somme directe de la droite engendrée par $\frac{u}{\|u\|}$ et de l'orthogonal de cette droite vectorielle pour obtenir après un changement de variable l'identité désirée.

**Preuve de l'inégalité

Par Fubini positif, il vient $$\mathbb{E}[\|X+Y\|-\|X-Y\|]=C_{n}\int_{\mathbb{S}^{n-1}}dx\int_{\mathbb{R}}\mathbb{E}\left[\frac{1-\cos\left(t<x,X+Y>)\right)}{t^{2}}-\frac{1-\cos\left(t<x,X-Y>)\right)}{t^{2}}\right]dt.$$
On a alors avec un peu de trigonométrie que $$\mathbb{E}[\|X+Y\|-\|X-Y\|]=2C_{n}\int_{\mathbb{S}^{n-1}}dx\int_{\mathbb{R}}\mathbb{E}\left[\frac{\sin(t<x,X>)}{t}\frac{\sin(t<x,Y>)}{t}\right]dt.$$
D'où l'on tire par indépendance de $X$ et $Y$ (et du fait que $X$ et $Y$ aient même loi) $$\mathbb{E}[\|X+Y\|-\|X-Y\|]=2C_{n}\int_{\mathbb{S}^{n-1}}dx\int_{\mathbb{R}}\mathbb{E}\left[\frac{\sin(t<x,X>)}{t}\right]^{2}dt\geq 0.$$

Remarque :
On peut également utiliser l'astuce suivante (si $\|.\|$ désigne la norme euclidienne standard sur $\mathbb{R}^{n}$)
$ $$\displaystyle \left( \frac{1}{\sqrt{2\pi}} \right)^{n}\int_{\mathbb{R}^{n}}\exp(-\frac{\|x\|^{2}}{2})\vert <x,u> \vert dx=\|u \|.$
Bref...
Modifié en dernier par BobbyJoe le dim. nov. 18, 2018 12:14 am, modifié 3 fois.

Avatar du membre
dSP
Messages : 683
Enregistré le : dim. oct. 03, 2004 11:59 am
Localisation : Versailles

Re: Exos sympas MP(*)

Message par dSP » sam. nov. 17, 2018 5:09 pm

Si c'est la démonstration attendue, alors cet exercice est de mauvais goût...
Professeur de Mathématiques en MP*
Lycée Privé Sainte-Geneviève

BobbyJoe
Messages : 172
Enregistré le : lun. oct. 16, 2017 10:49 pm

Re: Exos sympas MP(*)

Message par BobbyJoe » sam. nov. 17, 2018 5:34 pm

En dimension $ $$1$, il y a une preuve ad-hoc (fondée sur l'inégalité triangulaire) par récurrence sur le nombre de points du support de la loi $ $$X,$ en supposant que $ $$X$ est uniforme (ce qui implique le cas général par la loi des grands nombres)... mais c 'est fastidieux!

Avatar du membre
oty20
Messages : 808
Enregistré le : dim. avr. 30, 2017 1:48 am

Re: Exos sympas MP(*)

Message par oty20 » sam. nov. 17, 2018 9:03 pm

dSP a écrit :
sam. nov. 17, 2018 5:09 pm
Si c'est la démonstration attendue, alors cet exercice est de mauvais goût...
Non non pour l'exercice tel qu'il est posé c'est accessible niveau prepas, D'ailleurs il existe une preuve dans le nouveau livre de Roger Mansuy...

j'en connais deux autres en dimension 1, une aussi accessible une autre un peu moins car repose sur une transformée de Fourier

@Bobbyjoe auriez-vous une jolie interprétation de ce résultat ? Merci
''L’ennemi du savoir , n'est pas l'ignorance , mais l'illusion du savoir '' .

BobbyJoe
Messages : 172
Enregistré le : lun. oct. 16, 2017 10:49 pm

Re: Exos sympas MP(*)

Message par BobbyJoe » sam. nov. 17, 2018 10:08 pm

Si la norme $ $$\|.\|$ sous-jacente est euclidienne, on peut s'intéresser au pendant de cette inégalité pour les norme $ $$p$ : le cas de la norme $2$ (i.e. $ $$\displaystyle \mathbb{E}\left[ \|X-Y\|^{2} \right] \leq \mathbb{E}\left[ \|X+Y \|^{2}\right]$ est amusant, le cas $ $$p=\infty$ aussi (les autres cas s'obtiennent par interpolation).
Je dirais qu'une interprétation possible mais "naze" du résultat est :
si l'on tire deux sommets $ $$M,M'$ aléatoirement suivant la loi de $ $$X$, le triangle $ $$OMM'$ est en moyenne aigu en $ $$O.$

Avatar du membre
oty20
Messages : 808
Enregistré le : dim. avr. 30, 2017 1:48 am

Re: Exos sympas MP(*)

Message par oty20 » sam. nov. 17, 2018 11:28 pm

La preuve dans le livre cité plus haut est exactement celle que vous avez proposé , en dimension 1.

On peut se passer de l'identité qui semble parachuté, en faisant la constatation que :
$ |X+Y|-|X-Y|=2\min(X,Y) sign(XY) $ et donc la différence entre les deux membres de l’inégalité peut être écrite comme :

$ 2E(\min(X,Y) sign(XY)=2 \int_{0}^{\infty} [P(|X|\geq t, |Y|\geq t, XY\geq 0)-P(|X|< t, |Y|< t, XY< 0)]dt $

Comme $ P(Z \geq t)=P(Z >t) $ presque partout, Compte tenue des hypothèses il vient que :
$ 2E(\min(X,Y) sign(XY)=2\int_{0}^{\infty} [P(X \geq t)]^{2}+ [P(X \leq -t)]^{2}-2P(X \geq t)P(X \leq -t) dt
\\~~~~~~~=2\int_{0}^{\infty} [P(X\geq t)-P(X \leq -t)]^{2} dt \geq 0 $
''L’ennemi du savoir , n'est pas l'ignorance , mais l'illusion du savoir '' .

Avatar du membre
dSP
Messages : 683
Enregistré le : dim. oct. 03, 2004 11:59 am
Localisation : Versailles

Re: Exos sympas MP(*)

Message par dSP » dim. nov. 18, 2018 10:06 am

Dattier a écrit :
sam. nov. 17, 2018 5:19 pm
Bonjour,

@dSP : pourquoi cela, les outils qu'utilisent Bobby sont aux programmes de MP* non ?

Bonne journée.
Cela ne vous pose aucun problème que la démonstration proposée soit fondée sur une identité parachutée totalement introuvable ?
Professeur de Mathématiques en MP*
Lycée Privé Sainte-Geneviève

Avatar du membre
Siméon
Messages : 467
Enregistré le : mer. août 12, 2015 3:48 pm

Re: Exos sympas MP(*)

Message par Siméon » dim. nov. 18, 2018 10:53 am

Tiens @oty20, ça me rappelle quelque chose : https://math.stackexchange.com/question ... 701#414701
Une source est-elle indiquée pour cette démonstration ?

Une autre discussion qui montre que ceci découle en fait d'un résultat de dispersion plus général : http://www.les-mathematiques.net/phorum ... msg-872787

Avatar du membre
noro
Messages : 104
Enregistré le : mar. févr. 13, 2018 5:41 pm
Classe : MP*

Re: Exos sympas MP(*)

Message par noro » dim. nov. 18, 2018 2:24 pm

Dattier a écrit :
dim. nov. 18, 2018 1:29 pm

En fait ce problème revient à dire que (je parle de la généralisation dont parle BobbyJoe, en me réfèrant au lien donné par Siméon)

Si $ ||.|| $ norme euclidenne de $\mathbb R^n$, $\{x_1,...,x_m\} \subset \mathbb R^n$
$\sum \limits_{(i,j)\in \{1,...,m\}} ||x_i-x_j|| \leq \sum \limits_{(i,j)\in \{1,...,m\}} ||x_i+x_j|| $

@Oty : le livre a été publié quand ?
C'est faux il suffit de prendre n=1, m=2, x=1, y=-2 alors |x-y| > |x+y|
Nothing happened.
-------------------------------------------
L3 Maths-Info

Avatar du membre
noro
Messages : 104
Enregistré le : mar. févr. 13, 2018 5:41 pm
Classe : MP*

Re: Exos sympas MP(*)

Message par noro » dim. nov. 18, 2018 3:11 pm

Dattier a écrit :
dim. nov. 18, 2018 2:45 pm
noro a écrit :
dim. nov. 18, 2018 2:24 pm
C'est faux il suffit de prendre n=1, m=2, x=1, y=-2 alors |x-y| > |x+y|
On prend X={1,-2}

$\sum \limits_{(i,j)} |x_i-x_j|=3+3+0+0=6$

$\sum \limits_{(i,j)} |x_i+x_j|=1+1+4+2=8$

Tu as dû oublier les cas $|x_i+x_i|$
Oui tu as raison j'ai mal lu :(
Nothing happened.
-------------------------------------------
L3 Maths-Info

Avatar du membre
oty20
Messages : 808
Enregistré le : dim. avr. 30, 2017 1:48 am

Re: Exos sympas MP(*)

Message par oty20 » dim. nov. 18, 2018 3:35 pm

Siméon a écrit :
dim. nov. 18, 2018 10:53 am
Une source est-elle indiquée pour cette démonstration ?
En faite ce problème est apparu dans la compétition Miklós Schweitzer en 1990 , cela m'avait choqué de le voir apparaitre dans un livre de prépas , je ne connais que les initiales de l'auteur T.F.MÓRI , la solution que j'ai présenté est la solution de l'auteur.

D'ailleurs il y a une compétition qui a récemment vu le jour en France, dont l'idée je pense est inspiré de cette compétition

@Dattier le livre est sortie juillet 2018 il me semble.
''L’ennemi du savoir , n'est pas l'ignorance , mais l'illusion du savoir '' .

Avatar du membre
oty20
Messages : 808
Enregistré le : dim. avr. 30, 2017 1:48 am

Re: Exos sympas MP(*)

Message par oty20 » dim. nov. 18, 2018 3:47 pm

Dattier a écrit :
dim. nov. 18, 2018 1:29 pm
En fait ce problème revient à dire que (je parle de la généralisation dont parle BobbyJoe, en me réfèrant au lien donné par Siméon)

Si $ ||.|| $ norme euclidenne de $\mathbb R^n$, $\{x_1,...,x_m\} \subset \mathbb R^n$
$\sum \limits_{(i,j)\in \{1,...,m\}} ||x_i-x_j|| \leq \sum \limits_{(i,j)\in \{1,...,m\}} ||x_i+x_j|| $

@Oty : le livre a été publié quand ?


On peut démontrer cet exo avec une méthode similaire à la démonstration du précédent exercice, et c'est plutôt classe :mrgreen:
''L’ennemi du savoir , n'est pas l'ignorance , mais l'illusion du savoir '' .

Avatar du membre
oty20
Messages : 808
Enregistré le : dim. avr. 30, 2017 1:48 am

Re: Exos sympas MP(*)

Message par oty20 » sam. janv. 12, 2019 2:46 am

Joyeuse année 2019:
Que vaut :

$ \int_{1}^{2019} (x-1)(x-2)...(x-2019)dx $
''L’ennemi du savoir , n'est pas l'ignorance , mais l'illusion du savoir '' .

Répondre

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 2 invités