Exos sympas MP(*)

Un problème, une question, un nouveau théorème ?

Messages : 1702

Enregistré le : 13 févr. 2018 09:22

Re: Exos sympas MP(*)

Message par matmeca_mcf1 » 01 mars 2019 23:11

Exact, c'est suffisant. J'ai oublié de retirer les $ \bigcap $ dans les formules (1) et (2). Le plus dur reste à faire car on n'a même pas utilisé l'hypothèse d'indépendance de variables aléatoires, ou leur loi. Il faudrait voir ce qu'il y a dans le programme de prépa en probas pour se guider. Les marches aléatoires sont-elles dans le programme de prépa?
Ancien ENS Cachan (maths) 1999--2003
Enseignant-Chercheur à l'Enseirb-Matmeca (Bordeaux INP)
Les opinions exprimées ci-dessus sont miennes et ne reflètent pas la position officielle de l'école dans laquelle j'enseigne.

Messages : 148

Enregistré le : 10 août 2015 16:24

Classe : Ancien combattant

Re: Exos sympas MP(*)

Message par Landstockman » 01 mars 2019 23:44

Non pas de marches aléatoires en prépa malheureusement :/

Messages : 104

Enregistré le : 22 juin 2015 14:11

Re: Exos sympas MP(*)

Message par Krik » 02 mars 2019 09:29

Pour un exercice d'Ulm, ça ne serait pas fantaisiste qu'elles apparaissent. Après tout ça reste dans le cadre des probabilités discrètes.

C'était d'ailleurs l'idée de mon message plus haut qui parlait de récurrence des marches aléatoires : intuitivement, à $ x $ fixé assez proche de $ 1 $, les premières puissances de $ x $ sont $ \approx 1 $ tandis que les grandes puissances de $ x $ restent $ \approx 0 $, ce qui justifie quelque chose comme $ f_{\omega} (x) \approx \sum\limits_{k=0}^{n_x}\epsilon_k(\omega) $ (en reprenant les notations de matmeca_mcf1) avec $ n_x $ qui tend vers l'infini quand $ x $ tend vers 1, et alors la récurrence de la marche aléatoire symétrique donne l'intuition du résultat.

Bien sûr, ce que je viens de faire, ce n'est pas des maths, mais c'est comme ça que je me suis convaincu du résultat.

Messages : 1702

Enregistré le : 13 févr. 2018 09:22

Re: Exos sympas MP(*)

Message par matmeca_mcf1 » 02 mars 2019 10:30

Une très bonne idée. Je ne sais pas si elle peut aboutir ou si on a besoin de résultats plus précis que "la marche change presque surement une infinité de fois de signes" pour pouvoir conclure. Mais comme c'est un Oral d'Ulm, le but n'est pas forcément de résoudre le problème mais d'exposer à l'examinateur vos idées pour attaquer le problème. Donc, ici, il faudrait expliquer à l'examinateur que vous voyez un lien avec les marches aléatoires, le fait qu'elles changent une infinité de fois de signe, et le lien intuitif entre le polynôme et la marche aléatoire.

Même si la piste n'est pas la bonne et que l'on ne peut pas conclure de cette manière ou qu'on a besoin de résultats plus précis sur le comportement des marches aléatoires, il est préférable pour le candidat d'expliquer à l'examinateur comment il pense attaquer le problème que de rester muet pendant une demi-heure devant le tableau parce qu'il n'a pas la solution complète.
Ancien ENS Cachan (maths) 1999--2003
Enseignant-Chercheur à l'Enseirb-Matmeca (Bordeaux INP)
Les opinions exprimées ci-dessus sont miennes et ne reflètent pas la position officielle de l'école dans laquelle j'enseigne.

Messages : 811

Enregistré le : 30 avr. 2017 01:48

Re: Exos sympas MP(*)

Message par oty20 » 03 mars 2019 16:49

l'XenY a écrit :
28 févr. 2019 21:16
Soit $ (\epsilon_{k}) $ une suite de variables aléatoires identiques et indépendantes de Rademacher. Montrer que la fonction qui à x associe :
$ \displaystyle\sum_{k=0}^{\infty} \epsilon_{k} x^{k} $

Admet presque sûrement une infinité de zéros sur [0,1]
Bonjour,
très jolie problème voici une humble tentative, je prends $ u_{j}=\varepsilon_{j} $ pour simplifier l’écriture en latex.

Soit $ f(x)=\sum u_{j} x^{j}, P_n(x):=\sum_{j=1}^n u_j x^j, R_n:=\sum_{j=n+1}^\infty u_j x^j $. Il est bien connu que dans une marche aléatoire à une dimension on visite presque surement n'importe quel entier une infinité de fois . Par conséquent $ P_n(1), n=1,2,\dots $ prend une infinité de fois les valeurs $ 2 $ , $ -2 $.

Soit $ 0<x_1<1 $ tel que: $ f(x_1)>0 $ (le cas $ f(x_1)<0 $ est similaire). Soit $ n $ suffisamment grand tel que $ P_n(1)\leq -2 $. Ainsi pour$ x_2 $ suffisamment proche de $ 1 $, $ P_n(x_2)<-1 $. La probabilité que $ R_n(x_2) $ soit negative est $ \frac{1}{2} $, Ainsi on a 50-50 de chances que $ f(x_2)<-1 $. Si cela est le cas, on disposerait d'un zero de $ f(x) $ dans $ (x_1,x_2) $.

Puisque pour une infinité d'entiers $ n $l'inégalité $ P_n(1)\leq -2 $ est vérifié, on peut trouver presque surement $ x_2 $ de sorte que $ f(x_2)<-1 $.

En remplaçant $ x_1 $ par $ x_2 $ de manière similaire , on peut trouver $ x_1,x_2,\dots; x_i<1 $ ou $ f(x) $ change de signe

J'aurais besoin d'aide pour formaliser et mieux élaborer tout cela, Il y a cependant un petit ''crack'' dans cette approche. On est pas certain que les événement "$ R_n(x_i) $ est negative" sont indépendants.


Edit: je n'ai pas lu les commentaires qui viennent après le poste de l’énoncé du problème pour ne pas être influencer, je m'excuse s'il y a de la redondance.
''L’ennemi du savoir , n'est pas l'ignorance , mais l'illusion du savoir '' .

Avatar du membre
dSP

Messages : 686

Enregistré le : 03 oct. 2004 11:59

Localisation : Versailles

Re: Exos sympas MP(*)

Message par dSP » 04 mars 2019 18:38

Cet exo est très très coriace.

Une idée qui fonctionne (je ne donne pas tous les détails, seulement quelques grandes lignes).

On fixe $n$ dans $\mathbb{N}^*$. On prend arbitrairement deux entiers $p>m>n$ et un réel $x\in [0,1[$. On casse la somme en quatre (!) morceaux :
$f(x)=\sum_{i=1}^{n} \epsilon_i x^i+ \sum_{i=n+1}^{m} \epsilon_i x^i+\sum_{i=m+1}^{p} \epsilon_i x^i+\sum_{i=p+1}^{+\infty} \epsilon_i x^i$.
Le couple $(x,m)$ est ensuite ajusté de telle sorte que l'événement
$A:=(\sum_{k=n+1}^m \epsilon_i x^i > n+1)$ soit de probabilité minorée par $1/3$
(cela peut se faire sans théorème central limite, simplement en regardant le cas limite où $x=1$), tout en imposant d'avoir $x>1-1/n$.
Enfin, $p$ est ajusté pour que $\sum_{i=p+1}^{+\infty} x^i<1$.
Les événements $A$ et $(\sum_{i=m+1}^{p} \epsilon_i x^i \geq 0)$ sont indépendants, et le second est de probabilité au moins $1/2$ (symétrie). Par suite, $B:=(\sum_{k=n+1}^p \epsilon_i x^i > n+1)$ est de probabilité au moins $1/6$, et il implique
$(f(x)>0)$. Symétriquement, $C:=(\sum_{k=n+1}^p \epsilon_i x^i <-(n+1))$ est de probabilité au moins $1/6$, et il implique
$(f(x)<0)$.

En utilisant convenablement le lemme de Borel-Cantelli, on peut alors conclure (je reste volontairement succint)...
Professeur de Mathématiques en MP*
Lycée Privé Sainte-Geneviève

Messages : 811

Enregistré le : 30 avr. 2017 01:48

Re: Exos sympas MP(*)

Message par oty20 » 05 mars 2019 11:45

@Dattier ce lien: https://artofproblemsolving.com/communi ... 87p9206232
répond-t-il à ta question ?
''L’ennemi du savoir , n'est pas l'ignorance , mais l'illusion du savoir '' .

Messages : 1708

Enregistré le : 16 janv. 2016 15:51

Classe : SciencesPo

Re: Exos sympas MP(*)

Message par Syl20 » 05 mars 2019 12:14

.
Modifié en dernier par Syl20 le 05 mars 2019 12:22, modifié 1 fois.
2016-2018 : Louis-le-Grand MPSI-MP*
X2018

Avatar du membre
dSP

Messages : 686

Enregistré le : 03 oct. 2004 11:59

Localisation : Versailles

Re: Exos sympas MP(*)

Message par dSP » 05 mars 2019 13:39

Il existe bel et bien un tel couple de fonctions sans point fixe commun : un contre-exemple a été publié dans les années 1950 ou 1960, si ma mémoire ne me trompe pas. D'ailleurs ce sujet revient régulièrement sur le tapis sur le forum maths.net, n'hésitez pas à fouiller dans les archives.
Professeur de Mathématiques en MP*
Lycée Privé Sainte-Geneviève

Messages : 811

Enregistré le : 30 avr. 2017 01:48

Re: Exos sympas MP(*)

Message par oty20 » 05 mars 2019 15:49

Dattier a écrit :
05 mars 2019 11:48
Non, ce n'est pas tout à fait la même question, dans ton cas, on cherche à savoir s'il y a un point d'intersection entre les 2 graphes, dans le cas que je propose on veut en plus que ce point d'intersection soit un point fixe, pour les 2 fonctions.
vous avez lu la preuve de pco ?
''L’ennemi du savoir , n'est pas l'ignorance , mais l'illusion du savoir '' .

Répondre