descente de gradient

Répondre

Messages : 0

Inscription : 26 févr. 2019 21:08

Profil de l'utilisateur : Élève de lycée

descente de gradient

Message par alchemille » 04 juin 2019 16:24

Si l'on veut caluculer $ x, Ax = b $, on peut utiliser la methode du gradient en calculant $ x* = argmin_{x} 1/2 * (x^T * A * x) - b * x = argmin_{x} \phi (x) $.

En effet, en calculant le gradient par rapport a x de cette derniere expression, on tombe sur la premiere.

Je me demandais si, plutot que de minimiser $ \phi $ et faire une 'descente' de gradient, on ne pourrait pas la maximiser et faire une 'montee' de gradient?
Les deux me semblent equivalents et je me demandais si c'est vrai...

Merci beaucoup d'avance ! :D

edit: latex

Messages : 0

Inscription : 13 févr. 2018 09:22

Profil de l'utilisateur : Élève de lycée

Re: descente de gradient

Message par matmeca_mcf1 » 04 juin 2019 17:16

Si A est symétrique définie positive la fonctionnelle $ x\mapsto\frac{1}{2}x^TAx-b^Tx $ admet un minimum mais pas de maximum.
Ancien ENS Cachan (maths) 1999--2003
Enseignant-Chercheur à l'Enseirb-Matmeca (Bordeaux INP) filière matmeca
Les opinions exprimées ci-dessus sont miennes et ne reflètent pas la position officielle de l'école dans laquelle j'enseigne.

Messages : 0

Inscription : 26 févr. 2019 21:08

Profil de l'utilisateur : Élève de lycée

Re: descente de gradient

Message par alchemille » 04 juin 2019 17:56

Merci pour la reponse!
Je vois que on a $ x^T A x > 0 $ du coup, mais je n'arrive pas a l'utiliser pour montrer qu'il y a un minimum et pas de maximum :?

Messages : 485

Inscription : 18 févr. 2011 22:49

Profil de l'utilisateur : Élève de lycée

Re: descente de gradient

Message par trembleur » 04 juin 2019 18:05

Tu peux dériver deux fois (Hessienne) pour montrer qu'elle est convexe, d'où ce que tu cherches. :wink:
Ex-Supaéro

Messages : 0

Inscription : 26 févr. 2019 21:08

Profil de l'utilisateur : Élève de lycée

Re: descente de gradient

Message par alchemille » 04 juin 2019 18:35

La derivee premiere est $ 1/2 (A + A^T)x - b $. Si l'on suppose A symetrique, la derivee seconde par rapport a x est $ A + A^T = A $.

A est donc la matrice hessienne de la fonctionnelle. Si on suppose aussi qu'elle est diagonalisable et positive, ses valeurs propres sont strictement positives. Donc la fonctionnelle passe par un minimum !

Je crois que ca joue comme ca, merci beaucoup !! :D :D :D

Messages : 0

Inscription : 13 févr. 2018 09:22

Profil de l'utilisateur : Élève de lycée

Re: descente de gradient

Message par matmeca_mcf1 » 04 juin 2019 18:53

Pour les méthodes itératives, dont la méthode du gradient fait partie (elle n'est jamais utilisée en pratique, elle est juste introduite en premier pour des raisons pédagogiques), vous pouvez consulter le très complet polycopié: https://www-users.cs.umn.edu/~saad/Iter ... _2ndEd.pdf (le téléchargement est légal, c'est la page de l'auteur du livre. Il laisse libre les anciennes éditions de ce livre). C'est de niveau M1-M2, voire plus.
Ancien ENS Cachan (maths) 1999--2003
Enseignant-Chercheur à l'Enseirb-Matmeca (Bordeaux INP) filière matmeca
Les opinions exprimées ci-dessus sont miennes et ne reflètent pas la position officielle de l'école dans laquelle j'enseigne.

Messages : 9686

Inscription : 30 juil. 2008 16:59

Profil de l'utilisateur : Élève de lycée

Re: descente de gradient

Message par fakbill » 05 juin 2019 16:26

Passe à 1D et tu sentiras le problème.
ax=b :)

Tu postes ça en "informatique". Dans quel cadre?
Tu veux vraiment résoudre un système linéaire? est ce que A est carrée? quelle taille? quel langage?
En fonction de tout ça tu as de bonnes et de mauvaises façons de faire.
Pas prof.
Prépa, école, M2, thèse (optique/images) ->ingé dans le privé.

Messages : 0

Inscription : 26 févr. 2019 21:08

Profil de l'utilisateur : Élève de lycée

Re: descente de gradient

Message par alchemille » 06 juin 2019 16:53

On a vu l'algorithme en cours mais je n'implemente rien, l'interet etait juste theorique.
Merci encore :-)

Messages : 9686

Inscription : 30 juil. 2008 16:59

Profil de l'utilisateur : Élève de lycée

Re: descente de gradient

Message par fakbill » 16 juin 2019 20:30

Ok donc passe à un 1D, ax+b et constate le problème :) C'est bon?
Pas prof.
Prépa, école, M2, thèse (optique/images) ->ingé dans le privé.

Messages : 0

Inscription : 26 févr. 2019 21:08

Profil de l'utilisateur : Élève de lycée

Re: descente de gradient

Message par alchemille » 16 juin 2019 22:37

Oui, c'est vrai que en 1d c'est direct plus evident :P

Répondre