
La recherche a retourné 5 résultats
Aller sur la recherche avancée
- 16 juin 2019 22:37
- Forum : Informatique
- Sujet : descente de gradient
- Réponses : 9
- Vues : 6408
Re: descente de gradient
Oui, c'est vrai que en 1d c'est direct plus evident 

- 06 juin 2019 16:53
- Forum : Informatique
- Sujet : descente de gradient
- Réponses : 9
- Vues : 6408
Re: descente de gradient
On a vu l'algorithme en cours mais je n'implemente rien, l'interet etait juste theorique.
Merci encore
Merci encore

- 04 juin 2019 18:35
- Forum : Informatique
- Sujet : descente de gradient
- Réponses : 9
- Vues : 6408
Re: descente de gradient
La derivee premiere est 1/2 (A + A^T)x - b . Si l'on suppose A symetrique, la derivee seconde par rapport a x est A + A^T = A . A est donc la matrice hessienne de la fonctionnelle. Si on suppose aussi qu'elle est diagonalisable et positive, ses valeurs propres sont strictement positives. Donc la fon...
- 04 juin 2019 17:56
- Forum : Informatique
- Sujet : descente de gradient
- Réponses : 9
- Vues : 6408
Re: descente de gradient
Merci pour la reponse!
Je vois que on a $ x^T A x > 0 $ du coup, mais je n'arrive pas a l'utiliser pour montrer qu'il y a un minimum et pas de maximum
Je vois que on a $ x^T A x > 0 $ du coup, mais je n'arrive pas a l'utiliser pour montrer qu'il y a un minimum et pas de maximum

- 04 juin 2019 16:24
- Forum : Informatique
- Sujet : descente de gradient
- Réponses : 9
- Vues : 6408
descente de gradient
Si l'on veut caluculer x, Ax = b , on peut utiliser la methode du gradient en calculant x* = argmin_{x} 1/2 * (x^T * A * x) - b * x = argmin_{x} \phi (x) . En effet, en calculant le gradient par rapport a x de cette derniere expression, on tombe sur la premiere. Je me demandais si, plutot que de min...