Résumé:
Dans ce mémoire nous avons présenté une synthèse générale de la méthode de minimisation
multi-dimensionnelle sans contrainte en particulier la méthode à direction de descente comme la
méthode de la descente conjuguée avec les recherches linéaires exactes et inexactes, la méthode
de Newton pour obtenir la convergence global (local) des méthodes précédentes.
Ensuite, nous avons étudiée une nouvelle famille des méthodes de gradient conjugué non linéaire, la propriété de descente est assurée à chaque itération et certains résultats généraux de
convergence sont montrés pour cette famille avec la recherche linéaire de Wolfe fortes.
Il est clair d’après la figure. 4.1, que la méthode CGBB est numériquement plus performante que
les autres méthodes du gradient conjugué CG_DESCENT, PRP et FR