Algorithme de Josephy-Newton

L'algorithme de Josephy-Newton est une méthode de linéarisation pour résoudre une inclusion fonctionnelle, c'est-à-dire un problème de la forme

( P I F ) F ( x ) + N ( x ) 0 , {\displaystyle (P_{IF})\qquad F(x)+N(x)\ni 0,}

F : E F {\displaystyle F:\mathbb {E} \to \mathbb {F} } est une fonction différentiable entre les deux espaces vectoriels E {\displaystyle \mathbb {E} } et F {\displaystyle \mathbb {F} } et N : E F {\displaystyle N:\mathbb {E} \multimap \mathbb {F} } est une multifonction entre les mêmes espaces. Ce problème signifie que l'on cherche x E {\displaystyle x\in \mathbb {E} } tel que l'ensemble F ( x ) + N ( x ) {\displaystyle F(x)+N(x)} contienne l'élément nul de F {\displaystyle \mathbb {F} } ou encore tel que l'ensemble N ( x ) {\displaystyle N(x)} contienne F ( x ) {\displaystyle -F(x)} . Ce formalisme est suffisamment général pour englober les problèmes variationnels, les problèmes d'inéquations variationnelles, les problèmes de complémentarité non linéaires et les conditions d'optimalité du premier ordre des problèmes d'optimisation.

L'algorithme de Josephy-Newton consiste à générer une suite { x k } E {\displaystyle \{x_{k}\}\subset \mathbb {E} } , où le nouvel itéré x k + 1 {\displaystyle x_{k+1}} est calculé à partir de l'itéré courant x k {\displaystyle x_{k}} en résolvant (si possible) l'inclusion partiellement linéarisée

F ( x k ) + F ( x k ) ( x x k ) + N ( x ) 0. {\displaystyle F(x_{k})+F'(x_{k})(x-x_{k})+N(x)\ni 0.}

On retrouve l'algorithme de Newton si N { 0 } {\displaystyle N\equiv \{0\}} . Le fait de maintenir N {\displaystyle N} inchangé dans cette inclusion linéarisée, qui calcule le nouvel itéré, permet d'avoir les mêmes résultats de convergence superlinéaire ou quadratique qu'avec la méthode de Newton résolvant un système non linéaire, sous des hypothèses de lissité et de régularité similaires. Cependant, contrairement à l'algorithme de Newton, il ne suffit pas de résoudre un système linéaire à chaque itération pour calculer le nouvel itéré x k + 1 {\displaystyle x_{k+1}} , car le système ci-dessus permettant de calculer celui-ci est une inclusion non linéaire, qui pourra demander beaucoup de temps de calcul.

L'algorithme de Josephy-Newton

Cas général

Comme spécifié dans l'introduction, l'algorithme de Josephy-Newton de résolution de ( P I F ) {\displaystyle (P_{IF})} consiste à générer une suite { x k } E {\displaystyle \{x_{k}\}\subset \mathbb {E} } , où le nouvel itéré x k + 1 {\displaystyle x_{k+1}} est calculé à partir de l'itéré courant x k {\displaystyle x_{k}} en résolvant (si possible) l'inclusion partiellement linéarisée

(JN)          F ( x k ) + M k ( x k + 1 x k ) + N ( x k + 1 ) 0 , {\displaystyle F(x_{k})+M_{k}(x_{k+1}-x_{k})+N(x_{k+1})\ni 0,}

M k : E F {\displaystyle M_{k}:\mathbb {E} \to \mathbb {F} } est un opérateur linéaire valant F ( x k ) {\displaystyle F'(x_{k})} ou une approximation de cette dérivée (on pense ici surtout à des approximations quasi-newtoniennes). On ne « linéarise » donc que le premier terme qui est supposé différentiable ; le second est laissé inchangé. Sans hypothèse particulière, il se peut que l'inclusion fonctionnelle linéarisée (JN) n'ait pas de solution, auquel cas l'algorithme ne peut pas calculer l'itéré suivant x k + 1 {\displaystyle x_{k+1}} et doit s'arrêter. Par ailleurs, si la multifonction N {\displaystyle N} est complexe, l'itération pourra requérir beaucoup de temps de calcul (elle est toutefois plus simple que le problème initial), mais la convergence locale rapide peut laisser espérer qu'une solution sera trouvée en très peu d'itérations. Il se peut aussi que l'on ne connaisse pas de méthode pour résoudre (JN), auquel cas il faudra se tourner vers d'autres algorithmes de résolution.

Ce schéma algorithmique prenant en compte un grand nombre de situations a été introduit par Josephy en 1979[1].

Examinons à présent quelques cas particuliers.

Exemples

Problème de complémentarité

Si F : E E {\displaystyle F:\mathbb {E} \to \mathbb {E} } et si la multifonction N {\displaystyle N} est le cône normal N K {\displaystyle \operatorname {N} _{K}} à un cône convexe fermé non vide K E {\displaystyle K\subset \mathbb {E} } , le problème d'inclusion fonctionnelle F ( x ) + N K ( x ) 0 {\displaystyle F(x)+\operatorname {N} _{K}(x)\ni 0} s'écrit comme le problème de complémentarité non linéaire

( P C N L ) K x F ( x ) K + . {\displaystyle (P_{CNL})\qquad K\ni x\perp F(x)\in K^{+}.}

Alors le schéma de Josephy-Newton F ( x k ) + M k ( x k + 1 x k ) + N K ( x k + 1 ) 0 {\displaystyle F(x_{k})+M_{k}(x_{k+1}-x_{k})+\operatorname {N} _{K}(x_{k+1})\ni 0} s'écrit comme le problème de complémentarité linéaire

K x k + 1 F ( x k ) + M k ( x k + 1 x k ) K + , {\displaystyle K\ni x_{k+1}\perp F(x_{k})+M_{k}(x_{k+1}-x_{k})\in K^{+},}

dans lequel on s'est contenté de linéariser F {\displaystyle F} en x k {\displaystyle x_{k}} .

Conditions d'optimalité d'un problème d'optimisation

Article détaillé : Optimisation quadratique successive.

Lorsque l'algorithme de Josephy-Newton est appliqué aux conditions d'optimalité d'un problème d'optimisation avec contraintes d'égalité et d'inégalité, on retrouve l'optimisation quadratique successive.

Système d'égalités et d'inégalités

Un système d'égalités F E ( x ) = 0 {\displaystyle F_{E}(x)=0} et d'inégalités F I ( x ) 0 {\displaystyle F_{I}(x)\leqslant 0} , avec les ensembles d'indices E {\displaystyle E} et I {\displaystyle I} formant une partition de [ 1 : m ] {\displaystyle [1:m]} , peut s'écrire comme une inclusion fonctionnelle

F ( x ) + N ( x ) 0 , {\displaystyle F(x)+N(x)\ni 0,}

en prenant comme multifonction N : E R m {\displaystyle N:\mathbb {E} \multimap \mathbb {R} ^{m}} , la multifonction constante N ( ) R m E × R + m I {\displaystyle N(\cdot )\equiv \mathbb {R} ^{m_{E}}\times \mathbb {R} _{+}^{m_{I}}} , où m E := | E | {\displaystyle m_{E}:=|E|} et m I := | I | {\displaystyle m_{I}:=|I|} . L'algorithme de Josephy-Newton consiste dans ce cas à résoudre à l'itération k {\displaystyle k} le système d'équations linéarisées en x {\displaystyle x} suivant

F E ( x k ) + F E ( x k ) ( x x k ) = 0 et F I ( x k ) + F I ( x k ) ( x x k ) 0. {\displaystyle F_{E}(x_{k})+F'_{E}(x_{k})(x-x_{k})=0\quad {\mbox{et}}\quad F_{I}(x_{k})+F'_{I}(x_{k})(x-x_{k})\leqslant 0.}

Celui-ci peut ne pas avoir de solution, même lorsque x k {\displaystyle x_{k}} est proche d'un point x {\displaystyle x} vérifiant les égalités F E ( x ) = 0 {\displaystyle F_{E}(x)=0} et les inégalités F I ( x ) 0 {\displaystyle F_{I}(x)\leqslant 0} , auquel cas l'algorithme doit s'interrompre.

Convergence

Les résultats de cette section sont repris de Bonnans 1994.

Comportement asymptotique

La notion de semistabilité permet d'avoir des conditions suffisantes de convergence superlinéaire et quadratique d'une suite générée par l'algorithme de Josephy-Newton.

Conditions suffisantes de convergence superlinéaire et quadratique — Supposons que F {\displaystyle F} soit C 1 {\displaystyle C^{1}} dans le voisinage d'une solution semistable x {\displaystyle x_{*}} de ( P I F ) {\displaystyle (P_{IF})} et que la suite { x k } {\displaystyle \{x_{k}\}} vérifie la récurrence (JN) de l'algorithme de Josephy-Newton et converge vers x {\displaystyle x_{*}} .

  1. Si ( M k F ( x ) ) ( x k + 1 x k ) = o ( x k + 1 x k ) {\displaystyle (M_{k}-F'(x_{*}))(x_{k+1}-x_{k})=o(\|x_{k+1}-x_{k}\|)} , alors la convergence de { x k } {\displaystyle \{x_{k}\}} est superlinéaire.
  2. Si ( M k F ( x ) ) ( x k + 1 x k ) = O ( x k + 1 x k 2 ) {\displaystyle (M_{k}-F'(x_{*}))(x_{k+1}-x_{k})=O(\|x_{k+1}-x_{k}\|^{2})} et si F {\displaystyle F} est C 1 , 1 {\displaystyle C^{1,1}} dans un voisinage de x {\displaystyle x_{*}} , alors la convergence de { x k } {\displaystyle \{x_{k}\}} est quadratique.

Corollaire — Supposons que F {\displaystyle F} soit C 1 {\displaystyle C^{1}} dans le voisinage d'une solution semistable x {\displaystyle x_{*}} de ( P I F ) {\displaystyle (P_{IF})} et que la suite { x k } {\displaystyle \{x_{k}\}} vérifie la récurrence (JN) et converge vers x {\displaystyle x_{*}} .

  1. Si M k F ( x ) {\displaystyle M_{k}\to F'(x_{*})} , alors la convergence de { x k } {\displaystyle \{x_{k}\}} est superlinéaire.
  2. Si M k F ( x ) = O ( x k x ) {\displaystyle M_{k}-F'(x_{*})=O(\|x_{k}-x_{*}\|)} et si F {\displaystyle F} est C 1 , 1 {\displaystyle C^{1,1}} dans un voisinage de x {\displaystyle x_{*}} , alors la convergence de { x k } {\displaystyle \{x_{k}\}} est quadratique.

Convergence locale

La semi-stabilité n'assure en rien l'existence d'une solution de l'équation linéarisée et donc d'un nouvel itéré de l'algorithme de Josephy-Newton, même si cet itéré est proche d'une solution. C'est la raison d'être de la propriété d'hémistabilité. En réalité, comme le montre le résultat suivant, c'est à la fois la semistabilité et l'hémistabilité d'une solution de ( P I F ) {\displaystyle (P_{IF})} qui assurent le caractère bien posé de l'algorithme de Josephy-Newton démarrant proche de cette solution et la convergence de la suite générée vers celle-ci.

Convergence locale de l'algorithme de Josephy-Newton — Supposons que F {\displaystyle F} soit C 1 {\displaystyle C^{1}} dans le voisinage d'une solution semistable et hémistable x {\displaystyle x_{*}} de ( P I F ) {\displaystyle (P_{IF})} et que M k = F ( x k ) {\displaystyle M_{k}=F'(x_{k})} dans l'algorithme de Josephy-Newton (JN). Alors, il existe ε > 0 {\displaystyle \varepsilon >0} , tel que si le premier itéré x 1 B ( x , ε ) {\displaystyle x_{1}\in B(x_{*},\varepsilon )} , alors

  1. l'algorithme de Josephy-Newton peut générer une suite { x k } {\displaystyle \{x_{k}\}} dans B ( x , ε ) {\displaystyle B(x_{*},\varepsilon )} ,
  2. toute suite { x k } {\displaystyle \{x_{k}\}} générée dans B ( x , ε ) {\displaystyle B(x_{*},\varepsilon )} par l'algorithme de Josephy-Newton converge superlinéairement vers x {\displaystyle x_{*}} (et quadratiquement si F {\displaystyle F} est C 1 , 1 {\displaystyle C^{1,1}} ).

L'algorithme de Josephy-Newton peut donc générer une suite convergeant vers x {\displaystyle x_{*}} si le premier itéré est assez proche d'une solution semistable et hémistable x {\displaystyle x_{*}} , mais rien ne dit qu'il en sera ainsi si la solution de l'inclusion linéarisée n'est pas choisie assez proche de x {\displaystyle x_{*}} à chaque itération.

Annexes

Note

  1. Voir Josephy (1979a) pour la version newtonienne et Josephy (1979b) pour la version quasi-newtonienne.

Articles connexes

  • Optimisation quadratique successive
  • Inclusion fonctionnelle

Lien externe

  • (en) J.Ch. Gilbert (2015). Advanced Continuous Optimization, planches du cours du M2 Optimization à l'université Paris-Saclay.

Bibliographie

  • (en) J.F. Bonnans (1994). Local analysis of Newton-type methods for variational inequalities and nonlinear programming. Applied Mathematics and Optimization, 29, 161–186.
  • (en) A.F. Izmailov, M.V. Solodov (2014). Newton-Type Methods for Optimization and Variational Problems, Springer Series in Operations Research and Financial Engineering, Springer.
  • (en) N.H. Josephy (1979a). Newton’s method for generalized equations. Technical Summary Report 1965, Mathematics Research Center, University of Wisconsin, Madison, WI, USA.
  • (en) N.H. Josephy (1979b). Quasi-Newton’s method for generalized equations. Summary Report 1966, Mathematics Research Center, University of Wisconsin, Madison, WI, USA.
v · m
Méthodes de résolution d'équations
Équations polynomiales
Recherche d'un zéro
v · m
Recherche de zéro
Transformations de matrice
Résolutions de systèmes
Intégration numérique
Équations différentielles
Interpolation numérique
  • icône décorative Portail de l'analyse