Complémentarité linéaire
En mathématiques, et plus spécialement en recherche opérationnelle et en optimisation, un problème de complémentarité linéaire est défini par la donnée d'une matrice et d'un vecteur et consiste à trouver un vecteur tel que ses composantes et celles de soient positives et tel que et soient orthogonaux pour le produit scalaire euclidien de :
où désigne le vecteur transposé. Ce problème peut être vu comme un cas particulier d'inéquation variationnelle.
Ces problèmes sont souvent NP-difficile et donc difficiles à résoudre lorsque la dimension du problème devient grande. La combinatoire du problème vient du fait qu'il faut déterminer quelles sont les composantes de la solution qui sont nulles et il y a possibilités de réaliser cela.
Les problèmes de complémentarité se sont d'abord manifestés dans les conditions d'optimalité des problèmes d'optimisation, les conditions de Karush, Kuhn et Tucker. Elles permettent de modéliser des problèmes décrits par plusieurs systèmes d'équations qui sont en quelque sorte en compétition ; celui qui est actif en un endroit et temps donnés, correspondant à un indice commun de et de , dépend de seuils qui sont ou non atteints : si le seuil n'est pas atteint, c'est-à-dire que , l'équation est active. Les exemples de problèmes modélisés par complémentarité sont nombreux ; citons les problèmes de contact, les problèmes d'apparition et de disparition de phases dans les écoulements multiphasiques, les problèmes de précipitation-dissolution en chimie, en météorologie, etc.
Le problème
Quelques notations
Pour un vecteur , la notation signifie que toutes les composantes du vecteur sont positives ou nulles.
On note l'orthant positif de .
Pour deux parties et d'un espace vectoriel, désigne leur somme de Minkowski, qui est l'ensemble .
Définitions
Étant donnés une matrice réelle carrée , non nécessairement symétrique, et un vecteur , un problème de complémentarité linéaire consiste à trouver un vecteur tel que
Le symbole ci-dessus est utilisé pour désigner la transposition du vecteur à sa gauche. Dès lors, l'orthogonalité requise de et de revient à demander que le produit de Hadamard de ces deux vecteurs soit nul :
On écrit souvent ce problème de manière concise comme suit :
Un point vérifiant et est dit admissible pour le problème et l'ensemble
est appelé l'ensemble admissible de ce problème. On dit que le problème est réalisable si . On montre facilement que
On note
l'ensemble des solutions du problème de complémentarité linéaire ; c'est une réunion de polyèdres convexes[1].
Conditions d'optimalité d'un problème d'optimisation quadratique
Les conditions d'optimalité d'un problème d'optimisation quadratique peuvent s'exprimer comme un problème de complémentarité linéaire. En effet, considérons le problème d'optimisation quadratique générique
où , est une matrice symétrique (non nécessairement semi-définie positive), et . Ses conditions d'optimalité du premier ordre s'écrivent pour des multiplicateurs et :
En éliminant le multiplicateur , on obtient un système formé de deux problèmes de complémentarité linéaire couplés
Celui-ci peut s'exprimer comme un unique problème de complémentarité linéaire :
Par ailleurs, lorsque est symétrique semi-définie positive, le problème est équivalent au problème d'optimisation quadratique
En effet, dans les conditions énoncées, le problème d'optimisation quadratique est équivalent à ses conditions d'optimalité du premier ordre : il existe tel que
Après élimination du multiplicateur , on obtient .
Expression sous forme de problème d'optimisation quadratique
Considérons le problème d'optimisation quadratique en suivant :
Si le problème de complémentarité linéaire est admissible, c'est-à-dire si , l'ensemble admissible du problème quadratique est non vide. Dans ce cas, ce problème quadratique a une solution (car son coût est borné inférieurement sur l'ensemble admissible - il y est positif, voir Frank et Wolfe, 1956[2]) et donc des points stationnaires. On note
l'ensemble des points stationnaires du problème d'optimisation quadratique . On a et, par le raisonnement précédent,
On a bien sûr
On notera cependant que (PQ) est, en général, un problème non convexe, si bien que la résolution de passant par celle de (PQ) n'est guère aisée.
Cas particulier d'inéquation variationnelle
Un problème d'inéquation variationnelle sur est défini au moyen d'un produit scalaire sur , d'un ensemble non vide et d'une fonction . Il consiste à trouver un point tel que
Si le produit scalaire est le produit sclalaire euclidien , si est l'orthant positif et si , le problème d'inéquation variationnelle ci-dessus n'est autre que le problème de complémentarité linéaire .
Reformulations au moyen d'équations
On peut exprimer le problème de complémentarité linéaire au moyen d'équations, en général non lisses, c'est-à-dire non différentiables. Les fonctions qui interviennent dans cette formulation et dont on cherche un zéro sont appelées des C-fonctions (C pour complémentarité). Cette formulation est utilisée par des algorithmes de résolution.
On dit que est une C-fonction si
Une C-fonction permet donc de remplacer le problème par le système d'équations non linéaires
où a sa composante définie par
On n'a pas intérêt à avoir des C-fonctions différentiables, car alors n'est pas inversible en une solution dégénérée [3] (et donc l'algorithme de Newton ne fonctionne pas). Il semblerait que des C-fonctions non lisses conduisent à des algorithmes plus efficaces.
On trouvera ci-après quelques exemples de C-fonctions et leurs propriétés.
La C-fonction min
La C-fonction la plus simple est la fonction min :
Elle semble avoir été proposée pour la première fois par Kostreva (1976)[4] et Mangasarian (1977)[5]. On montre facilement qu'il s'agit bien d'une C-fonction. Dès lors
où la fonction min agit composante par composante : pour tout indice .
Galerie de matrices adaptées
Les propriétés des problèmes de complémentarité linéaire dépendent, bien sûr, de celles de la matrice . Ces propriétés sont très variées et ne dépendent pas d'un seul type de matrices. La situation est donc beaucoup plus complexe et très différente de celle rencontrée dans la résolution d'un système d'équations linéaires, dont les propriétés dépendent pour beaucoup de l'inversibilité de la matrice définissant le système. Nous énumérons ci-dessous quelques classes remarquables de matrices et les propriétés du problème de complémentarité linéaire qui y sont associées. Ces classes de matrices ont souvent (mais pas toujours) des caractérisations algébriques qui permettent de reconnaître leurs membres.
- Les -matrices sont celles qui assurent l'existence et l'unicité de solution pour le problème , avec la propriété de monotonie suivante :
- Les matrices non dégénérées sont celles pour lesquelles, quel que soit , toute solution éventuelle de est localement unique.
- Les matrices suffisantes en colonne sont celles qui assurent la convexité de l'ensemble des solutions , quel que soit .
- Les matrices suffisantes en ligne sont celles qui assurent que, quel que soit , l'ensemble des solutions est identique à l'ensemble des points stationnaires du problème quadratique associé (PQ).
- Les -matrices sont celles qui assurent l'existence et l'unicité de solution pour le problème , quel que soit [8].
- Les -matrices sont celles qui assurent l'existence de solution pour le problème , quel que soit .
- Les -matrices sont celles qui assurent que le problème a une solution lorsqu'il est réalisable.
- Les -matrices sont celles qui assurent que est l'unique solution de .
- Les -matrices sont celles qui assurent que l'ensemble admissible , quel que soit .
- Les -matrices sont celles qui assurent l'existence d'un minimum (pour l'ordre de ) de , qui est solution de , pour tout rendant l'ensemble admissible .
Existence de solution
On recense (au moins) deux stratégies pour démontrer qu'un problème de complémentarité linéaire a une solution. La première passe par le problème quadratique associé (PQ) et ses conditions d'optimalité. La seconde repose sur le théorème du point fixe de Brouwer. On ne pense pas aujourd'hui (2013) avoir fait le tour de la question, en particulier, parce qu'on ne sait pas décrire algébriquement la classe des Q-matrices, celles qui assurent l'existence d'une solution quel que soit le vecteur .
Approche par l'optimisation
Dans cette approche, on cherche à montrer que le problème quadratique (PQ) a une valeur optimale nulle. Comme ce problème quadratique a une solution (Frank et Wolfe, 1956[2]), celle-ci est alors solution du problème de complémentarité linéaire .
Par exemple, pour montrer que le problème de complémentarité linéaire a une solution dans le cas où est une -matrice, on écrit les conditions d'optimalité de (PQ) en une solution : comme les contraintes sont qualifiées, il existe des multiplicateurs optimaux et tels que
Il suffit alors de montrer que pour déduire de (c) que est solution de . Par quelques manipulations algébriques astucieuses, on peut obtenir qui implique que grâce à la -matricité de , qui se déduit de celle de .
Approche par point fixe
Dans cette approche, on commence par introduire un problème de complémentarité linéaire augmenté défini par
où et . Ce problème s'écrit comme un système de deux problèmes de complémentarité linéaire couplés, l'un en , l'autre en :
On voit que si l'on réussit à montrer que a une solution avec , sera solution de (par le problème ci-dessus). Le plus souvent, on n'obtiendra ces circonstances qu'après un passage à la limite.
Existence de solution du problème augmenté
La première étape consiste donc à choisir et de telle sorte que le problème augmenté ait une solution. Voici deux résultats, le premier suppose que est symétrique, le second pas.
Existence de solution du PCL augmenté avec symétrique — Si est symétrique et si et sont comme ci-dessus, avec et tels que est bornée inférieurement sur , , alors a une solution.
La démonstration repose sur le fait que, dans les conditions énoncées, le problème d'optimisation quadratique
a une solution (Frank et Wolfe, 1956[2]). Celle-ci vérifie les conditions d'optimalité du premier ordre, qui ne sont autres que les conditions et ci-dessus.
Lorsque n'est pas symétrique, on exprime comme un problème d'inéquation variationnelle dans lequel
Bien sûr est convexe et fermé. Pour le rendre non vide et borné (afin d'appliquer le théorème d'existence de solution d'une IV), il est naturel de prendre et . On obtient alors le résultat suivant.
Existence de solution du PCL augmenté — Si et sont donnés comme ci-dessus, avec et , alors a une solution.
Existence de solution du problème original
La seconde étape consiste à donner des conditions permettant de trouver une solution de à partir d'une solution de . Le résultat suivant donne des conditions suffisantes pour que le multiplicateur dans et ci-dessus soit nul.
CS d'existence de solution du PCL — Soient et . S'il existe un vecteur et un scalaire tels que la fonction quadratique soit positive sur , , alors a une solution.
Dans les conditions nécessaires et suffisantes d'existence de solution du problème données ci-dessous, on ne peut garantir que dans et ci-dessus, mais on suppose que des solutions d'une suite de problèmes augmentés , , sont telles que zéro adhère à .
CNS d'existence de solution du PCL — Soient , et . Les propriétés suivantes sont équivalentes.
- Le problème a une solution.
- Pour toute suite non bornée , les problèmes , avec
ont des solutions telles que zéro est un point d'accumulation de . - Il existe une suite non bornée , telle que les problèmes , avec donné comme au point 2, ont des solutions avec .
On peut utiliser ce résultat pour montrer que
- les matrices strictement copositives sont des Q-matrices,
- un problème avec copositive et (dual positif) a une solution.
Méthodes de résolution
Comme on peut s'y attendre, il n'y a pas d'algorithme idéal pour résoudre un problème de complémentarité linéaire, mais un ensemble d'algorithmes qui sont, par leurs caractéristiques, plus ou moins adaptés à des classes particulières de problèmes.
Méthodes de pivotage
Les méthodes de pivotage ont une complexité pire-cas exponentielle. Pour une description des approches algorithmiques de ce type, voir Murty (1988), Cottle et Pang (2009).
Méthodes non lisses brutes
La stratégie suivie ici consiste à exprimer le problème de complémentarité linéaire au moyen d'une C-fonction et à résoudre le système non lisse résultant par des itérations apparentées à celles de Newton.
- Algorithme de Newton-min
- Algorithme de Newton-Fischer-Burmeister
Méthodes non lisses régularisées
On exprime le problème de complémentarité linéaire comme une équation non lisse à résoudre (voir la section Méthodes non lisses) et on régularise celle-ci. Cette régularisation dépend d'un paramètre que l'on réduit au cours des itérations. Voir par exemple, la contribution de Chen et Mangasarian (1995[9]).
Cette approche est apparentée à celle par points intérieurs. Leur analyse conduit à des résultats de convergence globale et locale rapide, sans résultat de complexité (contrairement aux algorithmes de points intérieurs).
Annexes
Notes
- (en) M.J.M. Janssen (1983). On the structure of the solution set of a linear complementarity problem. Cahiers Centre Études Rech. Opér., 25, 41–48.
- (en) M. Frank, P. Wolfe (1956). An algorithm for quadratic programming. Naval Research Logistics Quarterly, 3, 95–110.
- Facchinei et Pang (2003), proposition 9.1.1.
- (en) M. Kostreva (1976). Direct Algorithms for Complementarity Problems. Ph.D. thesis, Rensselaer Polytechnic Institute, Troy, New York.
- (en) O. Mangasarian (1977). Solution of symmetric linear complementarity problems by iterative methods. Journal of Optimization Theory and Applications, 22, 465–485.
- (en) A. Fischer (1992). A special Newton-type optimization method. Optimization, 24, 269–284.
- (en) A. Fischer (1995). A Newton-type method for positive semidefinite linear complementarity problems. Journal of Optimization Theory and Applications, 86, 585–608.
- (en) H. Samelson, R.M. Thrall, O. Wesler (1958). A partition theorem for the Euclidean n-space. Proceedings of the American Mathematical Society, 9, 805–807.
- (en) C. Chen, O.L. Mangasarian (1995). Smoothing methods for convex inequalities and linear complementary problems. Mathematical Programming, 71, 1–112. doi
Ouvrages généraux
- (en) R. W. Cottle, J.-S. Pang et R. E. Stone, The Linear Complementarity Problem, Philadelphia, PA, SIAM, coll. « Classics in Applied Mathematics » (no 60),
- (en) F. Facchinei et J.-S. Pang, Finite-Dimensional Variational Inequalities and Complementarity Problems (2 vol.), New York, Springer-Verlag, coll. « Springer Series in Operations Research », 2003
- (en) K. G. Murty, Linear Complementarity, Linear and Nonlinear Programming, Berlin, Heldermann Verlag, coll. « Sigma Series in Applied Mathematics » (no 3), (ISBN 978-3-88538-403-8), téléchargeable sur le site de l'auteur
- Portail des mathématiques