Algorithme correcteur-prédicteur en programmation linéaire
Algorithme correcteur-prédicteur en programmation linéaire
Mémoire
Présentée par :
AGDOUCHE Fouzia
BENRAI Feriel
Pour l’obtention du diplôme de
Master
Filière : Des Mathématiques appliquées.
Spécialité : Méthodes et outils pour la recherche Opérationnelle.
Thème :
Étude théorique et numérique d’un algorithme de point
intérieur de type correcteur-prédicteur pour la
programmation linéaire.
Promotion 2021/2022
•
Remerciements
A vant tout on remercie ” Allah” tout puissant pour la volonté, la patience que
nous a données d’accomplir ce travail.
N ous remercions les membres du jury pour leur présence, pour leur lecture atten-
tive de ce mémoire, ainsi que pour les remarques qu’ils m’adresseront lors de
cette soutenance afin d’améliorer mon travail.
Merci !
AGDOUCHE F`o˘u˚zˇi`affl -
Dédicace
Je dédie ce modeste travail...
Merci !
BENRAI F`eˇr˚i`e¨l -
Table des matières
Introduction 7
5
TABLE DES MATIÈRES
3 Implémentation numérique 42
3.1 Calcul des directions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1.1 La phase de correction . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1.2 La phase de prédiction . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2 Choix alternative du pas de déplacement . . . . . . . . . . . . . . . . . . . 46
3.3 Tests numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Conclusion 55
Bibliographie 56
6
Table des figures
7
Introduction
8
Introduction
√
nouvelle direction de recherche pour resoudre le PL où ψ(t) = t − t.
• Dans le troisième chapitre, on implémente numériquement des pas de déplace-
ment θ de la phase de prédiction, et on présente les tests numériques appliqués sur
quelques problemes linéaire, avec la comparaison entre le choix théorique de θ et
d’autre alternatives du pas de déplacement.
On terminera ce mémoire par une conclusion générale.
9
Introduction
Notations
Rn : L’espace des vecteurs réels de dimension n,
Rn+ : L’orthant positif de Rn ,
Rm×n : L’espace vectoriel des matrices réelles de taille (m × n),
k.k : Norme euclidienne sur Rn ,
rg(A) : Le rang de la matriceA ∈ Rm×n ,
At : Le transposé d’une matrice A ∈ Rm×n ,
aij : Elément de la matrice A ∈ Rm×n ,
xt : Transposé d’un vecteurx ∈ Rn ,
xz = xi zi , ∀i,
x xi
z = zi , ∀i; zi , 0,
x 2 = xi2 , ∀i,
−1 1
x = xi (xi , 0, ∀i),
x ≥ 0(x > 0) = xi ≥ 0(xi > 0), ∀i,
ò 0(x < 0) =
x x ≤ 0(xi < 0), ∀i,
√i
x = xi (xi > 0, ∀i),
e : Un vecteur de Rn tel que ei = 1, ∀i = 1, ..., n,
1
2e = ( 12 , ..., 21 ),
∆x, ∆z : les directions de Newton,
0m×n : La matrice zéro (m × n),
Im : La matrice identité de taille (m × m),
min(x) : min(xi ), i = 1, ..., n,
diag(x) = X la matrice diagonale avec Xii = xi .
10
Introduction
Terminologie
PM : Programmation mathématique,
PL : Programmation linéaire,
(P) : Le problème linéaire sous forme primal,
(D) : Le problème dual de (P),
K.K.T : Karush-Kuhn-Tucker,
TC : Trajectoire centrale,
CPI : Condition de points intérieurs.
11
Chapitre 1
1.1 Préliminaires :
1.1.1 Produit scalaire et norme
On commence par la définition du produit scalaire de deux vecteurs.
Définition 1.1.1.
Étant donné deux vecteurs x, y ∈ Rn , le produit scalaire euclidien est définie par :
n
X
t
hx, yi = x y = xi yi .
i=1
Définition 1.1.2.
La norme vectorielle est une application de Rn dans R+ notée par k.k et vérifie les conditions
suivantes :
1. ∀x ∈ Rn : kxk = 0 ⇔ x = 0,
2. ∀λ ∈ R, ∀x ∈ Rn : kλxk = |λ|kxk,
3. ∀x, y ∈ Rn : kx + yk ≤ kxk + kyk.
12
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
Définition 1.1.3.
L’ensemble de m vecteurs vi est dit linéairement indépendant si et seulement si :
m
X
λi vi = 0 ⇒ λi = 0, ∀i = 1, ..., m.
i=1
Remarque 1.1.1.
La matrice B ∈ Rm×m qui est formé de m vecteurs linéairement indépendantes est inversible.
Définition 1.1.4.
Soit A ∈ Rm×n , le nombre maximale des lignes ( ou des colonnes) de A linéairement indépen-
dantes est appelé le rang de A, est noté par rg(A).
De plus, A est dite de plein rang si :
13
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
Exemple 1.1.
Soit S1 = {x ∈ R2 : x12 + x22 ≤ 4, x1 + x2 ≤ 1}.
La figure (1.2) montre que S1 est convexe.
14
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
S1 + S2 = {x + y : x ∈ S1 et y ∈ S2 },
S1 − S2 = {x − y : x ∈ S1 et y ∈ S2 },
S1 × S2 = {(x, y) : x ∈ S1 et y ∈ S2 },
sont convexes.
3. Le produit d’un ensemble convexe S avec un scalaire α ∈ R est un convexe
αS = {αx : x ∈ S}.
Remarque 1.2.1.
La réunion des parties convexes généralement pas convexes : l’hexagone et l’ellipse ci-dessous
sont convexes, leur intersection il est convexe mais leur réunion ne l’est pas convexe.
Définition 1.2.2.
Soit S un ensemble non vide. On dit que S est un polyèdre convexe s’il est de la forme :
S = {x ∈ Rn : αit x ≤ bi , i = 1, · · · , m},
Remarque 1.2.2.
S peut s’écrire sous la forme matricielle suivante :
S = {x ∈ Rn : Ax ≤ b},
15
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
Définition 1.2.3.
La fonction f : S −→ R est dite convexe sur S si :
et si l’inégalité au dessus est stricte, alors f est dite strictement convexe pour tout x , y.
Remarque 1.2.3.
On dit que f est concave si (−f ) est convexe.
Exemple 1.2.
- la fonction R −→ R, x −→ |x| est convexe.
- la fonction R∗+ −→ R, x −→ ln (x) est concave.
16
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
∀x, y ∈ C et ∀λ ∈ R, λx + (1 − λ) y ∈ C.
Définition 1.2.5.
L’ensemble C qui s’écrit sous la forme :
C = {x ∈ Rn : pit x ≤ αi , i = 1, · · · , m},
où pi est un vecteur non nulle de Rn et αi est un scalaire pour i = 1, · · · , m est dite polyèdre .
Définition 1.2.6.
Une fonction f : C ⊆ Rn −→ Rm est dite affine si :
17
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
Remarque 1.2.4.
Soit g : Rm −→ R une fonction et h : Rn −→ Rm une fonction affine (i.e., h (x) = Ax + b, A ∈
Rm×n et b ∈ Rm ), alors la fonction composée g ◦ h est convexe.
• Programme mathématique
Un programme mathématique est un problème d’optimisation qui consiste à trouver une
solution du problème qui maximise ou minimise une fonction donnée sous un ensemble de
contraintes.
En générale, un programme mathématique est défini par :
min f (x)
(P M)
x ∈ D,
18
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
• Solution réalisable
On appelle solution réalisable de (P M) tout point vérifiant les contraintes c’est à dire :
x∗ ∈ D.
f (x∗ ) ≤ f (x) , ∀x ∈ D ∩ v,
19
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
2. La condition de Slater : Si D est convexe (c-à-d gi (x) sont convexes et hj (x) sont affines)
et int(D) , φ c-à-d
∃x0 : gi (x0 ) < 0 et hj (x0 ) = 0 , ∀i, j.
3. La condition de Magazarian-Fromowitz : Si les gradients des contraintes saturées en x ∈ D
sont linéairement indépendants.
Exemple 1.3.
Considérons le (P M) suivant :
minf (x) = x1 + x2
x12 + x22 ≥ 1
(1.1)
x12 + x22 ≤ 2
x1 , x2 ≥ 0.
f est une fonction continue et l’ensemble des solutions réalisables qui donne par l’arc est compact
(voir la figure 1.9). D’après le théorème 1.3.1 on obtient une solution optimale de (1.1) qui n’est
pas unique.
20
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
Corollaire 1.3.1.
Si D ⊆ Rn est non vide et fermé et si f est continue et coercive sur D (c-à-d f (x) → +∞ lorsque
||x|| → +∞), alors (P M) admet au moins une solution optimale.
• Unicité
Si f est strictement convexe et l’ensemble D est convexe, alors si (P M) admet une solution
optimale, la solution est unique .
Remarque 1.3.1.
La strict convexité n’assure pas l’existence de la solution mais assure l’unicité .
Théorème 1.3.2.
Supposons que les fonctions f , gi , hj sont de classe C 1 dans un voisinage de x ∈ D et que les
contraintes vérifient une des trois conditions de qualification déja citée. Si f a un minimum
local en x sur D alors ∃λ ∈ Rm p
+ , ∃µ ∈ R tel que :
m p
5f (x) + λ 5 g (x) + µj 5 hj (x) = 0,
P P
i i
i=1 j=1
(K.K.T )
λi gi (x) = 0, ∀i = 1, ....., m
h (x) = 0, ∀j = 1, ...., p.
j
Remarque 1.3.2.
1. Si les contraintes de (P M) ne sont pas qualifiées en x, les conditions de (K.K.T) ne
s’appliquent pas.
2. Si (P M) est convexe, les conditions de (K.K.T) sont à la fois nécessaires et suffisantes
pour que x soit un minimum global.
21
CHAPITRE 1. RAPPELS SUR L’ANALYSE CONVEXE ET LA PROGRAMMATION
MATHÉMATIQUE
F(x) = 0, où F : Rn → Rn et n ≥ 2.
c-à-d trouver x ∈ Rn tel que :
f1 (x1 , ..., xn ) = 0,
f2 (x1 , ..., xn ) = 0,
....
fn (x1 , ..., xn ) = 0.
Chaque équation fi (x1 , .., xn ) = 0 est considéré comme une surface de Rn × Rn ; l’intersec-
tion de n surfaces nous donne la solution x ∈ Rn ; F(x) = 0. Alors on peut remplacer chaque
surface associé à fi (x) = 0 par l’hyperplan qui est tangent au point x(k) .
On définit alors le point x(k+1) comme l’intersection de ces n hyperplan avec l’hyperplan
y = 0.
On a :
F(x(k+1) ) ' F(x(k) ) + F 0 (x(k) )(x(k+1) − x(k) ),
alors :
0 = F(x(k) ) + F 0 (x(k) )(x(k+1) − x(k) ),
et par conséquent :
x(k+1) = x(k) − [F 0 (x(k) )]−1 F(x(k) ).
Puisque F : Rn → Rn , alors F 0 (x(k) ) = J(x(k) ) ou J(x) désigne la matrice jacobienne donc :
22
Chapitre 2
Dans ce chapitre, on présente une synthèse sur le problème linéaire et ainsi la méthode de
point intérieur de type prédicteur -correcteur basée sur une nouvelle direction de recherche
pour PL.
tels que :
c ∈ Rn , A ∈ Rm×n , b ∈ Rm des données et x ∈ Rn+ (inconnu).
On note par :
— L’ensemble des solutions réalisables primales de (P) est :
FP = {Ax = b, x ≥ 0} .
On note que Fp est un polyèdre convexe fermé.
— L’ensemble des solutions strictement réalisable primales est :
Fp+ = {Ax = b, x > 0} .
— La valeur optimale primale du problème (P) est définie par :
val(P ) = inf ct x : Ax = b, x ∈ Rn+ .
n o
x
— x∗ est une solution optimale primale du problème (P) si :
x∗ ∈ Fp et val(P ) = ct x∗ .
23
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
max bt y
(D)
t
A y + z = c,
y ∈ Rm , z ≥ 0,
FD = At y + z = c, z ≥ 0 et y ∈ Rm .
n o
— L’ensemble des solutions strictement réalisable duales de (D) est noté par :
+
= At y + z = c, z > 0 et y ∈ Rm .
n o
FD
val(D) = sup bt y : At y + z = c, z ≥ 0 et y ∈ Rm .
n o
(y,z)
(y ∗ , z∗ ) ∈ FD et val(D) = bt y ∗ .
— Et on note par :
FP × FD et FP+ × FD
+
,
les ensembles des solutions réalisables primales-duales et strictement réalisable primales-
duales de (P) et (D) respectivement.
val(P ) − val(D) = ct x − bt y,
= xt z.
ct x − bt y = xt z ≥ 0.
Si le saut de dualité xt z = 0, alors x est un solution optimal de (P) et (y, z) solution optimale
de (D).
24
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
Preuve.
On a :
ct x − bt y = xt z,
n
xi zi ≥ 0 car x ≥ 0 et z ≥ 0.
X
=
i=1
bt y = ct x.
Corollaire 2.2.1.
— Si ct x est non borné inférieurement sur FP alors (D) est non réalisable ( l’ensemble des
contraintes duales FD est vide ).
— Si bt y est non borné supérieurement alors (P) est non réalisable (c-à-d :FP est vide).
— Si (P) est non réalisable alors (D) est non borné(et réciproquement ).
min ct x
Ax ≥ b(ou ≤),
x ≥ 0,
25
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
min ct x
Ax = b,
x ≥ 0.
Exemple 2.1.
Une avion peut porter W kg supplémentaire sur un vol régulier, il y a n colis à transporter et
chaque colis i, i = 1, 2, .., n pèse ai et génère un profit de pi en dinar.
Ce problème est un modèle du sac à dos.
Considérons les variables binaires
1 si le coli i, i = 1, 2, 3, ..., n
xi =
0 si non .
max Z = ni=1 pi xi
P
Pn
i=1 ai xi ≤ W ,
x ∈ {0, 1}.
Exemple 2.2.
Une compagnie de taxi dispose de quatre véhicules libres et doit transporter quatre clients. Le
but de la compagnie est d’assigner un taxi par client en minimisant la somme des distances par-
courues. Les distances respectives (en kilomètres) entre les taxis et les voyageurs sont données
par le tableau suivant :
26
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
min ct x
(P)
Ax = b,
x ≥ 0,
Pour résoudre les deux problèmes (P) et (D), on suppose qu’ils vérifient les hypothèses
suivantes :
27
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
Hypothèses
1. la matrice A est de plein rang ( c-à-d : rg(A) = m ≤ n).
2. Condition de point intérieur (CPI) : ∃(x0 , y 0 , z0 ) ∈ FP+ × FD
+
, tels que :
Ax0 = b,
At y 0 + z0 = c,
x0 > 0, z0 > 0, y 0 ∈ Rm .
On note que (P) consiste à minimiser une fonction linéaire (convexe) sous l’ensemble des
contraintes qui est un polyèdre convexe. Comme FP est non vide (hypothèse 2), ∃z ∈
Rn+ ; ∃y ∈ Rm . Alors les conditions d’optimalité de Karuch -Kuhn- Tucher sont nécessaires
et suffisantes et s’écrivent comme suit :
n m
O(c t x) − P z (Ox ) + P y (O(b − Ax)) = 0,
i i i
i=1 j=1
(K.K.T )
.
At x = b,
z x = 0.
i i
c − z − At y = 0,
t
A x = b,
zx = 0.
Donc :
Ax = b,
At y + z = c, (2.1)
xz = 0, x > 0, z > 0 et y ∈ Rm .
tel que µ > 0, e = (1, ..., 1)t ∈ Rn . Il est prouvé [22] qu’il existe une solution unique (x(µ), y(µ), z(µ))
pour le système (2.2) pour tout µ > 0. L’ensemble (x(µ), y(µ), z(µ)); µ > 0 s’appelle la tra-
jectoire central (voir [17, 23]). De plus, si µ −→ 0 alors xt z tend vers le zéro c-à-d trouver
une solution optimale pour (P) et (D) revient à résoudre le système (2.2).
28
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
Ax = b, x ≥ 0,
(2.3)
t
A y +z = c, z ≥ 0,
ψ xz = ψ (e) .
µ
En utilisant la méthode de Newton pour résoudre le système non linéaire (2.3), on obtient
le système suivant :
A∆x = 0,
(2.4)
t
A ∆y +∆z = 0,
z ψ 0 xz ∆x + x ψ 0 xz ∆z = ψ (e) − ψ xz .
µ µ µ µ µ
Où 4x, 4y, 4z désigne les directions de recherche, par conséquent on définit le vecteur v
pour tout vecteur réalisable primal x > 0, et le vecteur réalisable dual z > 0 :
xz
r
v= .
µ
On définit les vecteurs normés de la direction de déplacement dx et dz comme suit :
v∆x v∆z
dx := , dz := . (2.5)
x z
On a,
et
∆x∆z
dx dz = . (2.7)
µ
On peut facilement vérifier que le système (2.4) s’écrit sous la forme suivante :
Adx = 0,
t ∆y
A µ + dz = 0, (2.8)
d + d = p ,
x z v
où
x
A := A diag( ),
v
et
ψ(e) − ψ(v 2 )
pv := .
vψ 0 (v 2 )
29
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
2(v − v 2 )
pv = , (2.9)
2v − e
et
v − v2
δ(v) = ,
2v − e 2
présenté par dravay[8]
C’est facile de vérifie que :
δ(v) = 0 =⇔ v = e ⇔ xz = µe.
Soit
qv = dx − dz .
Puisque dx et dz sont orthogonal, c-à-d dxt dz = 0 alors :
kpv k2 = kqv k2 ,
c-à-d :
kdx + dz k2 = kdx − dz k2 .
Et par conséquent :
kqv k2 kpv k2
δ (x, z; µ) = = .
2 2
De plus,
pv + qv p − qv
dx = et dz = v ,
2 2
alors :
pv2 − qv2
dx dz = . (2.10)
4
Les bornes inférieure et supérieure sur les composantes du vecteur v sont présentées par le
lemme suivant.
30
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
où 0 < τ < 1. L’algorithme commence par une solution primale-duale strictement réalisable
donnée (x0 , y 0 , z0 ) ∈ N (τ). Si pour l’itération courante (x, y, z), nµ > , alors l’algorithme
calcule une nouvelle itération en exécutant les étapes de correction et prédiction.
Dans l’étape de correction, on définit :
xz x
r
v= , A = A diag( ),
µ v
x+ z+ + x+
r
+
v = , A = Adiag( + ),
µ v
p p
et on obtient les directions de recherche dx et dz en résolvant le système suivant :
p
A+ dx = 0,
+ t ∆p y
p
(2.13)
A µ + dz = 0,
dxp + dzp = −2v + .
On note que la partie droite du système (2.13) est inspirée de l’étape du prédicteur proposée
dans Darvay (2005). Comme pour ∆x et ∆z, on définit
x+ p p z+ p
∆p x = d x , ∆ z = dz , (2.14)
v+ v+
et l’itération du prédiction est obtenue par :
31
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
32
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
2.6.2 Algorithme
Dans cette partie, on présente un algorithme de point intérieur de type correcteur-prédicteur
basé sur une nouvelle direction de recherche pour (PL) :
33
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
L’étape de correcteur
Dans cette sous-section, on va traiter l’étape du correcteur. On peut observer que l’algo-
rithme 2.6.2 effectue une étape de Newton complète comme une étape de correcteur, qui
peut être obtenu de la même manière que celui présenté dans l’algorithme primal-dual de
Darvay et al .(2016). Ainsi, pour l’analyse de ce cas les Lemmes prouvés dans [8] On peut
appliquée .
Preuve.
Pour chaque 0 6 α 6 1 on note x+ (α) = x + α∆x et z+ (α) = z + α∆z. Maintenant, on écrit
Donc
x+ (α)z+ (α) = xz + α(z∆x + x∆z) + α 2 ∆x∆z.
En utilisant (2.6) et (2.7), on obtient :
1 + + 2 2
µ x (α)z (α) = v + αv(dx + dz ) + α dx dz . (2.15)
1 + 2 qv2
!
+ 2 2 2 pv
x (α)z (α) = (1 − α)v + α(v + vpv ) + α − .
µ 4 4
De plus, d’après (2.9) on obtient :
2(v 2 −v 3 )
v 2 + vpv = v 2 + 2v−e ,
v2
(2.16)
= 2v−e ,
donc on obtient :
(v−e)2 pv2 qv2
1 + + 2
µ x (α)z (α) = (1 − α)v + α e+ 2v−e +α 4 −α 4 . (2.17)
34
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
pv2 q2
(1 − α) +α v < 1.
4 4 ∞
On a :
pv2 q2 kpv2 k∞ kq2 k
(1 − α) +α v ≤ (1 − α) +α v ∞,
4 4 ∞
4 4
kpv k22 kqv k22
≤ (1 − α) +α = δ2 < 1.
4 4
Ainsi, on obtient que pour chaque n l’inégalité x+ (α)z+ (α) > 0 est vraie, ce qui signifie que
les fonctions linéaire de α, x+ (α) et z+ (α) ne change pas de signe sur l’intervalle [0, 1]. En
conséquence, x+ (0) = x > 0 et z+ (0) = z > 0 donne x+ (1) = x+ > 0 et z+ (1) = z+ > 0.
En outre, √
δ+ := δ(x+ , z+ ; µ) ≤ 9−3 3 2
2 δ ,
(2.19)
Preuve.
On a le Lemme 2.7.2 que x+ > 0 et z+ > 0. En considérant la notation
x+ z+
r
+
v = ,
µ
et la substitution α = 1 dans l’inégalité (2.17), après quelques réductions on obtient :
p2 qv2
(2.20)
2
(v + )2 = e − e−2v−v
v2
. 4v − 4.
v 2 + 2v − e > 0,
et cela implique
qv2
(v + )2 ≥ e − .
4
35
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
Par conséquent,
q
kq k2 √
(2.21)
q
1 2
min(v + ) ≥ 1 − 4 kqv k∞ ≥ 1 − 4v 2 = 1 − δ2 .
De δ < 1
il s’ensuit que
2 √
+ 3
min(v ) > ,
2
donc
1
v + > e.
2
De plus, on a :
+ + v + − (v + )2 v+
δ(x , z ; µ) = = .(e − (v + )2 ) .
2v + − e 2
+ +
(2v − e)(e + v ) 2
t(2t + 1)(1 − t)
f (t) = .
(4t 2 − 1)(1 − t 2 )
√
En substituant 1 − δ2 et en faisant quelques réductions élémentaires on obtient :
√
√ 1 − δ2 − 1 − δ2 (1 − 2δ2 )
f 1 − δ2 = . (2.23)
δ2 (3 − 4δ2 )
t 2 +2t−1
On a 1 < t2
≤ 2, pour tout t > 1
2 et
+ 2 e − 2v − v 2 pv2 qv2
e − (v ) = . + .
v2 4 4
Ainsi,
p2 qv2
ke − (v + )2 k2 ≤ 2 − 4v + 4 2,
2
2 2 (2.24)
≤ 2δ + δ ,
= 3δ2 .
Et en utilisant (2.22) et (2.23) on obtient (2.18), ce qui prouve la première partie du Lemme.
De plus on a :
√ √
3δ2 −1 + 2 1 − δ2
3 1 − 1 − δ2
δ(x+ , z+ ; µ) ≤ + .
3 − 4δ2 3 − 4δ2
Soit √ √
3δ2 −1 + 2 1 − δ2
3 1 − 1 − δ2
Φ1 (δ) := et Φ2 (δ) := .
3 − 4δ2 3 − 4δ2
36
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
On a :
1 √
√ < 4 − 2 3,
1 + 1 − δ2
et
√
1 4−2 3 2
Φ (δ) < δ .
3 1 3 − 4δ2
De plus, si δ < 12 , alors 4δ2 < 1. Ainsi, 1
3−4δ2
< 1
2 et on obtient :
√
1
Φ
3 1 (δ) < 4−2 3 2
2 δ .
(2.25)
1
(x+ )t z+ ≤ µ(n + ).
4
Preuve.
En substituant α = 1 dans (2.15) et en utilisant (2.8) on a :
1 + +
x z = v 2 + vpv + dx dz .
µ
1 + + p2
x z ≤ e + v + dx dz .
µ 4
37
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
(x+ )t z+ = et (x+ z+ ),
et pv2
≤ µ(et e + + et dx dz ),
4
kpv k22
= µ(n + + dxt dz ),
4
= µ(n + δ2 ).
L’étape de prédicteur
2.7.3 Analyse de la stricte faisabilité
Le Lemme suivant montre la stricte faisabilité après une étape de prédiction
désignent les itérations après une étape de prédicteur. Alors (xp , y p , zp ) est une solution primale-
duale strictement réalisable si :
#2 √ 2 2
1 1 2θ n 1
"
+ +
h(δ , θ, n) := + − + ρ(δ ) > 0,
2 4ρ(δ+ ) 1 − 2θ 2
où δ+ := δ(x+ , z+ ; µ).
Preuve.
Pour chaque 0 ≤ α ≤ 1, on note que xp (α) = x+ + αθ∆p x et zp (α) = z+ + αθ∆p z. Par
conséquent, on a :
p
A+ dx = 0,
+ t ∆p y
p
(2.27)
A µ + dz = 0,
p p
dx + dz = −2v + .
p p
= µ (1 − 2αθ)(v + )2 + α 2 θ 2 dx dz .
h i
38
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
39
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
Preuve.
Puisque h(δ+ , θ, n) > 14 , d’après (2.31) on a min(v p )2 ≥ 41 , ce qui donne v p > 12 e. De plus,
du Lemme 2.7.6 on déduire que l’étape de prédiction est strictement réalisable ; xp > 0 et
zp > 0. Maintenant, par la définition de la mesure de proximité, on a :
v p −(v p )2 vp
e − (v p )2
δp : = δ(xp , zp ; µp ) = 2v p −e 2 = (2v p −e)(e+v p )
,
2
p
vmin
≤ p p (e − (v p )2 2
,
(2vmin )(vmin +1)
√
h(δ+ ,θ,n)
≤ √ e − (v p )2 2
, (2.32)
2h(δ+ ,θ,n)+ h(δ+ ,θ,n)−1
√
h(δ+ ,θ,n) 2 p p
= √ e − (v + )2 − 1−2θ
θ
dx dz ,
2h(δ+ ,θ,n)+ h(δ+ ,θ,n)−1 2
√
h(δ+ ,θ,n) 2 p p
e − (v + )2
h i
≤ √ + θ
2 1−2θ
dx dz 2
,
2h(δ+ ,θ,n)+ h(δ+ ,θ,n)−1
où les deux première inégalités sont dues au Lemme 5.2 dans [8] et (2.31), respectivement.
La dernière égalité découle de (2.30) et la dernière inégalité est due à l’inégalité triangulaire.
q
x+ z+
On donne une limite supérieure pour ke−(v 2 )2 k2 . En utilisant la définition de v + = µ
et (2.10) , on a :
ke − (v + )2 k2 = k(v + dx )(v + dz ) − ek2 ,
= kv 2 + v(dx + dz ) − e + dx dz k2 , (2.33)
pv2 −qv2
≤ kv 2 + vpv − ek2 + k 4 k2 .
De plus, la troisième équation du système (2.11) donne :
2v 2 (e−v)
v 2 + vpv − e = v 2 + 2v−e − e,
(v−e)2
= 2v−e , (2.34)
(v−e)2 v 2 pv2
≤ (2v−e)2
= 4.
θ2 p p θ2 p p
ke − (v + )2 k2 + kdx dz k2 ≤ 3δ2 + √ kdx + dz k22 ,
1 − 2θ 2 2(1 − 2θ)
√ 2
2θ
= 3δ2 + kv + k22 ,
1 − 2θ
√ 2 2
2 2θ n 1 +
≤ 3δ + + ρ(δ ) .
1 − 2θ 2
La substitution de cette borne dans (2.32) donne l’inégalité souhaitée.
40
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
θ2
"#
p t p p t p 2 tp p + 2
(x ) z = µ e (v ) = (1 − 2θ)µe (v ) + dx dz ,
1 − 2θ
p p
= (1 − 2θ)(x+ )t z+ + µθ 2 (dx )t dz ,
1
≤ µ(1 − 2θ) n + ,
4
1
= µp n + ,
4
p p
où l’inégalité est due au Lemme 2.7.5 et (dx )T dz = 0. Ceci termine la preuve.
où δ+ et h(δ+ , θ, n) sont définis comme dans le Lemme 2.7.6. On peut facilement vérifier
que h(δ+ , θ, n) est décroissante par rapport
√
à δ+ , donc h(δ+ , θ, n) ≥ h(ω(τ), θ, n).
On considére la fonction f (t) = √t , pour t > 14 . De f 0 (t) < 0, il s’ensuit que f est
2t+ t−1
décroissant, donc :
f (h(δ+ , θ, n)) ≤ f (h(ω(τ), θ, n)) . (2.38)
41
CHAPITRE 2. ALGORITHME DE POINT INTÉRIEUR DE TYPE PRÉDICTEUR -
CORRECTEUR POUR LA PROGRAMMATION LINÉAIRE
En utilisant (2.36), (2.37), (2.38) et le fait que ρ est croissante par rapport à δ+ , on obtient :
√
2 2nθ 2 1 2
p
h(ω(τ), θ, n) 3τ + 1−2θ [ 2 + ρ(ω(τ))]
δp ≤ p ,
2h(ω(τ), θ, n) + h(ω(τ), θ, n) − 1
quand h(ω(τ), θ, n) > 41 . Si on prend τ = 14 et θ = 5√1 n , ensuite δp < τ et h(δ+ , θ, n) > 14 .
Il convient de mentionner, que les itérations après les étapes du correcteur sont dans le
voisinage N (ω(τ)), tandis que les itérations après les étapes du predicteur sont dans le
voisinage N (τ).
42
Chapitre 3
Implémentation numérique
Adx = 0,
t ∆y
A µ + dz = 0, (3.1)
d + d = 2(v−v 2 ) .
x z 2v−e
Tel que :
x
A = Adiag( ).
v
On obtient, les directions (dx ;∆y ;dz ). puis on utilisant le changement de variable :
v∆x v∆z
dx := , dz := .
x z
43
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
A∆x = 0,
(3.2)
t
A ∆y + ∆z = 0,
z 0 xz x 0 xz
xz
ψ ∆x + ψ ∆z = ψ (e) − ψ µ .
µ µ µ µ
√
Dans ce travail, on s’intéresse par ψ(t) = t − t alors, ψ 0 (t) = 1 − √
1
.
2 t
On pose t = µ , alors on obtient :
xz
!
xz xz xz
r
ψ = − , (3.3)
µ µ µ
!
0 xz e
ψ =e− q , (3.4)
µ 2 xzµ
√
ψ (e) = e − e = 0. (3.5)
En remplaçant (3.3),(3.4) et (3.5) dans la troisièmme équation de le système (3.2) on obtient :
! ! !
z 0 xz x 0 xz xz
ψ ∆x + ψ ∆z = ψ (e) − ψ ,
µ µ µ µ µ
z e x e xz xz
r
⇐⇒ e − q ∆x + e − q ∆z = − + ,
µ 2 xz µ 2 xz µ µ
µ µ
e e √
⇐⇒ z e − q ∆x + x e − q ∆z = −xz + xzµ,
2 xz 2 xz
µ µ
e √
⇐⇒ e − q (z∆x + x∆z) = −xz + xzµ,
2 xz
µ
√
q
xz
2
−xz + xzµ µ
⇐⇒ (z∆x + x∆z) = q ,
xz
2 µ −e
q
2xz e − xz µ
⇐⇒ (z∆x + x∆z) = q ,
2 xzµ − e
⇐⇒ (z∆x + x∆z) = pv .
Tel que
q
2xz e − xz
µ xz 1
r
pv = , v= > e.
µ 2
q
xz
2 µ −e
44
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
A∆x = 0,
t
A ∆y + ∆z = 0,
z∆x + x∆z = pv .
0 A 0 ∆y 0
t
A 0 I ∆x = 0 .
0 Z X pv
∆z
Avec X = diag(x) et Z = diag(z), ce dernier est un système linéaire carré a (m + 2n) équa-
tions, et (m + 2n) inconnus. on résoud ce dernier système pour obtenir (∆x; ∆y; ∆z).
Par conséquent, le nouveau itéré obtenu après la phase de correction est donnée par :
x+ = x + ∆x ; y + = y + ∆y ; z+ = z + ∆z.
x+ z+ x+
r
+
v + := , A := Adiag( ),
µ v+
et
p v + ∆p x p v + ∆p z
dx := , dz := .
x+ z+
+ p p
En remplaçant v + , A , dx et dz dans le système (3.6) on obtient :
x+ v+ p
! !
+ p
• A dx = 0 ⇐⇒ Adiag + ∆ x = 0,
v x+
p
⇐⇒ A∆ x = 0,
car
x+ v+
! !
diag + = e.
v x+
45
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
√
py
x + At p v+
!
t+ ∆ p
• A + dz = 0 ⇐⇒ diag + ∆ y + + ∆p z = 0,
µ v µ z
q
x+ z+
x+ At µ
⇐⇒ diag( q ) ∆p y + ∆p z = 0,
x+ z+ µ z+
µ
s
x+ µ At p
r
x+ p
⇐⇒ diag ∆ y + ∆ z = 0,
z+ µ z+ µ
s r
+ x+ p
!
x t p
⇐⇒ diag A ∆ y + ∆ z = 0,
µ µ
⇐⇒ At ∆p y + I∆p z = 0.
v+ v+ x+ z+
r
p p +
• dx + dz = −2v ⇐⇒ + ∆p x + + ∆p z = −2 ,
x z µ
q q
x+ z+ x+ z+
x+ z+
r
µ µ
⇐⇒ ∆p x + ∆p z = −2 ,
x+ z+ µ
s s s
z+ p x+ P x+ z+
⇐⇒ + ∆ x + ∆ z = −2 ,
µx µz+ µ
√
r r
z+ p x+ p
⇐⇒ ∆ x + ∆ z = −2 x+ z+ ,
x+ z+
√
en multipliant les deux membres de cette équation par x+ z+ , on obtient :
z+ ∆p x + x+ ∆p z = pv + ,
tel que
pv + = −2x+ z+ .
par conséquent, on obtient le nouveau système suivant :
A∆x = 0,
(3.7)
t p
A ∆ y + I∆p z = 0,
z+ ∆p x + x+ ∆p z = pv + .
La forme matricielle :
p
0 A 0 ∆ y 0
t p
A 0 I ∆ x = 0 .
0 Z X+
+ p
∆ z pv +
46
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
2 if ∆p xi ≥ 0,
et
min(− ∆zpiz ) ∆p zi < 0
(
if
θz 1
i
2 if ∆p zi ≥ 0.
it
y0 = 3 1 1 ,
h
it
z0 = 1 2 1 2 1 .
h
47
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
it
x∗ = 14.3333 13.3333 0.0001 0 10.6667 ,
h
it
y ∗ = 3.3333 1.3333 2 ,
h
it
z∗ = 0 0 0.3333 2 0 .
h
θtho θalter
iter 81 9
CPU 0.0270 0.0157
Tableau 1. Résultats comparatifs entre le choix théorique et alternative de θ.
Exemple 3.2. .
Soient n = 6 et m = 5, on a
7 10 1 3 −2 6 122
−8 −6 2 7 3 6 −12
A = 2 2 −5 8 −2 3 , b = 17 ,
7 4 1 −1 5 −8 27
−5 1 −4 9 10 9 60
h it
c = −2 26 −11 84 77 48 .
it
x0 = 3 7 4 1 3 5 ,
h
it
y0 = 2 3 1 4 5 ,
h
it
z0 = 3 1 2 8 4 2 .
h
48
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
Exemple 3.3. .
Soient n = 7 et m = 4, on a
−8 −2 −8 6 −3 −1 7 −99
−5 10 −2 −9 4 −4 −5 −88
A = , b = ,
−8 1 −1 −3 −8 −6 −6 −204
−4 −3 −4 −2 6 −3 −1 −94
h it
c = −57 −28 −35 54 −32 −14 36 .
On prend comme un point réalisable initial
it
x0 = 9 6 8 6 5 7 5 ,
h
it
y 0 = 5 −3 4 2 ,
h
it
z0 = 8 14 11 13 15 9 12 .
h
it
x∗ = 8.3138 2.9970 0 0 1.8489 20.9492 0 ,
h
it
y ∗ = 5.6730 −1.5396 1.8897 1.0491 ,
h
it
z∗ = 0 0 13.3912 13.8726 0 0 0.9779 .
h
θtho θalter
iter 110 11
CPU 0.0451 0.0239
Exemple 3.4. .
Soient n = 9 et m = 6, on a
49
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
θtho θalter
iter 97 10
CPU 0.0297 0.0186
Exemple 3.5. .
Soient n = 10 et m = 8, on a
3 −5 2 −8 −5 2 6 10 5 2 47
2 −8 −6 −7 6 5 5 6 −9 −8 79
6 1 9 5 −2 3 10 −5 6 −7 63
6 3 −2 1 −4 7 −8 10 8 4 107
A = , b = ,
1 −3 −1 5 −8 −4 4 1 4 −2 −108
4 −1 3 −2 5 −8 4 1 −6 0
85
4 −2 6 −8 8 8 −2 −1 6 7 246
8 0 −9 −5 5 4 −8 −6 5 5 155
h it
c = 223 −115 12 −210 106 204 68 125 117 21 .
50
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
it
z∗ = 0 25.4914 0 13.6418 0 0 0 0 0 0 .
h
θtho θalter
iter 105 9
CPU 0.0226 0.0162
51
Exemple 3.6.
Soient n = 15 et m = 13, on a
10 −5 9 −5 −14 −2 13 11 15 12 25 16 32 −17 −22
−2 8 5 7 16 25 −15 11 −9 8 32 18 −15 51 −10
1 9 6 3
−5 9 −7 −12 16 −27 36 −24 −29 38 42
9 8 −12 −31 4
−7 8 20 48 −64 18 19 −27 48 4
−1 −2 −5
8 4 −4 −2 34 −24 −25 17 29 −31 26 56
8 10 −9 −5 10 4 −8 −6 6 7 −1 3 −2 5 −8
4 8 8 6 17 7
A = 4 1 −6 −2 6 −8 12 −2 −1
8 11 10 −9 −5
7 4 −8 −6 5 26 13 −9 −36 18
52
47 79 63 10 −18 53 24 15 68 21 14 13 −15 17 −7
22 14 17 −29 −30
21 45 36 27 −31 −24 12 9 19 22
−2 −5 −2 11 12 16 32 −17 18 5 −6 2 21 13 −18
8 19 −12 −31 10 7 3 1 −5 14 12 6 −11 18 11
14 51 23 −19 11 6 34 −18 13 19 10 17 29 26 9
h it
b = 317 1320 835 732 1847 45 441 432 1971 888 −104 838 1279 ,
h it
c = 1351 1897 1177 −741 −363 1853 1970 668 2181 −114 792 995 343 1968 321 .
h it
On prend comme un point réalisable initial x0 = 13 1 8 1 15 2 5 17 1 9 13 7 1 9 16 ,
h it h it
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
y 0 = 9 10 6 5 1 3 10 7 12 19 21 9 7 , z0 = 1 16 2 13 1 9 3 1 15 2 1 2 18 2 1 ,
On a = 10−4 avec µ(0) = ((x0 )t z0 )/n = 15.6667, ρ = 0.9 et δ(x0 , z0 ; µ0 ) = 0.2327 ≤ 14 .
Une solution optimale approximative est donnée par :
x∗ = [14.0125 0 8.2989 0.9732 13.3889 1.1786 5.1504 15.4611 0.8829 9.6936 12.5683 8.2176 0 9.8387 15.826]t
y ∗ = [8.8205 9.9097 5.876 5.17 1.05 2.5128 10.5706 7.2279 12.1843 18.7913 21.3726 8.9889 6.8437]t ,
53
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
−2 −5 11 16 14 10 −9 −4 12 15 17 42 36 −15 4 21 21 33
51 −10 18 32 19 −13 16 12 10 2 8 5 15 7 35 −15 −19 14
56 26 −32 17 −25 −6 8 −4 16 27 −39 45 10 9 6 −12 7 9
19 11 16 12 −5 −17 14 −11 −19 13 21 8 −12 4 −8 7 23 −18
20 48 −63 14 19 36 −27 4 41 27 50 63 −20 32 66 45 34 19
Exemple 3.7. .
14 22 17 −29 2 −17 −1 2 5 18 34 13 21 9 14 34 13 −27
10 5 1 17 19 25 22 −21 −30 −24 −25 7 9 −3 6 5 −8 −6
46 70 9 −59 17 81 22 6 10 5 −9 13 21 −11 33 −56 14 16
A = 15 −59 −23 31 18 24 67 13 14 54 −39 10 4 −6 −21 37 30 17
21 21 20 27 45 12 23
Soient n = 18 et m = 17 on a
−44 −88 91 −33 −29 13 38 −8 −36 −18 13
51 23 14 −68 55 −28 26 −11 6 −7 45 17 −35 −9 22 −14 10 9
11 −16 23 −19 −29 25 9 18 21 49 14 −13 6 −3 18 41 48 53
26 17 −10 −1 11 20 12 14 −16 6 34 11 −6 4 22 60 46 51
iter
17 6 −17 −28 6 18 52 −12 −21 16 77 29 26 50 −30 11 16 −2
54
8 19 61 80 71 26 −41 −9 −5 27 14 −88 −51 15 20 31 22 −17
18 −29 17 31 6 −34 10 −17 26 9 −7 33 −22 37 41 10 −11 22
136
14 −26 18 11 −2 5 −4 12 16 35 −19 12 −14 9 26 17 14 −19
8
b = [1652 1591 980 386 3060 1029 78 − 16 1236 632 630 1027 1749 666 1062 1679 992]t ,
CPU 0.0569 0.0168
θtho θalter
c = [2063 1965 751 1138 1942 − 21 − 211 − 475 1682 1569 3256 1326 − 757 1294 3740 1293 1472 2029]t .
On prend comme un point réalisable initial
La valeur optimale pour les deux problèmes est 8.9169.104 .
h it
x0 = 11 1 5 12 7 1 2 5 12 1 7 13 4 1 7 14 1 2 ,
h it
y 0 = 22 15 −5 12 17 3 4 8 −12 11 17 16 −8 4 11 20 −6 ,
h it
z0 = 1 14 2 1 2 14 7 2 1 13 2 1 3 12 2 1 13 7 .
Tableau 6. Résultats comparatifs entre le choix théorique et alternative de θ.
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
y ∗ = [22.1341 14.7693 − 4.9554 11.9192 16.7897 3.0414 3.7455 8.3139 − 12.0118 11.1156 16.8928 15.7754 − 7.7422 4.1773 11.1 20.2289 − 5.8313]t ,
z∗ = [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1.6056 0]t ,
CHAPITRE 3. IMPLÉMENTATION NUMÉRIQUE
θtho θalter
iter 149 9
CPU 0.0752 0.0241
Discussins :
Pour voir l’influence du pas de déplacement durant la phase de prédiction sur le compor-
tement numérique de l’algorithme, on a fait une comparaison entre le choix théorique de
θ et le choix alternative. On déduit que malgré le choix théorique garantie la convergence
de la méthode, il conduit à des résultats non favorable c’est à dire la convergence de l’al-
gorithme correspondant est lente, mais dans le choix alternative on obtient des résultats
encourageant.
55
Conclusion
56
Bibliographie
[1] M. Achache. A new primal-dual path-following method for convex quadratic program-
ming. Computational and Applied Mathematics, (25) pp. 97-110, (2006).
[2] M. Achache. A new parameterized kernel function for LO yielding the best known
iteration bound for a large-update interior point algorithm, article (2015).
[3] M. Achache, L. Guerra. A full-Nesterov-Todd-step primal-dual interior point algorithm
for convex quadratic semidefinite optimization. Computational and Applied Mathema-
tics,(231) : 581-590, (2014).
[4] B. Bounibane, Extension de quelques méthodes de points intérieurs pour un problème
d’optimisation, thèse doctorat, université de Batna 2, (2019).
[5] Zs. Darvay, New interior point algorithms in linear programming, Advanced modeling
and optimisation , 51-92, (2003).
[6] Zs. Darvay, A new predictor-corrector algorithm for linear programming. Alkalm Mat
Laplok 22 : 135-161, (2005).
[7] Zs. Darvay, predictor-corrector algorithm for linearly constrained convex optimiztion.
Studia Uni Babes-Bolyai Ser Inform 54(2) : 121-138, (2009).
[8] Zs. Darvay, I. M. Papp and P. R. Takács, Complexity analysis of a full-Newton step
interior-point method for linear optimization, Period. Math. Hungar. 73(1), 27–42, (2016).
[9] Zs. Darvay, P-R. Takács. New method for determining search directions for interior-
point algorithms in linear optimization. Optimization Letter. (2017).
[10] Zs. Darvay, T. Illés, B. Kheirfam, P. R. Rigó, A corrector-predictor interior-point me-
thod with new search direction for linear optimization. Central European Journal of
Operation Research, 28 : 1123-1140, (2020).
[11] Zs. Darvay, T. Illés, P. Renáta Rigó,Predictor-corrector interior-point algorithm for
P∗ (k)-linear complementarity problems based on a new type of algebraic equvalent trans-
formation technique, European Journal of Operation Research (298), 25-35, (2022).
[12] H. Debbiche, Cours optimisation sans contrainte, Université Mohamed El Bachir El
Ibrahimi de Bordj Bou Arréridj, (2015).
[13] J. CH. Gilbert, Extrait de Fragments d’optimisation Différentiable : Théorie et Algo-
rithmes, mémoire de master en France, (2020).
[14] N. Karmarkar, A new polynomial-time algorithm for linear programming, Combina-
torica. 4, 373-395, (1984).
[15] B. Kheirfam, An infeasible interior point method for the monotone SDLCP based on a
transformation of the central path. J Appl Math Comput, 57(1), 685-702. (2018).
[16] E. De Klerk. Interior point methods for semidefinite programming. Master of Science
in the Faculty of Enginnering University of Pretoria, (1997).
57
BIBLIOGRAPHIE
[17] N. Megiddo, Pathways to the optimal set in linear programming. In : [Link] (ed)
Progress in mathematical programming. Interior-point and related methods. Springer,
New York : 131-158, (1989).
[18] S. Mehrotra, On the implementation of a primal-dual interior point metho. SIAM J
Optim, 24(1), 575-601, (1992).
[19] Y. E. Nesterov and A. S. Nemirovskii, Interior-Point Polynomial Algorithms in Convex
Programming (SIAM, Philadelphia, PA, 1994).
[20] Z. Ramdani. Cours d’optimisation non linéaire, Université Mohamed El Bachir El Ibra-
himi de Bordj Bou Arréridj, (2021).
[21] Z. Ramdani. Cours de programmation linéaire,Université Mohamed El Bachir El Ibra-
himi de Bordj Bou Arréridj, (2021).
[22] C. Roos, T. Terlaky, J. Ph. Vial, Theory and algorithms for linear optimization. An
interior point approach. John-Wiley. Sons, Chichester, UK, (1997).
[23] Gy. Sonnevend, An "analytic center" for polyhedrons and new classes of global algo-
rithms for linear (smooth, convex) programming. In : A Prékopa, J Szelezsán, B Strazi-
cky (eds) System Modelling and Optimization : Proceedings of the 12th IFIP-Conference
held in Budapest, Hungary, September 1985, Lecture Notes in Control and Information
Sciences. vol. 84 Springer, Berlin, 866–876, (1986).
[24] T. Terlaky, An easy way to teach interior-point methods. Eur J Oper Res 130(1), 1-19,
(2001).
[25] Gy Sonnevend, J Stoer, G Zhao, On the complexity of following the central path by
linear extrapolation in linear programming. Methods Oper Res 62 : 19-31, (1990).
[26] SJ. Wright, Primal-dual interior-point methods . SIAM, Philadelphia, (1997).
58
:Pl •
TyW Trb Tyl d ªAqnl T§wA-Ty¤ TyEC w AnFC ,m` £@¡ ¨
§w A A Ф d§d b A¡A Yl dmt` ¨t rqm-O wn
.xz = µe T§zrm T A`m Yl ©rb
√
dyq` Ð TyEC w b y ψ(t) = t − t ,Darvay (2020) TF C ®
T E³ wW ©r\n CAyt³ y TCAqml T§ d CAbtA Anmq A ,© ¤d
© d` wls Yl X¶AFw £@¡ ry Tr`m §db CAyt³ ¤ rq Tlr ºAn
.TyEC w £@h
:TyAtfm Amlk •
,¸Ak ©rb §w , rqm-O TyEC w ,TyW Trb ,Tyl d ªAqn rV
.© ¤d dyq`
• Résumé :
• Mots clés :
• Abstract:
• Keywords: