0% ont trouvé ce document utile (0 vote)
88 vues179 pages

Cours 4

La thèse de Toufik Bentrcia, présentée à l'Université de Batna 2, traite de l'ordonnancement des systèmes de production sous contraintes technologiques et contextuelles. Elle aborde la modélisation, l'étude de la complexité et propose des approches intégrées de résolution. La soutenance a eu lieu le 22 octobre 2017, sous la direction de la Professeure Leila Hayet Mouss.

Transféré par

stephiewandji21
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
88 vues179 pages

Cours 4

La thèse de Toufik Bentrcia, présentée à l'Université de Batna 2, traite de l'ordonnancement des systèmes de production sous contraintes technologiques et contextuelles. Elle aborde la modélisation, l'étude de la complexité et propose des approches intégrées de résolution. La soutenance a eu lieu le 22 octobre 2017, sous la direction de la Professeure Leila Hayet Mouss.

Transféré par

stephiewandji21
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique

UNIVERSITÉ DE BATNA 2
Faculté de Technologie
Département de Génie Industriel
Laboratoire d’Automatique et Productique

THÈSE
Présentée par

T OUFIK B ENTRCIA
En vue d’obtenir le grade de

DOCTEUR EN SCIENCES
Thème

Ordonnancement des systèmes de production sous


contraintes technologiques ou contextuelles:
Modélisation, étude de complexité et approches
intégrées de résolution
Sous la direction de : Prof. Leila Hayet M OUSS

Jury
Prof. Kinza Nadia M OUSS , Université de Batna 2, Algérie Président
Prof. Daoud A IT-K ADI , Université Laval, Canada Membre
Prof. Mohammed M OSTEFAI , Université de Sétif 1, Algérie Membre
Prof. Leila Hayet M OUSS , Université de Batna 2, Algérie Directrice de thèse
Prof. Zaki S ARI , Université de Tlemcen, Algérie Membre
Prof. Farouk YALAOUI , Université de Technologie de Troyes, France Membre
T
H
Thèse soutenue publiquement le 22 Octobre 2017
È
S
E
ii
iii
iv
Remerciements

L ou an ge à Alla h, qu e la p aix et la bén édi cti on s oi ent sur s on

Pr op h ète M oh amm ed, ain si qu e sur s a famille et s es C om p a gn on s.

E n r es p ectant la con si gn e du pr op h ète (Paix et bén édi cti on sur

lui) qui di s ait : ¿ C elui qui n e r em er ci e p a s les gen s n' aur a p a s

r em er ci é Alla h.À , je vou dr ai s a dr es s er m es plu s vifs r em er ci em ents

à certain es p er s onn es. Fr an c h em ent, la pr és ente t h ès e n' aur ait p a s

vu le jour s an s leur s su p p ort et ori entati on.

C e tr avail d e t h ès e a été r éali s é au s ein du L abor atoir e d'Auto -

m ati qu e et Pr odu cti qu e à lU niver sité d e M ostefa B enboulaï d B atn a

2.

M es tou s pr emi er s r em er ci em ents vont n atur ellem ent à M a d am e

L eila H ayet M ou s s, Pr ofes s eur à lU niver sité B atn a 2 et dir ectri ce

d e cette t h ès e, p our s es con s eils p ertin ents et s a di s p onibilité.

Je ti en s à r em er ci er M a d am e Na di a Kinza M ou s s, Pr ofes s eur

à lU niver sité B atn a 2, d' avoir a ccepté la lour d e r es p on s abilité d e

pr ési d er ce jury.

Je r em er ci e vivem ent M on si eur D a ou d Ait-K a di, Pr ofes s eur à

lU niver sité L aval C an a d a, d' avoir a ccepté d' êtr e p armi n ou s. Je

sui s vr aim ent h on or é p ar s a pr és en ce d an s m on jury.

Je ti en s à exprim er m a gr atitu d e à M on si eur M oh amm ed M os-

tefai, Pr ofes s eur à lU niver sité Sétif 1, qui a bi en voulu examin er

ce tr avail m algr é s es n ombr eu s es occu p ati on s.

Je r em er ci e égalem ent M on si eur Z a ki Sari, Pr ofes s eur à lU ni-

ver sité d e Tlem cen, p our s a gentilles s e et lintér êt qu'il a p orté à

m on tr avail.

Je sui s p arti culi èr em ent r econn ai s s ant à M on si eur Far ou k Ya-

v
la oui, Pr ofes s eur à lU niver sité d e T ec hn ologi e d e Tr oyes Fr an ce,

p our les di s cu s si on s fru ctu eu s es et p our l a cceptati on d e p arti ci p er

à ce jury.

Je gar d e un e pla ce s p éci ale d an s m es r em er ci em ents à m es pr oc h es

n otam ent m a famille et m es ami s p our leur s s outi ent et en cour a-

gem ent, comm e d' h abitu d e ! ! !. Peu im p orte l or dr e d e m es r em er ci e-

m ents, tou s ceux qu e j' ai m enti onn é et s an s oubli er les p er s onn es

d an s l ombr e m' ont a p p orté tout au lon g d es ann ées p a s s ées un e

ai d e pr éci eu s e et d éci sive p our l abouti s s em ent à cette t h ès e.

vi
Dédicaces

À tou s ceux qu e j' aim e et qui m' aim ent, je d édi e

ce m od este tr avail.

vii
viii
Table des matières

Table des matières ix

Liste des figures xiii

Liste des tableaux xv

Liste des algorithmes xvii

Introduction générale 1

1 Problèmes d’ordonnancement dans les systèmes de production 7


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Contexte de l’ordonnancement . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Description du problème d’ordonnancement . . . . . . . . . . . . . . . . . . 13
1.3.1 Définition du terme ordonnancement . . . . . . . . . . . . . . . . . . 13
1.3.2 Concepts et notations de base en ordonnancement . . . . . . . . . . . 13
1.3.3 Objectifs d’optimisation dans l’ordonnancement . . . . . . . . . . . . 14
1.4 Classification des problèmes d’ordonnancement . . . . . . . . . . . . . . . . 16
1.5 Outils de modélisation pour l’ordonnancement . . . . . . . . . . . . . . . . . 17
1.5.1 Diagramme de Gantt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.2 Approche géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.3 Graphe disjonctif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.4 Réseau de Petri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.6 Importance des contraintes dans les problèmes d’ordonnancement . . . . . 22
1.7 Complexité des problèmes d’ordonnancement à une machine . . . . . . . . 24
1.7.1 Complexité du problème d’ordonnancement standard . . . . . . . . . 26
1.7.2 Complexité du problème d’ordonnancement à une machine avec
considération de contraintes . . . . . . . . . . . . . . . . . . . . . . . . 26
1.8 Approches de résolution des problèmes d’ordonnancement . . . . . . . . . 29
1.8.1 Méthodes polynômiales éfficaces . . . . . . . . . . . . . . . . . . . . . 29
1.8.2 Méthodes énumératives éxactes . . . . . . . . . . . . . . . . . . . . . . 30
1.8.3 Techniques approchées . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.10 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2 Problèmes d’ordonnancement à une machine avec coûts actualisés et para-


mètres incertains 39
2.1 Introduction et état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2 Terminologie de base sur la théorie de possibilité . . . . . . . . . . . . . . . . 44
2.3 Formulation du problème d’ordonnancement . . . . . . . . . . . . . . . . . . 47

ix
Table des matières

2.3.1 Optimalité ordinaire dans le problème d’ordonnancement à une ma-


chine avec coûts actualisés . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.3.2 Mesures possibilistes d’optimalité pour le problème d’ordonnance-
ment à une machine avec coûts actualisés et paramètres incertains . 49
2.4 Conception du cadre d’expérimentations numériques . . . . . . . . . . . . . 55
2.4.1 Support des contraintes non linéaires . . . . . . . . . . . . . . . . . . 55
2.4.2 Approche basée sur l’algorithme génétique . . . . . . . . . . . . . . . 56
2.4.3 Approche basée sur la recherche par motifs . . . . . . . . . . . . . . . 58
2.4.4 Génération des instances . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.5 Simulation et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.5.1 Effet du nombre de tâches . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.5.2 Effet de la graine aléatoire η . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.5.3 Effet de la taille de la population de l’algorithme génétique . . . . . . 63
2.5.4 Effet de la réduction du taux d’actualisation flou r˜ . . . . . . . . . . . 64
2.5.5 Effet de l’hybridation des approches algorithme génétique et re-
cherche par motifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.7 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

3 Problèmes d’ordonnancement à une machine avec effet d’apprentissage et para-


mètres incertains 71
3.1 Introduction et état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.2 Présentation du cadre de modélisation floue . . . . . . . . . . . . . . . . . . . 77
3.3 Métaheuristiques à base de trajectoire . . . . . . . . . . . . . . . . . . . . . . 80
3.3.1 Recherche tabou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.3.2 Recuit simulé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.3.3 Recherche kangourou . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.4 Algorithme polynômial pour le problème d’ordonnancement à une ma-
chine avec effet d’apprentissage et durées opératoires floues . . . . . . . . . 86
3.4.1 Optimalité du problème d’ordonnancement à une machine avec ef-
fet d’apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.4.2 Optimalité du problème d’ordonnancement à une machine avec ef-
fet d’apprentissage et durées opértoires floues . . . . . . . . . . . . . . 89
3.5 Approches d’optimisation pour le problème d’ordonnancement à une ma-
chine avec dates de disponibilité floues, durées opératoires floues et effet
d’apprentissage à base de position . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.5.1 Formulation du problème d’ordonnancement . . . . . . . . . . . . . . 93
3.5.2 Procédure de génération des jeux tests . . . . . . . . . . . . . . . . . . 94
3.5.3 Évaluation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.7 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

4 Problème d’ordonnancement bi-objectif à une machine avec effet d’apprentis-


sage et paramètres incertains 109
4.1 Introduction et état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.2 Présentation du cadre de modélisation floue . . . . . . . . . . . . . . . . . . . 116
4.2.1 Nombres flous . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.2.2 Mesures de possibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.3 Déscription du problème d’ordonnancement . . . . . . . . . . . . . . . . . . 121
4.4 Présentation des métaheuristiques multi-objectifs à base de population . . 127

x
Table des matières

4.4.1 Algorithme génétique élitiste de tri non dominé . . . . . . . . . . . . . 128


4.4.2 Algorithme recherche coucou . . . . . . . . . . . . . . . . . . . . . . . 130
4.4.3 Stratégies de tri non dominé . . . . . . . . . . . . . . . . . . . . . . . . 135
4.5 Expérimentation numérique et résultats . . . . . . . . . . . . . . . . . . . . . 136
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.7 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

Conclusion générale 155

xi
Table des matières

xii
Liste des figures

1.1 Dépendence entre le niveau de décision et le type d’information. . . . . . . 11


1.2 Visualisation d’un ordonnancement sur trois machines utilisant un dia-
gramme de Gantt à trois dimensions. . . . . . . . . . . . . . . . . . . . . . . . 18
1.3 Exemple générique illustrant les éléments de base de l’approche géométrique. 19
1.4 Graphe disjonctif d’un problème d’ordonnancement de type job-shop. . . . 20
1.5 Modélisation par réseau de Petri de l’exécution de deux travaux sur un ate-
lier à deux machines. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.6 Présentation de quelques réductions élémentaires entre les critères de per-
formance d’ordonnancement. . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.1 Application de l’argument de permutation pour les tâches aux positions k


et k + 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3.1 Application de l’argument de permutation pour les tâches aux positions i et


i + 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2 Représentation graphique des durées opératoires floues. . . . . . . . . . . . 92
3.3 Évolution de la magnitude de la somme pondérée des dates de fin en fonc-
tion du taux d’apprentissage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.4 Variation du temps d’exécution moyen en fonction du nombre de tâches
(a = 0, ρ1 = 0.1 et ρ2 = 0.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.5 Variation de la moyenne des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas de la recherche tabou. . . . . . . . . . . . . . . 99
3.6 Variation de la moyenne des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas du recuit simulé. . . . . . . . . . . . . . . . . . . 100
3.7 Variation de la moyenne des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas de la recherche kangourou. . . . . . . . . . . . 101
3.8 Variation de l’écart type des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas de la recherche tabou. . . . . . . . . . . . . . . 101
3.9 Variation de l’écart type des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas du recuit simulé. . . . . . . . . . . . . . . . . . . 102
3.10 Variation de l’écart type des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas de la recherche kangourou. . . . . . . . . . . . 102
3.11 Représentation du diagramme de probabilité normale pour l’échantillon
des données dans le cas de la recherche tabou et le recuit simulé. . . . . . . 103

4.1 Situations possibles de projection de deux fronts non dominés obtenus par
des métaheuristiques différentes. . . . . . . . . . . . . . . . . . . . . . . . . . 139
4.2 Représentation des meilleurs fronts obtenus par les deux approches avec
considération simultanée des règles de dominance Pareto et Lorenz (L’ins-
tance numero 17 de la configuration n=20). . . . . . . . . . . . . . . . . . . . 144

xiii
Liste des figures

xiv
Liste des tableaux

1.1 Informations utilisées dans le processus d’ordonnancement . . . . . . . . . 12


1.2 Présentation des critères élémentaires utilisés dans le domaine d’ordonnan-
cement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Classification des critères de performances utilisés dans le domaine d’or-
donnancement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Significations et valeurs des champs dans la notation de Graham . . . . . . . 16
1.5 Interprétation des valeurs du champ α1 . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Interprétation des valeurs du champ β3 . . . . . . . . . . . . . . . . . . . . . . 17
1.7 Présentation de quelques contraintes rencontrées en ordonnancement . . . 23
1.8 Classification de quelques problèmes classiques d’ordonnancement à une
machine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.9 Classification de quelques problèmes d’ordonnancement à une machine
avec considération d’effet d’apprentissage . . . . . . . . . . . . . . . . . . . . 28
1.10 Classification de quelques problèmes d’ordonnancement à une machine
avec considération des temps de règlage . . . . . . . . . . . . . . . . . . . . . 29

2.1 Valeurs des bornes inférieures et supérieures des paramètres utilisées lors
de la procédure de génération des instances . . . . . . . . . . . . . . . . . . . 61
2.2 Valeurs des paramètres de configuration utilisées dans les approches d’op-
timisation proposées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.3 Évolution des performances des approches proposées en fonction du
nombre de tâches n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.4 Évolution des performances des approches proposées pour différentes va-
leurs de la graine aléatoire η . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.5 Influence de la taille de la population p Si ze sur les performances de l’algo-
rithme génétique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.6 Évolution des performances des approches proposées avec la réduction du
taux d’actualisation flou r˜ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.7 Performances des approches proposées utilisées séparément . . . . . . . . . 65
2.8 Performances des approches proposées après hybridation . . . . . . . . . . 65

3.1 Valeurs des parametèrs d’ordonnancement associées à l’ensemble des


tâches J . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.2 Valeurs des différents paramètres utilisées lors de la procédure de généra-
tion des instances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.3 Valeurs de configuration associées aux métaheuristiques à base de trajectoire 95
3.4 Variation des performances des métaheuristiques proposées en fonction du
nombre de tâches n pour Le f f = 0, ρ1 = 0.1 et ρ2 = 0.1 . . . . . . . . . . . . . . 96
3.5 Variation des performances des métaheuristiques proposées en fonction du
coefficient d’apprentissage Le f f pour ρ1 = 0.1 et ρ2 = 0.1 . . . . . . . . . . . . 98

xv
Liste des tableaux

4.1 Valeurs des différents paramètres nécessaires à la génération des instances 137
4.2 Valeurs des paramètres de configuration associées aux métaheuristiques
proposées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.3 Variation des performances (la moyenne des cardinaux des fronts générés)
des approches proposées en fonction du nombre de tâches avec règle de
dominance de Pareto (Le f f = 0, TF = 0.5 et RDD = 0.5). . . . . . . . . . . . . . 141
4.4 Variation des performances (la moyenne des proportions des ordonnance-
ments dominés) des approches proposées en fonction du nombre de tâches
avec règle de dominance de Pareto (Le f f = 0, TF = 0.5 et RDD = 0.5). . . . . . 142
4.5 Variation des performances (la moyenne des distances modifiées normali-
sées) des approches proposées en fonction du nombre de tâches avec règle
de dominance de Pareto (Le f f = 0, TF = 0.5 et RDD = 0.5). . . . . . . . . . . . 142
4.6 Variation des performances des approches proposées en fonction de la
gamme et du facteur d’étroitesse avec règle de dominance de Pareto (Le f f =
0 et n = 20). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.7 Variation des performances des approches proposées en fonction du coef-
ficient d’apprentissage avec règle de dominance de Pareto (n = 10, TF = 0.5
et RDD = 0.5). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4.8 Variation des performances (la moyenne des cardinaux des fronts générés)
des approches proposées en fonction du nombre de tâches avec considé-
ration simultanée des règles de dominance de Pareto et Lorenz (Le f f = 0,
TF = 0.5 et RDD = 0.5). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4.9 Variation des performances (la moyenne des proportions des ordonnance-
ments dominés) des approches proposées en fonction du nombre de tâches
avec considération simultanée des règles de dominance de Pareto et Lorenz
(Le f f = 0, TF = 0.5 et RDD = 0.5). . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.10 Variation des performances (la moyenne des distances modifiées normali-
sées) des approches proposées en fonction du nombre de tâches avec consi-
dération simultanée des règles de dominance de Pareto et Lorenz (Le f f = 0,
TF = 0.5 et RDD = 0.5). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

xvi
Liste des algorithmes

2.1 Algorithme génétique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57


2.2 Recherche par motifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.1 Recherche tabou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.2 Recuit simulé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.3 Recherche kangourou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.1 Algorithme génétique élitiste de tri non dominé . . . . . . . . . . . . . . . . . 129
4.2 Version originale de la recherche coucou . . . . . . . . . . . . . . . . . . . . . 132
4.3 Différentes phases de la formulation standard de la recherche à voisinage
variable adaptée à notre problème . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.4 Version multi-objectif hybride de la recherche coucou . . . . . . . . . . . . . 134

xvii
Liste des algorithmes

xviii
Introduction générale

« Le début c’est la partie la plus


importante du travail »

Aristoclès Platon

1
Introduction générale

2
Introduction générale

Introduction générale
De nos jours, les tendances actuelles dans le domaine industriel sont orientées vers
l’amélioration des performances des systèmes manufacturiers en termes d’adaptation ra-
pide vu les fluctuations du marché et les perturbations internes. Une telle vision est étroi-
tement sollicitée par la mondialisation exacerbant une concurrence acharnée désormais
internationale.
En effet, la production devient de plus en plus diversifiée et les entreprises cherchent
régulièrement à accroître leurs parts de marché ainsi que les marges de profit. Sous ces
conditions, la fonction ordonnancement est considérée incontestablement dans la hié-
rarchie décisionnelle de l’entreprise comme un pilier solide pour prendre les décisions
les plus appropriées tant pour les investisseurs et producteurs que pour les consomma-
teurs.
Les problèmes d’ordonnancement à une machine constituent une cible très appré-
ciée par la communauté des chercheurs malgré que cette structure connaisse peu de dé-
bauchées directes en pratique. Une telle focalisation sur ce type de problèmes peut être
argumentée par la possibilité d’utiliser les modèles résultants pour implémenter des ex-
tensions valables à d’autres classes particulières de problèmes d’ordonnancement. Par
ailleurs, la formalisation des problèmes d’ordonnancement à une machine est basée sur
deux paradigmes de modèles largement utilisés : les approches déterministes et les ap-
proches stochastiques. Dans le premier cas, les valeurs associées aux paramètres des
tâches sont des données précises permettant la simplification du cadre de description
du problème d’ordonnancement. Cependant, cette vision déterministe est trop restrictive
dans le sens où les valeurs de ces paramètres sont mal connues et même avec la consul-
tation de l’avis des experts, il est fort probable que les informations obtenues soient su-
jettes à de nombreuses altérations. Pour les modèles élaborés sur une base stochastique,
les paramètres des tâches sont exprimés par des distributions de probabilité. Ceci résulte
souvent en des formulations très difficiles à manipuler. En outre, l’hypothèse stochas-
tique peut être mise en doute car dans plusieurs situations les données statistiques sont
manquantes. Aussi, la recherche de formalismes plus fiables devient nécessaire et l’idée
la plus naturelle semble d’opter pour des outils mathématiques dédiés à la représentation
d’incertitude dans le contexte de la théorie d’ordonnancement.
Dans cette thèse, nous nous intéressons à la résolution de problèmes d’ordonnan-
cement à une machine avec la prise en compte des sources d’incertitude au niveau du
système de production. Sous telle condition, la modélisation et l’optimisation de l’exécu-
tion des tâches par les approches d’ordonnancement conventionnelles sont remises en
question. Notre objectif réside dans un premier temps de proposer des approches basées
sur la théorie des nombres flous pour une représentation fidèle des problèmes d’ordon-
nancement avec paramètres incertains et par la suite d’implémenter des méthodes d’op-
timisation efficaces. Cette intégration entre la modélisation et l’optimisation se révèle une
méthodologie intéressante pour remédier à la complexité des problèmes traités.

Contribution de la thèse
Les travaux de recherche présentés dans cette thèse portent particulièrement sur les
problèmes d’ordonnancement à une machine tenant compte des paramètres incertains.
Plusieurs approches de résolution sont implémentées notamment les métaheuristiques à
base de solution unique et à base de population de solutions. Nos contributions portent
sur plusieurs aspects à savoir la proposition de modèles d’ordonnancement, analyse de

3
Introduction générale

la complexité de ces problèmes et finalement le développement d’approches efficaces de


résolution. Tandis que les deux premières contributions sont d’ordre théorique alors que
la troisième se situe dans un contexte pratique. Ces trois contributions sont illustrées en
détail dans ce qui suit :
Nouveaux modèles d’ordonnancement :
Cette contribution concerne la généralisation des modèles conventionnels d’ordon-
nancement sur une machine dont l’objectif est d’élaborer une méthodologie cohérente
pour supporter des données incertaines. En d’autres termes, nous proposons des mo-
dèles d’ordonnancement capables de refléter les différentes contraintes contextuelles et
technologiques existantes dans les systèmes de production actuels. Il est à mentionner
que ces modèles sont inspirés des modèles classiques à une machine disponibles dans la
littérature auxquels s’ajoutent les propriétés suivantes :

• Paramètres d’ordonnancement incertains : Les paramètres correspondants aux


tâches comme les dates échues ou les durées opératoires ne sont pas connus d’une
façon exacte à cause des sources d’incertitude internes et externes au système ;
• Effet d’apprentissage : La position de la tâche dans la séquence d’ordonnancement
affecte sa durée opératoire qui est réduite à cause de l’exécution répétée de tâches
similaires ;
• Effet d’actualisation : Les coûts d’ordonnancement sont actualisés à un taux fixe qui
est le cas des coûts de stockage ou de possession.

Analyse de la complexité des problèmes d’ordonnancement :


Comme l’analyse de la complexité permet de déceler la classe du problème d’ordon-
nancement notamment les classes dites facile et difficile, nous procédons à une étude
chaque fois qu’un modèle est développé. À la base de cette analyse, le choix de la mé-
thode de résolution est entamé.
Approches de résolution :
Selon la nature du modèle d’ordonnancement, des algorithmes polynômiaux ou des
méthodes d’optimisation sont proposés pour résoudre les problèmes obtenus. Ces ap-
proches de résolution sont implémentées à la base des théorèmes de complexité prou-
vés. L’ensemble des outils développés peut fournir aux gestionnaires une plateforme per-
formante destinée à l’ordonnancement sous incertitude afin de satisfaire les besoins des
clients dans les plus brefs délais et ainsi améliorer la position concurrentielle de l’entre-
prise sur le marché.

Organisation de la thèse
Notre travail de thèse est structuré en quatre chapitres. Le premier chapitre est réservé
à l’état de l’art des problèmes d’ordonnancement conventionnels et les trois chapitres
suivants sont destinés à la présentation de nos contributions.
Dans le premier chapitre, nous essayons de positionner notre travail de recherche
dans le cadre de l’ordonnancement des ateliers de production. Nous présentons d’abord
l’importance de la fonction ordonnancement au sein du système décisionnel de l’entre-
prise. Nous rappelons ensuite les différentes composantes élémentaires constituant un
problème d’ordonnancement. Nous dévoilons par la suite la classification des problèmes
d’ordonnancement ainsi que les outils graphiques de base nécessaires à la représentation
des solutions. Nous focalisons nos intérêts sur la criticité des contraintes lors du proces-
sus de modélisation. Nous donnons un aperçu global sur la théorie de complexité pour

4
Introduction générale

bien cerner les classes des problèmes d’ordonnancement dépendamment du coût de ré-
solution. Finalement, nous clarifions les principes sur lesquels sont fondées les grandes
catégories des approches d’optimisation.
Nous nous intéressons dans le deuxième chapitre à la nécessité de la mise en oeuvre
de critères adéquats dans le contexte de la théorie de possibilité pour l’évaluation de l’op-
timalité d’une séquence fixe dans l’ordonnancement à une machine avec des paramètres
incertains et coûts actualisés. Aussi, nous dressons une présentation de la terminologie de
la théorie de possibilité. Nous généralisons par la suite le problème conventionnel d’or-
donnancement à une machine avec coûts actualisés au cas flou où plusieurs propriétés
sont proposées et prouvées. Nous introduisons deux méthodes approchées : algorithme
génétique et recherche par motifs, pour la résolution de la version floue du problème
traité. Nous clôturons ce chapitre en exposant les résultats des simulations numériques
où la robustesse des deux méthodes est validée statistiquement.
Dans le troisième chapitre, nous considérons le problème d’ordonnancement à une
machine avec des paramètres incertains et effet d’apprentissage à base de position. L’ob-
jectif est de minimiser la somme pondérée des temps d’achèvement des tâches. Par la
suite et en raison des données mal connues dans le modèle, nous proposons deux pro-
cédures de résolution pour le problème d’ordonnancement flou résultant. La première
procédure est basée sur l’extension
¡ de la règle
¢ de Smith, ce qui donne un algorithme po-
lynômial avec une complexité O n × log (n) . Cependant, la contrainte d’agréabilité floue
doit être satisfaite dans ce cas. La deuxième procédure basée sur des méthodes d’opti-
misation repose sur l’hypothèse d’existence des dates de disponibilité floues différentes,
en plus de l’élimination de la contrainte d’agréabilité floue. Nous implémentons et ap-
pliquons trois métaheuristiques à base de trajectoire notamment le recuit simulé, la re-
cherche tabou et la recherche kangourou pour résoudre le problème considéré. Pour les
méthodes proposées tout au long du chapitre, plusieurs expérimentations numériques
conjointement avec des déductions statistiques sont illustrées.
Dans le dernier chapitre, nous abordons un problème d’ordonnancement bi-objectif
à une machine dans lequel la ressource subit l’effet d’apprentissage à base de position.
Nous supposons que les durées opératoires et les dates d’échéance sont représentées
par des nombres flous plats (intervalles flous) d’allure parabolique. Nous développons
des formules compactes pour exprimer les fonctions objectifs élaborées à la base des
concepts de classement et de possibilité, où notre objectif est de minimiser la magni-
tude de la somme pondérée des temps d’exécution, simultanémen avec la somme pon-
dérée des possibilités de retard. Nous montrons ensuite que ce problème est NP-difficile
au sens fort. Par conséquent, nous proposons un algorithme génétique de tri non do-
miné (NSGA II) et la recherche coucou (CS) comme outils de résolution. Nous intégrons
dans ces métaheuristiques deux types de critères de dominance à savoir la règle de do-
mination de Pareto et la règle de domination de Lorenz. Nous examinons les mesures de
performance statistiques pour affirmer que l’approche d’optimisation coucou proposée
est plus efficace et très compétitive en termes d’identification du front et diversité des
solutions. Enfin, nous terminons cette thèse par une conclusion générale concernant les
modèles proposés, les résultats de complexité associés et les performances des approches
de résolutions implémentées suivies de quelques perspectives pour tracer nos directions
futures de recherche.

5
Introduction générale

6
Chapitre 1

Problèmes d’ordonnancement dans les


systèmes de production

« Details create the big picture »

Sanford I. Weill

Sommaire
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Contexte de l’ordonnancement . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Description du problème d’ordonnancement . . . . . . . . . . . . . . . . 13
1.3.1 Définition du terme ordonnancement . . . . . . . . . . . . . . . . . 13
1.3.2 Concepts et notations de base en ordonnancement . . . . . . . . . . 13
1.3.3 Objectifs d’optimisation dans l’ordonnancement . . . . . . . . . . . 14
1.4 Classification des problèmes d’ordonnancement . . . . . . . . . . . . . . 16
1.5 Outils de modélisation pour l’ordonnancement . . . . . . . . . . . . . . . 17
1.5.1 Diagramme de Gantt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.2 Approche géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.3 Graphe disjonctif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.4 Réseau de Petri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.6 Importance des contraintes dans les problèmes d’ordonnancement . . . 22
1.7 Complexité des problèmes d’ordonnancement à une machine . . . . . . 24
1.7.1 Complexité du problème d’ordonnancement standard . . . . . . . . 26
1.7.2 Complexité du problème d’ordonnancement à une machine avec
considération de contraintes . . . . . . . . . . . . . . . . . . . . . . . 26
1.8 Approches de résolution des problèmes d’ordonnancement . . . . . . . 29
1.8.1 Méthodes polynômiales éfficaces . . . . . . . . . . . . . . . . . . . . 29
1.8.2 Méthodes énumératives éxactes . . . . . . . . . . . . . . . . . . . . . 30
1.8.3 Techniques approchées . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.10 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

7
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

8
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

1.1 Introduction
Avec l’évolution accrue de l’environnement caractérisé par des marchés affectés for-
tement par la concurrence et la sévérité des attentes de la clientèle, la nécessité de refor-
muler les outils d’aide à la décision pour les gestionnaires devient de plus en plus une exi-
gence urgente afin de remédier aux limites des disciplines traditionnelles [M ARTINSONS
et D AVISON, 2007]. L’ordonnancement occupant une position focale dans le système de
gestion informatisée des flux de production constitue la liaison vitale entre deux niveaux
de la décision hiérarchique au sein de l’entreprise : le niveau tactique et le niveau opé-
rationnel. En effet, la fonction ordonnancement assure le pilotage de l’ensemble des res-
sources disponibles avec la résolution des conflits causés par la réalisation des gammes
de produits sur l’horizon de temps estimé. La fonction ordonnancement est délimitée au
sein d’une structure hiérarchisée par les fonctions planification en amont et lancement
en aval. L’estimation des besoins en composants ainsi que la détermination des plans
d’approvisionnement et de charge sont assurées par la fonction planification. La fonction
lancement est responsable de la validation des ordres de fabrication à travers le regrou-
pement et le dimensionnement de ces ordres en lots de production. Un mécanisme de
contrôle vertical est adopté pour garantir la consistance des décisions entre différents ni-
veaux. Par exemple, la non faisabilité du plan de production au niveau ordonnancement
vis-à-vis les volumes demandés peut être justifiée comme due à une estimation erronée
des capacités des ressources dans les ateliers [E SQUIROL et L OPEZ, 1999].
En comparaison avec les systèmes de production basés sur un paradigme de produc-
tion mono produit ou bien gérée par la méthode kanban pour lesquels les flux de produit
s’écoulent naturellement et doivent en principe s’autoréguler, la vision d’ordonnance-
ment joue un rôle crucial dans tous les ateliers traitants des produits divers en flux poussé
[K AABI -H ARRATH, 2004]. Ceci peut être interprété par le fait que les gestionnaires dans de
tels ateliers sont obligés de manipuler des informations relatives à différentes gammes
de production simultanément avec l’objectif de maximiser le profit. De plus, comme la
production dans un marché très compétitif est gouvernée par les ordres de fabrication
issus de la fonction planification, la contrainte temps doit être impérativement considé-
rée dans le contexte de la décision. Cependant, il est à noter que l’importance du concept
d’ordonnancement n’est pas limitée uniquement à l’aspect industriel car un nombre im-
pressionnant de problèmes d’ordonnancement existe dans d’autres domaines parmi les-
quels nous pouvons citer :
• Le domaine informatique : le noyau d’un système d’exploitation contient la compo-
sante ordonnanceur pour l’utilisation maximale des capacités de l’environnement
telles que des processeurs en parallèle ou bien le respect des contraintes temps réel
dans les systèmes embarqués ;
• Le domaine hospitalier : l’ordonnancement des salles opératoires vise à la réa-
lisation d’interventions sous des conditions de travail adéquates pour les res-
sources humaines (infirmiers, anesthésistes, chirurgiens...) et techniques (instru-
ments médicaux-chirurgicaux, salles d’opération et de réveil...) ;
• Le domaine de transport : l’ordonnancement permet d’avoir les itinéraires d’une
flotte de véhicules de transport pour satisfaire l’ensemble de requêtes des clients
(problème de tournées de véhicule) ;
• Le domaine de l’éducation : avec la croissance rapide du nombre d’étudiants d’une
année à l’autre, il est nécessaire d’exploiter d’une façon optimale les ressources pé-
dagogiques. Des contraintes particulières sont souvent présentes dans ce cadre par
exemple les préférences des enseignants.

9
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

Dans tous ces cas, la réalisation d’un travail exprimé par une série de tâches interdépen-
dantes nécessite un mécanisme de coordination pour implémenter ces tâches (allocation
des ressources adéquates).
Ce premier chapitre est réservé à la présentation des concepts de base concernant les
problèmes d’ordonnancement. Dans ce contexte, nous faisons notre mieux pour aborder
les différents aspects du thème d’une façon formelle sans lier ces notions à un domaine
bien particulier. Ce chapitre est divisé en neuf sections. La Section 1.2 est destinée à la
présentation du contexte de l’ordonnancement au sein de l’entreprise. La Section 1.3
décrit le problème d’ordonnancement notamment la définition, les notations et les ob-
jectifs d’optimisation. Les différentes typologies des problèmes d’ordonnancement ainsi
que les outils de modélisation associés sont illustrés dans les Sections 1.4 et 1.5. L’impor-
tance des contraintes dans la modélisation des problèmes d’ordonnancement est accen-
tuée dans la Section 1.6. La complexité des problèmes d’ordonnancement à une machine
est traitée sous formulation standard et avec considération de quelques contraintes dans
la Section 1.7. Les grandes familles des approches de résolution des problèmes d’ordon-
nancement sont exposées d’une façon succincte dans la Section 1.8. Quelques remarques
et conclusions sont délivrées dans la Section 1.9.

1.2 Contexte de l’ordonnancement


De point de vue organisationnel de l’entreprise, l’ordonnancement forme une partie
indispensable du système de contrôle et de planification de la production. Ce dernier ré-
git la complexité des flux d’information dans le processus de prise de décision. Générale-
ment, tels systèmes sont décomposés en des modules effectuant des fonctions différentes
comme la planification des besoins en matière première [S TORPER et H ARRISON, 1991].
Ces structures hiérarchisées sont caractérisées par des décisions grossières à horizon tem-
porel long au sommet. En revanche, le degré de détail des informations augmente en pa-
rallèle avec le raccourcissement des horizons temporels en allant vers les niveaux bas. Par
conséquent, l’évolution de la prise de décision est concrétisée par un affinement succes-
sif lors du passage d’un niveau supérieur à un niveau inférieur dans l’hiérarchie donnant
ainsi plus de réactivité au système décisionnel.
Cette approche de décomposition hiérarchique des systèmes de production est
connue sous le nom de Planification de la Production Hiérarchique (en anglais HPP) et
permet de déceler entre les niveaux stratégiques de décision dans une entreprise. Par
exemple, Bertrand et ses collègues ont distingué entre le contrôle des flux de biens concer-
nant les décisions de planification et de contrôle à l’échelle de l’entreprise et le contrôle
de l’unité de production relatif aux décisions de planification et de contrôle à l’échelle
des ateliers de fabrications [B ERTRAND et collab., 1990]. Cependant, le contrôle des flux
de biens supervise également la coordination entre les différents ateliers de fabrication.
Le paradigme de planification de la production hiérarchique a été largement utilisé
et reconnu comme une méthodologie fiable de planification et de contrôle par plusieurs
entreprises de moyenne et grande taille. L’adoption de l’objet de décision comme critère
de classification conduit à distinguer : les décisions stratégiques concernant la manière
dont l’entreprise gère sa position sur le marché, les décisions tactiques portant sur l’éla-
boration de plans pour parvenir aux objectifs prévus et les décisions opérationnelles s’ap-
pliquant dans le cadre du processus productif pratique au sein des ateliers [A NTHONY,
1965]. Ce type de décision est réversible via des actions correctives rapides et bénéfiques
la plus part du temps.

10
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

Le type d’informations requis pour la prise de décision dans une organisation dé-
pend directement du niveau décisionnel et de la structuration des situations de déci-
sion confrontées. Il est essentiel de comprendre que le contexte classique de gestion sous
forme pyramidale reste valable pour les organisations d’aujourdui. Le processus de déci-
sion est toujours structuré à la base de niveaux hiérarchique mais avec modification de
quelques attributs comme la forme et les participants qui continuent de changer avec
l’évolution des structures organisationnelles. L’interdépendance entre les trois niveaux
décisionnels et les types d’informations est illustrée sur la Figure 1.1 ( [O’B RIEN et M A -
RAKAS , 2011]).

F IGURE 1.1 Dépendence entre le niveau de décision et le type d’information.

La décomposition basée sur la planification de la production hiérarchique permet


d’associer aux tâches des attributs de privilège tels que la visibilité, l’autorité et la respon-
sabilité. Malheureusement, l’adoption de cette décomposition a engendré dans certains
cas des entreprises statiques et non flexibles face aux fluctuations de l’environnement.
Ceci est dû au processus d’ordonnancement structuré d’une manière hiérarchique indé-
pendamment de l’adaptabilité de ce choix au système de production [B ITRAN et T IRU -
PATI , 1989].
Le gap entre la théorie et la pratique de l’ordonnancement a été signalé depuis les an-
nées soixante et a été discuté par plusieurs chercheurs. Plusieurs causes probables sont
à l’origine de ce gap et contribuent aux difficultés rencontrées lors de l’amélioration des
procédés de production. L’une de ces causes peut être due au manque de concordance
entre le facteur humain et les facteurs formels intervenant dans les méthodes et les sys-
tèmes d’ordonnancement. En effet, les procédures de contrôle et de prise de décision
dans une entreprise réelle contiennent nécessairement des actions humaines. Le facteur
humain est présent dans plusieurs situations telles que l’affectation des ressources ap-
propriées, la spécification des valeurs initiales aux paramètres de configuration d’un al-
gorithme ou bien l’interprétation d’un plan issu d’un logiciel. Il est quasiment impossible
de penser à des situations de nos jours où l’implémentation des approches de contrôle

11
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

et d’optimisation est auto-réglante/auto-adaptative aux contextes des marchés. Il est à


mentionner que les efforts destinés à l’analyse de l’impact des facteurs humains sur les
modèles d’ordonnancement par rapport aux aspects mathématiques et informatiques
sont relativement faibles en termes des études publiées ( [M C K AY et W IERS, 1999] et
[M C K AY et W IERS, 2006]).
Dans le but d’analyser les types d’informations utilisés par l’ordonnanceur pendant le
test de la faisabilité opérationnelle des ordonnancements, McKay a capturé lors de la pé-
riode d’étude approximativement plus de 250 décisions non quotidiennes à prendre. Ces
décisions concernent les considérations non traditionnelles liées aux tâches, ressources
et temps. L’ordonnanceur dans l’entreprise utilise plusieurs types d’informations pour
la prise de décision. En outre, l’information est manipulée sous plusieurs facettes : col-
lection, augmentation, compression...etc. Dans ce contexte, certaines informations sont
employées comme des signaux pour contrôler les activités de traitement des informations
secondaires. Les différentes catégories des informations utilisées par l’ordonnanceur sont
résumées sur le Tableau 1.1 ( [M C K AY, 1992]).

TABLEAU 1.1 Informations utilisées dans le processus d’ordonnancement

Catégorie Exemples d’information utilisée


Humain Expérience/compétence, motivation, absence et autres caractéris-
tiques individuelles des opérateurs, ingénieurs, vendeurs, fournis-
seurs, clients, transporteurs, techniciens, sous traiteurs
Organisation Objectifs, procédures, responsabilité politique, potins
Resource Capacité, flexibilité, sûreté, coût, location, état de maintenance,
modes d’opération (manuel ou automatique), âge, et la sensibilité
de : machines, outils, fixations, personnel, équipement de trans-
port, tampons, palettes, sous traiteurs
Matériel Date d’échéance, quantité requise, client, qualité, temps de trai-
tement, âge, spécification, programme de commande numérique
par calculateur, factures de matériel, routage, stabilité, taille du lot,
niveau de stock, risque

La diversité des informations illustrées sur ce tableau montre clairement la difficulté


des obstacles à contourner dans le cadre des hypothèses simplifiées de la théorie d’affec-
tation classique. L’accent doit être mis sur le fait que la majorité du temps et d’effort de
l’ordonnanceur est allouée au contrôle anticipé basé sur l’évaluation des risques et la re-
formulation des activités difficiles à assimiler. Pour pallier ces limites, la fonction ordon-
nancement dans un système de production doit interagir d’une façon dynamique avec
les autres fonctions. Cette interaction dépend du système et s’adapte continûment avec
le changement des circonstances. Un système de production moderne possède souvent
un système d’information élaboré qui contient un calculateur central et une base de don-
nées. De plus, des réseaux locaux d’ordinateurs personnels, stations de travail et termi-
naux d’accès connectés au calculateur central sont utilisés pour la récupération des don-
nées existantes ou l’insertion des nouvelles informations dans la base de données. Le lo-
giciel exploité pour la gestion du système d’information est nommé Système de Planifica-
tion des Ressources de l’Entreprise (en anglais ERP). Ce système joue le rôle d’une passe-
relle d’informations traversant l’entreprise à tous les niveaux organisationnels pour relier
les différentes composantes d’aide à la décision. Par conséquent, l’ordonnancement est

12
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

souvent achevé interactivement via un système d’aide à la décision installé sur un ordina-
teur personnel ou station de travail connectée au système de planification des ressources
de l’entreprise. Les terminaux distribués à des points fixes donnent aux départements de
l’entreprise un accès sécurisé en temps réel à toutes les informations d’ordonnancement.
D’autre part, ces départements alimentent le système d’ordonnancement avec les infor-
mations récentes relatives aux états des tâches et des machines.

1.3 Description du problème d’ordonnancement


Pour illustrer les différents aspects de l’ordonnancement, nous abordons dans ce qui
suit les concepts, définitions, notations et objectifs d’optimisation relatifs à la probléma-
tique d’ordonnancement.

1.3.1 Définition du terme ordonnancement


Due à la disponibilité d’un grand nombre de définitions de l’ordonnancement dans
la littérature, nous présentons uniquement trois définitions brèves mais typiques comme
illustré ci-dessous :

Définition 1.1. Ordonnancer un ensemble de tâches, c’est programmer leur exécution en


leur allouant les ressources requises et en fixant leur date de début [G OTHA, 1993].

Définition 1.2. Le problème d’ordonnancement consiste à organiser dans le temps la réa-


lisation de tâches, compte tenu de contraintes temporelles (délais, contraintes d’enchaine-
ment,...) et de contraintes portant sur l’utilisation et la disponibilité des ressources requises
[E SQUIROL et L OPEZ, 2001].

Définition 1.3. L’ordonnancement concerne l’allocation de ressources limitées aux activités


avec l’objectif d’optimiser un ou plusieurs mesures de performance [L EUNG, 2004].

En partant de ces trois définitions, les propriétés élémentaires d’un problème d’ordon-
nancement découlent directement. Un problème d’ordonnancement fait évoquer géné-
ralement les points suivants :
• Existence d’un nombre fini de tâches ;
• Partage de ressources limitées entre ces tâches ;
• Détermination de la date de début d’exécution pour chaque tâche ;
• Respect des contraintes imposées sur les tâches et les ressources.
Les concepts et les notations de base sont présentés avec plus de détails dans les sous
sections suivantes.

1.3.2 Concepts et notations de base en ordonnancement


La terminologie et les notations suivantes constituent le vocabulaire de base dans
l’élaboration des modèles d’ordonnancement [P INEDO, 2009]. Deux concepts fondamen-
taux interviennent dans la description d’un problème d’ordonnancement : les tâches et
les ressources. Une tâche est une entité élémentaire de travail localisée dans le temps par
une date de début et/ou une date de fin, dont l’exécution nécessite un nombre d’unités de
temps et d’unités de ressources exploitées/consommées avec une intensité donnée. Une

13
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

ressource est un moyen, technique (machine, processeur, piste aéronautique) ou humain,


destiné à l’exécution des tâches et dont l’état de disponibilité est connu d’avance. Chaque
tâche est caractérisée, lorsqu’une seule ressource est considérée, par un ensemble de
données notamment :
• Durée opératoire (p i ) : elle représente le temps nécessaire pour la réalisation de
la tâche i sur une ressource unique ou lorsque cette durée ne dépend pas de la
machine. Le taux de production de la machine peut être déduit comme Qi = p1
i
(nombre de pièces par unité de temps). Dans le cas où nous avons plusieurs res-
sources, une notation à deux indices est introduite ;
• Date de disponibilité (r i ) : elle est connue aussi sous le nom de la date de l’état
prêt. C’est la date d’arrivé de la tâche i au système et pour laquelle le démarrage du
traitement de la tâche est possible ;
• Date échue (d i ) : elle représente la date de livraison comme promis au client et la
violation de ce délai engendre une pénalité de retard. En revanche, rien n’empêche
la tâche d’être exécutée après sa date d’échéance. Lorsque la date échue est une
contrainte forte à satisfaire, elle est appelée la date fin impérative ;
• Poids (ωi ) : c’est une sorte de facteur de priorité exprimant l’importance d’une
tâche par rapport aux autres dans le système. Le poids peut refléter dans la pra-
tique un coût de séjour de la tâche dans le système pour une unité de temps ou un
coût de stockage.
Comme la liste de ces paramètres ne dépend pas de la séquence d’ordonnancement dans
la formulation standard, les données associées sont considérées comme statiques. Par
contre, les paramètres qui ne sont pas connus au préalable, à cause de leurs dépendances
de la séquence d’ordonnancement, sont identifiés à des données dynamiques. Les prin-
cipaux paramètres dans cette catégorie dynamique sont :
• Date début (S i ) : c’est le temps où la tâche i commence son exécution sur la ma-
chine. Dans un contexte multiressource, cette date désigne le temps du premier
traitement de la tâche dans le système ;
• Date fin (Ci ) : elle exprime le temps de la fin d’exécution de la tâche i sur la machine.
Dans un contexte multimachine, cette date correspond au temps où la tâche quitte
le système.

1.3.3 Objectifs d’optimisation dans l’ordonnancement


Le cardinal de l’ensemble des ordonnancements tenant compte des ressources dispo-
nibles et des contraintes imposées peut croître dans certains cas d’une façon exponen-
tielle en fonction du nombre de tâches. Afin d’exploiter cet ensemble des ordonnance-
ments admissibles, une fonction économique (critère d’optimalité) permettant le clas-
sement de ces ordonnancements doit être introduite. Alors, il devient possible de déter-
miner un ordonnancement optimal dans le sens de la meilleure satisfaction du critère
d’optimalité considéré. Généralement, les critères d’optimalité les plus utilisés dans la lit-
térature font intervenir les dates de fin d’exécution des tâches (Ci ) comme paramètre de
base en combinaison avec d’autres paramètres auxiliaires. Des opérateurs de maximum
(critère goulet) ou de somme sont adoptés pour formuler ces critères où il est envisa-
geable sous certaines situations d’introduire une pondération pour différencier entre les
priorités des tâches. Dans les Tableaux 1.2 et 1.3, nous élucidons les critères élémen-
taires ainsi que la procédure de création des critères d’optimalités les plus rencontrés

14
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

dans le domaine de l’ordonnancement [B RUCKER, 2007]. Dans le contexte d’une opti-


misation multi-objectif, il est possible de proposer d’autres critères sophistiqués utilisant
l’approche somme pondérée dont le but est d’élaborer un compromis entre deux ou plu-
sieurs fonctions objectifs intégrées dans une seule formulation.

TABLEAU 1.2 Présentation des critères élémentaires utilisés dans le domaine d’ordonnan-
cement

Critère Notation Expression


Date fin Ci Ci = S i + p i
Temps de séjour Fi Fi = Ci − r i
Retard algébrique Li Li = Ci − d i
Retard Ti Ti = max (Ci − d i , 0)
½
1 si Ti > 0
Indicateur de retard Ui Ui =
0 si non
Avance Ei Ei = max (d i − Ci , 0)

TABLEAU 1.3 Classification des critères de performances utilisés dans le domaine d’or-
donnancement

Maximum Maximum pondéré Somme Somme pondérée


iP
=n iP
=n
max (Ci ) max (ωi × Ci ) Ci (ωi × Ci )
1≤i ≤n 1≤i ≤n i =1 i =1
iP
=n iP
=n
max (Fi ) max (ωi × Fi ) Fi (ωi × Fi )
1≤i ≤n 1≤i ≤n i =1 i =1
iP
=n iP
=n
max (Li ) max (ωi × Li ) Li (ωi × Li )
1≤i ≤n 1≤i ≤n i =1 i =1
iP
=n iP
=n
max (Ti ) max (ωi × Ti ) Ti (ωi × Ti )
1≤i ≤n 1≤i ≤n i =1 i =1
iP
=n iP
=n
max (Ui ) max (ωi × Ui ) Ui (ωi × Ui )
1≤i ≤n 1≤i ≤n i =1 i =1
iP
=n iP
=n
max (Ei ) max (ωi × Ei ) Ei (ωi × Ei )
1≤i ≤n 1≤i ≤n i =1 i =1

Une propriété très utile dans l’obtention de l’optimum d’un problème d’ordonnance-
ment est attachée à la notion de régularité du critère d’optimalité introduite par Conway
et ses collègues [C ONWAY et collab., 1967]. La définition suivante donne une interpréta-
tion rigoureuse de cette notion.
opt
Définition 1.4. Soient C = [C1 , C2 , ..., Cn ] le vecteur des dates de fin des tâches et FC : C → R
un critère d’optimalité.
h Le critèreiest dit régulier si et ³ seulement
´ si pour tout autre vecteur
0 0 0 0 opt 0 opt
des dates de fin C = C1 , C2 , ..., Cn , nous avons FC C ≥ FC (C) est vérifié si et seulement
0
si ∃k ∈ {1, 2, ..., n} tel que Ck ≥ Ck .

D’une façon équivalente, un critère est régulier si et seulement s’il est une fonction non-
décroissente des dates de fin d’exécution des tâches.

15
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

Théorème 1.1. Dans le problème standard d’ordonnancement à une machine avec critère
d’optimalité régulier, les ordonnancements sans temps d’oisiveté constituent un ensemble
dominant.

Démonstration.

Soit A l’ensemble des ordonnancements sans temps d’oisiveté. Supposons que l’or-
donnancement optimal n’appartient pas à cet ensemble, donc il contient au moins un
temps d’oisiveté. Par hypothèse, le critère d’optimalité est régulier d’où la possibilité
de réduire sa valeur pour le cas de l’ordonnancement optimal en éliminant les temps
d’oisiveté par décalage des tâches localisées en aval. Mais ceci contredit l’optimalité de la
solution d’où la solution optimale appartient forcement à l’ensemble A. Ce qui signifie
que l’ensemble des ordonnancements sans temps d’oisiveté constitue un ensemble
dominant lorsque le critère d’optimalité est régulier.

1.4 Classification des problèmes d’ordonnancement


À cause de l’existence ¯d’une très grande variété de problèmes d’ordonnancement, la
notation à trois champs α β γ proposée initialement par Graham et ses collègues [G RA -
¯
¯ ¯
HAM et collab., 1979] et reprise par la suite par plusieurs auteurs ( [C HEN et collab., 1998])
s’est rapidement émergée en tant que cadre de référence pour donner une classification
claire tenant compte des caractéristiques de la plateforme et de l’environnement du pro-
blème d’ordonnancement étudié comme indiqué sur le Tableau 1.4.

TABLEAU 1.4 Significations et valeurs des champs dans la notation de Graham

Champ Sous champs Valeurs


φ,
© ª
Environnement (α) Type de machine (α1 ) 1, P, Q, R, O, F, J, FH
φ, k
© ª
Nombre de machines (α2 )
φ,
© ª
Contrainte (β) Préemption (β1 ) pmt n
©φ, r es
© ª
Ressources additionnelles (β2 )
φ,
ª
Précédence (β3 ) pr ec, uan, t r ee, chai ns
φ,
© ª
Dates de disponibilité (β4 ) r i

©φ, p i++=ªp, p − ≤ p i ≤ p +
© ª
Durées opératoires (β5 )
Dates de fin impérative (β6 ) ©φ, d i
φ, n i ≤ n max
ª
Nombre maximum d’opérations
par tâche (β7 )
φ, no − w ai t
© ª
Propriété d’attente (β8 )
Objectif (γ) / Un des critères d’optimalité
du Tableau 1.2

Les valeurs prises par le sous champ α1 sont décrites dans le Tableau 1.5. Pour le champ
β, uniquement les valeurs de la propriété de précédence (sous champ β3 ) sont interpré-
tées dans le Tableau 1.6 comme les valeurs affectées aux autres sous champs signifient la
presence ou l’absence de la propriété considérée.
Bien que les valeurs affectées aux champs permettent de modéliser un très grand
nombre de problèmes d’ordonnancement, multitudes extensions ont été proposées en

16
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

TABLEAU 1.5 Interprétation des valeurs du champ α1

Valeur Description
φ ou 1 Environement à une seule machine
P Environement à machines identiques parallèles
Q Environement à machines parallèles uniformes
R Environement à machines parallèles quelconques
O Système open shop
F Système Flow shop
J Système Job shop
FH Système flow shop hybride

TABLEAU 1.6 Interprétation des valeurs du champ β3

Valeur Description
φ Tâches indépendentes
pr ec Tâches avec contraintes de précédence générales
uan Tâches formant un réseau d’activités uniconnexe
t r ee Tâches formant un arbre
chai ns Tâches formant union de chaînes

particulier au niveau des champs β et γ dans le but de supporter d’autres catégories de


problèmes particulières telles que la classe des problèmes stochastiques ou multicritères.
Ce processus d’extension est un axe évolutif où il est très probable dans le futur que
d’autres contraintes et extensions soient encore créées [T’ KINDT et B ILLAUT, 2006].

1.5 Outils de modélisation pour l’ordonnancement


Dans le domaine d’ordonnancement, plusieurs outils sont disponibles non seulement
pour la représentation graphique des solutions mais également pour la spécification sans
ambiguité des données et des contraintes du problème. Dans cette section, nous pré-
sontons quelques outils de base largement employés dans la littérature des problèmes
d’ordonnancement.

1.5.1 Diagramme de Gantt


Malgré que les diagrammes de Gantt datent de plus d’un siècle, ils sont considérés
comme outil de modélisation très populaire en gestion pendant la phase de planifica-
tion, puis comme un procédé de contrôle pour valider les résultats [C LARK, 1923]. Le
diagramme de Gantt est un modèle graphique simple et flexible pour représenter l’exé-
cution des tâches sur une période de temps. Un segment horizontal de longueur propor-
tionnelle à la durée opératoire est associé à chaque tâche avec l’hypothèse que ces durées
sont connues avec certitude. Il existe deux visions pour l’élaboration de ce genre de dia-
grammes [W ILSON, 2003] :
• Le diagramme à base de ressource où la ligne horizontale correspond à la ressource,
ce qui rend possible l’illustration de ses périodes d’opération et d’oisiveté ainsi que
l’ordre de passage des opérations ;

17
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

• Le diagramme à base de produit où une ligne est affectée à chaque tâche pour per-
mettre de déterminer le chaînage de ses opérations et le temps d’attente entre deux
opérations consécutives.

Il est possible également de considérer des diagrammes de Gantt dans un espace à trois
dimensions avec les axes orthogonaux représentant les machines, les tâches et le temps.
Ce genre de diagrammes est devenu ces dernières années plus pratique en particulier
avec l’évolution d’outils dédiés de traitement graphique de données. Dans la figure 1.2,
l’exécution de tâches sur trois machines est visualisée ( [J ONES, 1988]).

F IGURE 1.2 Visualisation d’un ordonnancement sur trois machines utilisant un dia-
gramme de Gantt à trois dimensions.

L’utilisation des diagrammes de Gantt est généralement basée sur l’analyse des re-
lations de précédence entre tâches dans un ordonnancement et la réorganisation des
opérations pour comparer les performances de différentes configurations. Dans un en-
vironnement distribué, plusieurs usines d’attributs différents peuvent être sélectionnées
pour le traitement des tâches d’où des plans de production multiples. La génération d’une
séquence adéquate nécessite une intégration efficace du diagramme de Gantt dans le
contexte d’une méthode d’optimisation telle que les algorithmes génétiques [J IA et col-
lab., 2007].

18
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

1.5.2 Approche géométrique

L’approche géométrique constitue un outil très puissant pour la résolution optimale


des problèmes d’ordonnancements du type job shop à deux tâches et avec n’importe quel
critère régulier. Les fondements de cette approche ont été élaborés par Akers et Friedman
et étudiés par la suite plus en détail par Brucker ( [A KERS et F RIEDMAN, 1955] et [B RU -
CKER , 1988]). L’idée consiste à représenter le problème d’ordonnancement dans un plan
à deux dimensions avec des obstacles reflétant le partage des ressources entre les opéra-
tions des tâches. Le plan de représentation est construit ainsi : Chaque axe correspondant
à une tâche est divisé en un nombre de sous intervalles égale au nombre d’opérations de
la tâche avec la longueur de chaque sous intervalle est proportionnelle à la durée de l’opé-
ration associée. Le rectangle généré par l’intersection de deux sous intervalles forme un
obstacle si les deux opérations associées partagent la même ressource. Le chemin faisable
le plus court entre le point de l’origine et le point final (déterminé par les sommes des du-
rées opératoires des opérations des deux tâches) est composé de chemins élémentaires
horizontal, vertical ou diagonale qui évitent le passage à travers un obstacle. Une illustra-
tion typique de cette approche est donnée sur la figure 1.3, (voir [M ATI et X IE, 2008]).

F IGURE 1.3 Exemple générique illustrant les éléments de base de l’approche géométrique.

Par conséquent, la recherche d’un ordonnancement qui minimise le makespan est


équivalente à la recherche du plus court chemin faisable dans ce plan [M ATI et collab.,
2001]. Plusieurs extensions de l’approche géométrique ont été proposées pour résoudre
des problèmes d’ordonnancement plus compliqués à deux tâches et parmi lesquelles
nous pouvons citer l’hybridation avec des métaheuristiques pour supporter des périodes
de non disponibilité des machines dans un environnement flow shop [A GGOUNE et P ORT-
MANN , 2006].

19
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

1.5.3 Graphe disjonctif


L’utilisation des graphes disjonctifs pour la modélisation des problèmes d’ordonnan-
cements d’ateliers est sans doute parmi les techniques les plus exploitées. Introduite ini-
tialement par Roy et Sussman en 1964, elle fut reprise par la suite par plusieurs chercheurs
où elle est à l’origine des premières contributions pour le traitement des problèmes d’or-
donnancement [J AIN et M EERAN, 1999]. Cette tendance peut être expliquée par la simpli-
cité de construction de ces graphes et le support de différentes contraintes entre les dates
de début et de fin des opérations. Un graphe disjonctif est composé des éléments suivants
[T RABELSI, 2012] :

• Les noeuds : Ces noeuds représentent soit des débuts des opérations, ou bien des
opérations fictives correspondantes à la fin de chaque travail, ou bien les dates du
début et de la fin de l’ordonnancement ;
• Les arcs : Nous distinguons deux types d’arcs. Les arcs conjonctifs sont associés aux
contraintes de précédence entre deux opérations consécutives et valués par la du-
rée opératoire de la première opération. Les arcs disjonctifs exprimant les conflits
d’utilisation de ressources où deux opérations ne peuvent pas s’exécuter en même
temps si elles sont reliées par un tel arc.

Un ordonnancement admissible sur le graphe est obtenu en arbitrant chacune des


disjonctions. Cela revient donc à préserver uniquement un arc de chaque paire d’arcs
dans le but de fixer l’ordre de passage sur la machine. Donc, le graphe disjonctif contient
toutes les informations necessaires pour décrire une solution partielle ou complète du
problème d’ordonnancement comme indiqué par la figure 1.4 associée à un atelier du
type job shop avec trois machines ( [B ŁA ŻEWICZ et collab., 2000]).

F IGURE 1.4 Graphe disjonctif d’un problème d’ordonnancement de type job-shop.

On dit que l’ordonnancement est parfaitement défini si toutes les disjonctions sont ar-
bitrées sans génération de circuits dans le graphe [P ENZ, 1994]. Le développement d’ap-
proches d’optimisation (par exemple recherche locale ou recuit simulé) à base de graphe
disjonctif peut conduire à des procédures plus performantes en termes de qualité de so-
lutions et de temps de calcul en particulier en tenant compte des contraintes complexes

20
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

et/ou objectifs multiples comme c’est le cas de l’industrie des composants à base de se-
miconducteur [Y UGMA et collab., 2012].

1.5.4 Réseau de Petri


Les réseaux de Petri proposés pour la première fois par Carl Adam Petri sont devenus
actuellement un outil de modélisation graphique et mathématique très efficace pour la
représentation du comportement dynamique des systèmes de production [L EE et D I C E -
SARE , 1994]. Ceci est dû à l’adaptabilité du formalisme des réseaux de Petri temporisés
aux phénomènes de synchronisation et de concurrence caractérisant l’interaction entre
les tâches. Un réseau de Petri temporisé est constitué de trois composantes : les places
représentées par des cercles, les transitions représentées par des bars et les arcs qui sont
orientés et marqués par des poids. La notion du temps est introduite dans les réseaux
de Petri en associant à chaque place un temps minimal de séjour des jetons [M URATA,
1989]. Il est possible de suivre l’évolution d’un système en observant le changement du
marquage (vecteur du nombre de jetons dans chaque place) du modèle réseau de Petri
équivalent où le marquage est gouverné par les règles de franchissement suivantes :
• La validité d’une transition dépend du marquage de toutes les places en amont
avec des nombres de jetons dépassent ou égalent aux poids des arcs connectant
les places à cette transition ;
• Lors du franchissement d’une transition, des jetons sont enlevés des places en
amont et rajoutés aux places en aval selon les capacités des arcs connectés à ces
places.
Par exemple, sur la figure 1.5 est representée la modélisation à base de réseau de Petri
pour un atelier fonctionnant sans tampons avec deux machines et deux travaux. Il est
claire dans ce cas qu’il est possible de tomber dans une situation de blockage (voir [M EJÍA
et M ONTOYA, 2009]).
En profitant de la grande analogie entre le régime stationnaire des réseaux de Petri
temporisés et le comportement des problèmes d’ordonnancement cyclique, plusieurs
travaux ont été proposés dans cette direction. Cependant, le passage d’un problème
d’ordonnancement quelconque au modèle réseau de Petri correspondant est rendu pos-
sible en adoptant la procédure présentée dans [VAN DER A ALST, 1996]. Les métaheuris-
tiques ont été combinées avec les capacités de modélisation des réseaux de Petri afin de
résoudre les problèmes d’ordonnancement complexes. Par conséquent, des problèmes
d’ordonnancement ardus peuvent être modélisés par réseau de Petri simultanément avec
l’obtention d’une solution proche de l’optimale dans un temps de calcul raisonnable
[T UNCEL et B AYHAN, 2007]. Il est à mentionner que l’aspect incertain est introduit dans
les réseaux de Petri à travers l’intégration avec la théorie des ensembles flous où la perti-
nence de cette vision a été validée par plusieurs applications industrielles [Z HOU et Z AIN,
2016].

21
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

F IGURE 1.5 Modélisation par réseau de Petri de l’exécution de deux travaux sur un atelier
à deux machines.

1.6 Importance des contraintes dans les problèmes d’or-


donnancement
Le terme contrainte relative à un ensemble de variables de décision désigne une res-
triction imposée sur les domaines de valeurs associées à ces variables. Dans l’ordonnan-
cement, nous distinguons deux types de variables de décision selon qu’elles portent sur
des décisions liées au temps ou aux ressources [T RUNG, 2005] :
• Les contraintes temporelles sont utilisées pour exprimer les interdépendances tem-
porelles lors de l’exécution des tâches. Ces contraintes modélisent en pratique les
aspects technologiques ou logistiques qui conditionnent la réalisation d’un produit.
Le formalisme des inégalités de potentiel constitue l’outil de base pour représen-
ter les contraintes temporelles en particulier pour illustrer des écarts minimaux ou
maximaux entre deux événements relatifs aux tâches ;
• Les contraintes de ressources sont utilisées pour représenter à la fois, les propriétés
de consommation des tâches sur les ressources ainsi que les attributs de disponi-
bilité des ressources. Dans ce cas, l’ordonnancement résultant doit garantir la co-
hérence de la consommation des tâches sur les ressources avec leurs disponibilités
au cours du temps. Le respect des contraintes de ressources est équivalent au non
chevauchement temporel des tâches.
Le Tableau 1.7 expose quelques contraintes temporelles et de ressources habituellement
existantes dans la littérature de l’ordonnancement [B EN H MIDA, 2009].
Les données associées à un problème d’ordonnancement telles que les durées opéra-
toires ou les dates d’occurrence de certains événements sont souvent altérées par plu-
sieurs sources d’incertitude internes et externes [B ILLAUT et collab., 2008]. Pour les

22
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

TABLEAU 1.7 Présentation de quelques contraintes rencontrées en ordonnancement

Contrainte Type Description


Contrainte temporelle Contrainte de temps absolu Limitation des valeurs pos-
sible pour les dates des
tâches.
Contrainte de temps relatif Satisfaction de la cohérence
technologique.
Contrainte de res- Contrainte de capacité Imposition de la réalisation
sources disjointe des tâches diffé-
rentes
Interdiction de la violation
de la capacité maximale
d’une ressource donnée
Contrainte d’affectation Fixation de l’ensemble des
ressources candidates pour
l’exécution d’une tâche
Imposition de l’utilisation de
ressources différentes pour
la réalisation d’un certain
nombre de tâches

sources d’incertitudes internes nous trouvons :


• La durée d’une tâche dépend des conditions de réalisation en particulier les res-
sources matérielles et humaines ;
• La communication entre deux tâches est conditionnée par l’état de réseau de com-
munication, les conflits et la disponibilité des liens ;
• Les temps de transport des composants entre opérations séparées dans un proces-
sus de production sont gouvernés par les propriétés des moyens de transport ;
• Quelques ressources comme les machines polyvalentes nécessitent un temps de
reconfiguration dépendant du type et localisation des outils dans l’atelier.
Pour les sources d’incertitude externes au système de production nous pouvons citer :
• Les dates de début dans un ordonnancement peuvent dépendre des événements
occurrents en dehors du système tels que la chaîne logistique ou les demandes de
la clientèle ;
• Les périodes de disponibilité des ressources humaines ou matérielles sont très dif-
ficiles à prédire avec précision à cause par exemple d’absence des opérateurs ou
manque de la matière première ;
• Les coûts affectés à une tâche peuvent changer sans notification en particulier si le
système fait partie d’un grand système hiérarchique.
La flexibilité des contraintes temporelles sous paramètres incertains est un aspect très
intéressant dans les problèmes d’ordonnancement car il rend compte de la possibilité de
s’éloigner des instances qui satisfont parfaitement ces contraintes. La notion de flexibilité
des contraintes décrit des préférences entre les combinaisons des valeurs d’ordonnance-
ment. En effet, la considération des contraintes temporelles de disponibilité et de délai

23
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

comme impératives peut conduire au rejet d’un ordonnancement acceptable même si la


violation de ces contraintes est insignifiante vis-à-vis des limites réalistes de prédiction
de ces dates [FARGIER, 1994]. La théorie des possibilités permet de prendre en compte
les problèmes d’ordonnancement intégrant des contraintes flexibles ou des paramètres
incertains. L’adoption de ce cadre de modélisation permet également de généraliser la
notion de graphe disjonctif utile pour l’évaluation d’inconsistances partielles ( [D UBOIS
et collab., 1995] et [D UBOIS et collab., 2003]).

1.7 Complexité des problèmes d’ordonnancement à une


machine
La théorie de la complexité est destinée à l’analyse formelle de la difficulté théorique
intrinsèque en particulier estimée en termes de temps de calcul ou taille de mémoire as-
sociés à la résolution d’un problème d’optimisation combinatoire. Une telle étude per-
met la distinction entre les problèmes dits "facile" et les problèmes dits "difficiles", d’où
la possibilité de choisir la méthodologie de résolution la plus appropriée [H ARTMA -
NIS , 1988]. Comme les problèmes d’ordonnancements appartiennent à la classe des pro-
blèmes d’optimisation combinatoire, les concepts de la théorie de complexité sont ap-
plicables dont le but est la mise en oeuvre d’une approche de résolution efficace. Avant
d’aborder ceci, nous présentons quelques définitions nécessaires pour l’assimilation de
cet aspect [Z IMAND, 2004].

Définition 1.5. Une machine de Turing est un modèle abstrait simulant l’exécution d’une
procédure sur une machine de calcul. Elle se compose de deux éléments de base :
• Unité de commande : responsable de la mise à jour et les transitions entre les états
possibles supposés finis ;
• Unité de mémoire : exprimée par un ruban de stockage constitué de nombre infini de
cases consécutives.
La communication entre ces deux éléments se fait par une tête de lecture/écriture qui balaye
les symboles sur le ruban, et a la possibilité de se déplacer aux deux sens du ruban.

Une machine de Turing est appelée déterministe si à chaque état est associée au plus
une seule transition (le prochain état est unique). Si plusieurs transitions sont permises
pour certains états, on dit que la machine de Turing est non déterministe (existence de
plusieurs états prochains candidats).
La machine de Turing universelle représente un outil plus avancé car elle est capable
de simuler le comportement de n’importe quelle autre machine de Turing. Il en résulte
que la machine de Turing universelle est dotée de la capacité de calculer des expressions
complexes (fonction récursive, langage récursif, langage partiellement décidable).
La thèse de Church-Turing affirme l’existence d’une équivalence entre les problèmes
résolubles par une machine de Turing universelle et les problèmes résolubles par un algo-
rithme ou par une méthode concrète de calcul. Un problème de décision est un prédicat
logique admettant deux solutions (Oui ou Non). La structure standard d’un problème de
décision contient deux parties élémentaires : l’instance générique du problème en termes
des différentes composantes et la question posée sur cette instance. La déduction du for-
mat décisionnel associé à un problème de minimisation peut être achevée en considérant
une borne supérieure dans la partie question afin d’examiner l’existence d’une instance

24
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

ayant un coût qui ne dépasse pas cette borne. En se basant sur le concept de la machine
de Turing avec considération de contrainte de temps, les deux classes suivantes (P et NP)
sont les plus usuelles [G OLDREICH, 2008].

Définition 1.6. La classe P est l’ensemble des langages reconnus par une machine de Turing
deterministe en temps polynômial.

Les problèmes appartenant à cette classe sont souvent considérés comme des problèmes
faciles pour lesquels il est possible de développer un algorithme efficace de résolution
optimale.

Définition 1.7. La classe NP est l’ensemble des langages reconnus par une machine non
déterministe en temps polynômial.

Les problèmes appartenant à cette classe peuvent être également reconnus par une ma-
chine de Turing deterministe mais avec un temps d’ordre exponentiel.
Dans la théorie de la complexité, nous nous intéressons à la reconnaissance des pro-
blèmes les plus durs de la classe NP. Deux notions sont d’une importance cruciale dans
la théorie de la complexité notamment celle de la NP-Complétude et celle de La NP-
difficulté [A RORA et B ARAK, 2009].

Définition 1.8. Un problème de décision X est dit NP-Complet s’il appartient à la classe NP
et il est possible de réduire tout autre problème Y de la classe NP à X en temps polynômial.

Définition 1.9. Un problème X est dit NP-difficile s’il est au moins aussi difficile que tous
les problèmes appartenant à la classe NP.

Il en découle de cette définition qu’un problème NP-difficile n’est pas forcément un élé-
ment de la classe NP ni même un problème de décision.
Pour permettre une classification assez précise des problèmes d’ordonnancement, la
réduction polynômiale est utilisée pour prouver d’une façon formelle qu’un problème
est plus difficile à résoudre qu’un autre. Ceci permet l’élaboration d’une hiérarchie par-
tielle d’où la possibilité de réutilisation des approches de résolutions développées pour
un problème après quelques modifications mineures pour d’autres problèmes. La Figure
1.6 présente un arbre de réduction des critères d’optimisation en ordonnancement.
Ce graphe de réduction s’interprète de la manière suivante : Pour un environnement
d’atelier donné et pour des contraintes et un critère donnés, si un problème est NP-
difficile, tous ses successeurs dans l’arbre le sont également. Afin d’alléger la mission
de classification des problèmes combinatoires selon leur complexité, un logiciel nommé
MSPCLASS a été développé avec une bibliothèque de 4536 problèmes parmi lesquels une
classe de 120 problèmes d’ordonnancement à une machine [L AGEWEG et collab., 1982].
L’utilisateur fournit une liste de problèmes de complexité connue (P ou NP) et en se ba-
sant sur les relations d’ordre partiel dans la classe considérée, le logiciel génère automati-
quement la nature de chaque problème (facile, ouvert ou difficile). L’ensemble des ordres
partiels entre les classes des problemes d’ordonnancement dans un graphe de réduction
permet de bien cerner les critères d’optimalités pouvant être simultanément employés
dans le cadre d’une optimisation multi-objectif.

25
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

F IGURE 1.6 Présentation de quelques réductions élémentaires entre les critères de perfor-
mance d’ordonnancement.

1.7.1 Complexité du problème d’ordonnancement standard


Quelques problèmes classiques d’ordonnancement à une machine ainsi que leurs
classes de complexité sont illustrés sur le Tableau 1.8, où les paramètres des modèles
sont représentés par des valeurs entières [L ENSTRA et collab., 1977].
Il est à mentionner dans ce cas l’existence de plusieurs problèmes pouvant être résolus
à l’optimalité, ce qui justifie la concentration des efforts des chercheurs sur les problèmes
d’ordonnancement mono ressource.

1.7.2 Complexité du problème d’ordonnancement à une machine avec


considération de contraintes
L’effet d’apprentissage dans le contexte industriel se réfère au phénomène de réduc-
tion du temps de traitement unitaire lorsque le produit associé est généré en grandes
quantités. Cet effet peut être expliqué par le fait que les différentes stations de travail amé-
liorent continuellement leurs performances comme résultat de la répétitions des mêmes
tâches ou tâches similaires. L’effet d’apprentissage a été prouvé empiriquement dans le
secteur manufacturier et secteur service comme un indice des entreprises bien gérées.
Actuellement, la technologie de groupe et la fabrication cellulaire sont très répandues
dans les petits systèmes de production par lots où uniquement un nombre limité mais
de tâches similaires est traité dans un cycle de production. Par conséquent, l’importance
pratique de la prise en compte d’effets d’apprentissage dans le processus de planifica-
tion des tâches devient une contrainte très forte à respecter [C HENG et WANG, 2000].
Comme plusieurs modèles d’apprentissage ont été introduits dans le domaine d’ordon-
nancement, nous présentons sur le Tableau 1.9 quelques problèmes d’ordonnancement

26
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

TABLEAU 1.8 Classification de quelques problèmes classiques d’ordonnancement à une


machine

Notation Complexité Ordre


O n2
¯ ¯ ¡ ¢
1 ¯pr ec, r i ¯ Cmax Polynômiale
iP
=n
1 |t r ee| ωi Ci
¡ ¢
Polynômiale O n × log (n)
i =1
¯ iP=n
1 ¯Ci ≤ d¯i ¯ Ci
¯ ¡ ¢
Polynômiale O n × log (n)
¯ i =1
O ¡n 2 ¢
¯ ¡ ¢
1 ¯¯pr ec ¯ Lmax Polynômiale
O n2
¯
1 ¯pr ec, r i , p i = 1¯ Lmax Polynômiale
¯ iP
=n
1 ¯r i , p i = 1¯ ωi Ti O n3
¯ ¡ ¢
Polynômiale
i =1
¯ iP
=n
ωi U i O n2
¯ ¡ ¢
1 ¯r i , p i = 1¯ Polynômiale
i =1
iP
=n ¡ ¢
1 || Ui Polynômiale O n × log (n)
i =1
¯ iP
=n
1 ¯pr ec, p i = 1¯ ωi Ci
¯
NP-difficile au sens fort /
i =1
¯ ¯ iP
=n
1 ¯pr ec ¯ Ci NP-difficile au sens fort /
i =1
iP
=n
1 |r i | Ci NP-difficile au sens fort /
i =1
¯ iP
=n
1 ¯Ci ≤ d¯i ¯ ωi Ci
¯
NP-difficile au sens fort /
i =1
1 |r i | Lmax NP-difficile au sens fort /
iP=n
1 || ωi Ti NP-difficile au sens fort /
i =1
¯ ¯ iP
=n
1 ¯pr ec, p i = 1¯ Ti NP-difficile au sens fort /
i =1
iP
=n
1 |r i | Ti NP-difficile au sens fort /
i =1
¯ ¯ iP
=n
1 ¯pr ec, p i = 1¯ Ui NP-difficile au sens fort /
i =1
iP
=n
1 |r i | Ui NP-difficile au sens fort /
i =1
iP
=n
1 || Ti NP-difficile au sens ordinaire /
i =1
iP
=n
1 || ωi Ui NP-difficile au sens ordinaire /
i =1

27
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

supportant cet aspect [B ISKUP, 2008].

TABLEAU 1.9 Classification de quelques problèmes d’ordonnancement à une machine


avec considération d’effet d’apprentissage

Notation Complexité Ordre


1 ¯p i r = p i r a ¯ Cmax
¯ ¯ ¡ ¢
Polynômiale O n × log (n)
¯ iP
=n
1 ¯p i r = p i r a ¯ Ci
¯ ¡ ¢
Polynômiale O n × log (n)
i =1
¯ iP
=n
1 ¯p i r = p i r a , p i = p ¯ ωi Ci
¯ ¡ ¢
Polynômiale O n × log (n)
i =1
¯ iP=n
1 ¯p i r = p i r a ¯ ωi Ci avec {ωi } agréables
¯ ¡ ¢
Polynômiale O n × log (n)
¯ i =1
1 ¯¯p i r = p i r a ¯¯ Tmax avec {d i } agréables
¯ ¡ ¢
Polynômiale O ¡n × log (n)¢
1 ¯¯p i r = p i r a ¯ Lmax¯ avec {d i } agréables Polynômiale O n × log (n)

1 r i , p i r = p i r Cmax
¯ NP-difficile au sens fort /
¯ iP
=n
1 ¯ p i r = p i r a ¯ Ui
¯
NP-difficile au sens fort /
i =1
¯ iP
=n
1 ¯p i r = p i r a ¯
¯
Ti NP-difficile au sens fort /
i =1

Le processus de réglage comprend les travaux liés à une multitude d’opérations telles
que l’obtention des outils, le positionnement des pièces, le nettoyage, l’inspection et la
configuration des machines ...etc. Le temps/coût associé à une opération de réglage a été
considéré pour longtemps comme négligeable ou faisant partie de la durée opératoire.
Bien que ceci est justifié pour certains problèmes d’ordonnancement, de nombreuses
autres situations nécessitent un traitement séparé pour les temps (coûts) de réglage [A L -
LAHVERDI et collab., 1999]. Dans ce cas, nous distinguons entre le réglage dépendant uni-
quement de la tâche en cours et le réglage dépendant de la tâche en cours ainsi que la
tâche précédente. Le temps de réglage pour le premier cas est dit indépendant de la sé-
quence (s si ), cependant le temps dans le deuxième cas est dit dépendant de la séquence
(s sd ) avec la possibilité de dépendance à plusieurs tâches précédentes (s psd ).
L’importance et les avantages de prise en compte des temps/coûts de réglage dans les
axes de recherches d’ordonnancement ont été abordés par plusieurs chercheurs depuis
les années 1960s où une moyenne de 40 articles publiés par an est ajoutée à la littérature.
Le Tableau 1.10 résume la complexité de quelques problèmes d’ordonnancement avec
considération du temps de réglage et le lecteur intéressé pour une description plus de-
taillée peut consulter les références [A LLAHVERDI et collab., 2008] et [A LLAHVERDI, 2015].

28
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

TABLEAU 1.10 Classification de quelques problèmes d’ordonnancement à une machine


avec considération des temps de règlage

Notation Complexité Ordre


¯ Ã ! ¯
¯ rP−1 ¯
1 ¯p i r = p i αa ω j p [ j ] + β b r −1 , s psd ¯ max (Ci )
¡ ¢
Polynômiale O n × log (n)
¯ ¯
¯ j =1 ¯ 1≤i ≤n
¯ Ã ! ¯
¯ rP−1 ¯ iP
¯ =n
1 ¯p i r = p i αa ω j p [ j ] + β b r −1 , s psd ¯ ωi Ci
¡ ¢
Polynômiale O n × log (n)
¯
¯ j =1 ¯ i =1
avec
¯ {ω ¯ i } agréables ¡ ¢
1 ¯s psd ¯ max (Ci ) Polynômiale O n × log (n)
1≤i Ã
≤n
´ a
¯ ! ¯
¯ rP −1 ³ ¯ iP
¯ =n
, s psd ¯ Ci2
¡ ¢
1 ¯p i r = p i 1 + log p [ j ] Polynômiale O n × log (n)
¯
Ãj =1 ¯ i =1
¯ ¯
¯ !
¯ rP−1 ¯
β j p [ j ] , r , s psd ¯ max (Li )
¡ ¢
1 ¯p i r = p i × f Polynômiale O n × log (n)
¯ ¯
¯ j =1 ¯ 1≤i ≤n
¯ ¯ iP
=n
1 ¯r i , s si = s, pmtn¯ Ci NP-difficile au sens /
i =1
¯ ¯ fort
1 ¯r i , s si , pmtn¯ max (Ci + d i ) avec {d i } NP-difficile au sens /
1≤i ≤n
agréables fort

1.8 Approches de résolution des problèmes d’ordonnance-


ment
Lors de la résolution d’un problème d’ordonnancement, l’analyse au préalable de la
complexité de calcul du problème décisionnel associé est requise. Par la suite, les don-
nées relatives à une instance de test sont générées numériquement afin de valider la per-
formance d’une approche de résolution. Il n’existe pas une approche systématique pour
la génération des instances de test mais il est possible d’adopter quelques règles d’ordre
général pour l’obtention de données fiables [H ALL et P OSNER, 2001]. La procédure de
résolution diffère selon la classe de complexité déduite car si le problème d’ordonnan-
cement appartient à la classe P alors il est possible de développer un algorithme efficace
pour l’obtention d’une solution exacte. Autrement, d’autres alternatives sont adoptées
pour construire une solution approchée. Dans ce qui suit, nous décrivons les approches
de résolutions les plus connues dans le domaine de l’ordonnancement en enrichissant
le partitionnement présenté dans [M ACCARTHY et L IU, 1993]. Nous commençons par
les méthodes polynômiales éfficaces, nous passons ensuite aux approches énumératives
éxactes et nous terminons avec le paradigme des techniques approchées.

1.8.1 Méthodes polynômiales éfficaces


Pour cette classe de méthodes, le temps en nombre d’instructions élémentaires né-
cessaire pour l’aboutissement à un optimum global augmente d’une façon polynômiale
avec la valeur prise par une variable d’ordonnancement (généralement c’est le nombre
de tâches ou de machines). L’avantage majeur dans ce cas est la faisabilité de résolution
de certains problèmes d’ordonnancement de grande taille en un temps raisonnable (sou-
vent borné par un polynôme d’ordre deux). Par exemple, la règle de Smith permet de

29
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

iP
=n
résoudre à l’optimalité quelques problèmes d’ordonnancement à une machine (1 || Ci
i =1
iP
=n
et 1 || (ωi × Ci )) [S MITH, 1956]. La règle de Moore est une autre méthode polynômiale
i =1
efficace permettant de minimiser le nombre de tâches en retard pour le problème d’or-
iP
=n
donnancement à une machine (1 || Ui ) [M OORE, 1968]. Mais il est à mentionner qu’un
i =1
tel formalisme n’est disponible que pour un nombre très réduit de problèmes d’ordon-
nancement (machine unique, flow shop et job shop) et de critères de performance.

1.8.2 Méthodes énumératives éxactes


Les méthodes dites exactes connues également sous le nom de méthodes optimales
énumératives garantissent l’obtention d’une solution optimale pour le problème consi-
déré. Généralement, ces outils sont caractérisés par un parcourt partiel de l’espace de
solutions où les régions non prometteuses ne sont pas exploitées. Comme la complexité
théorique des méthodes exactes est de comportement exponentiel, il en découle que leur
application est limitée uniquement à des instances de taille moyenne pour lesquelles le
temps d’exécution est acceptable. Nous détaillons ci-dessous deux méthodes de cette
classe.

1.8.2.1 Procédures par Séparation et évaluation

La procédure par séparation et évaluation (en anglais Branch and Bound) est considé-
rée parmi les méthodes exactes les plus reconnues dans la résolution optimale des pro-
blèmes combinatoires. Cette méthode repose comme son nom l’indique sur deux notions
clés : la séparation et l’évaluation. Lors de l’exécution de la procédure, une arborescence
avec la racine correspond à l’espace de solutions du problème initial est créée d’une façon
incrémentale [L AWLER et W OOD, 1966]. Ceci est achevé à travers la dissociation d’un som-
met exprimant une sous classe en une partition de sous-sous classe. Cette opération de
division est combinée avec la comparaison du sommet traité avant l’exploration à un ma-
jorant dans le cas des problèmes de minimisation. La stratégie de calcul de ces bornes doit
être le plus simple possible pour ne pas introduire des coûts supplémentaires au temps
global de calcul. Si la valeur de la fonction objectif correspondante au sommet dépasse la
borne alors l’arbre est élagué. Sinon, un autre tour de la décomposition du sommet est re-
lancé. Il est à noter que les bornes sont améliorées chaque fois qu’une nouvelle meilleure
solution est trouvée [M ORRISON et collab., 2016].

1.8.2.2 Programmation dynamique

La programmation dynamique est considérée comme une approche générique per-


mettant de concevoir des méthodologies robustes de résolution exacte des problèmes
d’optimisation. Le fondement de cette approche s’appuit sur la décomposition du pro-
blème original en sous problèmes résolus localement d’une manière optimale [L EW et
M AUCH, 2007]. Le processus de résolution est conduit d’une façon ascendante où les so-
lutions des sous problèmes les plus petits sont utilisées en combinaison avec les informa-
tions intermédiaires pour construire progressivement la solution optimale. Cette vision
est basée sur le principe d’optimalité de Belman qui stipule qu’une stratégie optimale
a des sous stratégies optimales. La programmation dynamique possède plusieurs avan-
tages en particulier [C OOPER et C OOPER, 1981] :

30
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

• La transformation d’un problème d’optimisation à plusieurs dimensions en un en-


semble de problèmes d’optimisation unidimensionnels ;
• La solution obtenue est un optimum global en comparaison avec d’autres tech-
niques pour lesquelles l’optimalité globale n’est pas assurée ;
• L’imposition des contraintes d’intégrité sur les valeurs des variables mène à une
simplification significative du processus de calcul contrairement à plusieurs autres
techniques d’optimisation.

1.8.3 Techniques approchées


Les méthodes approchées constituent l’alternative la plus adaptée aux problèmes
combinatoire lorsque la taille est de l’ordre de ceux rencontrés dans la pratique. Ces mé-
thodes permettent de trouver des solutions proches de l’optimum dans un temps de cal-
cul raisonnable. Il existe deux classes de méthodes approchées : les heuristiques et les
métaheuristiques.
Le terme "Heuristique" veut dire l’acte de découvrir et désigne une méthode d’optimi-
sation qui profite des connaissances disponibles sur un problème spécifique dans le but
de guider le processus de recherche de solutions. Les heuristiques sont généralement dé-
finies à la base de solutions de haute qualité en combinaison avec des règles empiriques.
En outre, la conception efficace exige d’avoir des informations pertinentes sur la structure
du problème à résoudre ainsi que les attributs différenciant les solutions de bonne qualité
et celles de mauvaise qualité. Un certain degré de compromis doit être établi entre l’effi-
cacité et la portée de la méthode heuristique [R OTHLAUF, 2011]. En effet, l’augmentation
du nombre des propriétés spécifiques au problème conduit à une limitation de l’adapta-
bilité de la méthode développée pour d’autres problèmes. Dans cette situation, l’heuris-
tique obtenue est très fiable en termes de qualité des solutions pour un type particulier
de problèmes mais une fois la structure est modifiée même légèrement, les performances
se dégradent rapidement. Les heuristiques peuvent être divisées en deux catégories selon
la stratégie de génération des solutions [H. A. E ISELT et S ANDBIOM, 2004] :
• Les heuristiques de construction produisent une solution de telle sorte qu’à chaque
itération, un nouvel élément est sélectionné pour créer progressivement la solution
du problème ;
• Les heuristiques d’amélioration qui effectuent des améliorations à une solution ini-
tiale complète entre itérations jusqu’à atteindre un critère d’arrêt. La solution ini-
tiale dans cette catégorie peut être générée aléatoirement ou bien à travers une heu-
ristique de construction plus efficace.
En ce qui concerne la signification du terme "Métaheuristique" dans le domaine d’op-
timisation, c’est un processus de guidage d’une heuristique subordonnée afin de géné-
rer itérativement des solutions quasi-optimales. Ceci est achevé en combinant plusieurs
concepts pour la gestion intelligente de l’espace de recherche [O SMAN et K ELLY, 1996].
Généralement, les approches métaheuristiques sont des outils génériques indépendants
du gradient de la fonction objectif et pouvant être utilisés pour une multitude de pro-
blèmes sans beaucoup de modifications.
Toutes les approches métaheuristiques sont gouvernées par deux principes : la di-
versification (exploitation) et l’intensification (exploration). Dans la diversification, l’ap-
proche génère différentes solutions pour explorer l’espace de recherche d’une manière
globale, tandis que dans l’intensification, l’approche concentre la recherche dans une ré-
gion locale sachant qu’une bonne solution est trouvée dans cette région. Par conséquent,

31
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

un compromis entre ces deux principes doit être établi dans la sélection des meilleures
solutions afin d’améliorer le taux de convergence et assurer l’obtention d’un optimum
global.
Les approches métaheuristiques sont généralement inspirées de la nature et utilisent
une solution unique ou une population de solution pour l’exploration de l’espace de
recherche. Les méthodes utilisant une solution unique englobent les techniques de re-
cherche locale comme la recherche tabou et le recuit simulé. Les méthodes à base d’une
population explorent l’espace à travers l’évolution d’un ensemble de solutions telles que
les algorithmes génétiques [S HELOKAR et collab., 2014]. De plus, ces approches peuvent
être caractérisées par l’inclusion d’une mémoire pour le stockage et l’échange d’informa-
tions entre les individus de la même population ou bien entre plusieurs populations dans
le contexte d’une métaheuristique parallèle.

1.9 Conclusion
Tout au long de ce chapitre, nous avons présenté les concepts de base nécessaires à
mieux cerner les problèmes d’ordonnancement en particulier dans les ateliers de pro-
duction. En premier, nous avons mis en évidence la criticité de la fonction ordonnan-
cement au sein de l’hiérarchie de l’entreprise. Puis, nous nous somme intéressés par
les caractéristiques générales des problèmes d’ordonnancement comprenant les forma-
lismes mathématiques adoptés pour la description et la classification des problèmes
d’ordonnancement sans oublier quelques outils de modélisation graphique largement
utilisés pour la représentation des solutions ou bien la résolution proprement dite du
problème considéré. Nous avons ensuite donné un bref aperçu sur l’importance des
contraintes dans le contexte d’ordonnancement, ceci ne permet pas uniquement d’ap-
préhender les contraintes technologiques liées au processus de fabrication mais égale-
ment les contraintes imposées par des sources de perturbations externes à l’entreprise.
Dans un second temps, nous avons élaboré un survol de la complexité des pro-
blèmes d’ordonnancement à une machine les plus abondants dans la littérature ainsi
que quelques problèmes considérant l’effet d’apprentissage et/ou les temps de réglage.
L’étude de la complexité constitue le fil conducteur vers le choix de la méthodologie de
resolution adéquate et pour cela nous avons exposé une taxinomie des approches de re-
solution (exactes et approchées) en dernière partie de ce chapitre. En se basant sur la litté-
rature abordée, nous pouvons observer que la majorité des modèles les plus couramment
utilisés pour formaliser un problème d’ordonnancement sont de nature déterministe. Dès
lors des données incertaines sont présentes comme propriété intrinsèque de l’environne-
ment, ces modèles déterministes deviennent rigides et incapables de supporter tel aspect
d’imprécision. Par conséquent, nous nous intéressons dans les trois chapitres suivants
aux implications de la prise en compte des paramètres incertains dans quelques pro-
blèmes d’ordonnancement. Nous justifions aussi l’adaptation de plusieurs outils de mo-
délisation et d’optimisation pour des problèmes incluant des contraintes d’incertitude au
niveau des paramètres d’ordonnancement.

1.10 Références
VAN DER A ALST, W. M. P. 1996, «Petri net based scheduling», OR Spektrum, vol. 18, no 4,
p. 219–229. 21

32
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

A GGOUNE , R. et M.-C. P ORTMANN. 2006, «Flow shop scheduling problem with limited
machine availability : A heuristic approach», International Journal of Production Eco-
nomics, vol. 99, no 1-2, p. 4–15. 19

A KERS , S. B. et J. F RIEDMAN. 1955, «A non-numerical approach to production scheduling


problems», Journal of the Operations Research Society of America, vol. 3, no 4, p. 429–
442. 19

A LLAHVERDI , A. 2015, «Third comprehensive survey on scheduling problems with setup


times/costs», European Journal of Operational Research, vol. 246, no 2, p. 345–378. 28

A LLAHVERDI , A., J. N. D. G UPTA et T. A LDOWAISAN. 1999, «A review of scheduling re-


search involving setup considerations», Omega The International Journal of Manage-
ment Science, vol. 27, no 2, p. 219–293. 28

A LLAHVERDI , A., C. T. N G, T. C. E. C HENG et M. Y. KOVALYOV. 2008, «A survey of sche-


duling problems with setup times or costs», European Journal of Operational Research,
vol. 187, no 3, p. 985–1032. 28

A NTHONY, R. N. 1965, Planning and control systems : a framework for analysis, Division
of Research, Graduate School of Business Administration, Harvard University. 10

A RORA , S. et B. B ARAK. 2009, Computational complexity a modern approach, Cambridge


University Press. 25

B EN H MIDA , A. 2009, Méthodes arborescentes pour la résolution de problèmes d’ordonnan-


cement flexible, thèse de doctorat, INSA de Toulouse. 22

B ERTRAND, J. W. M., J. C. W ORTMANN et J. W YNGAARD. 1990, Production Control : A Struc-


tural and Design-Oriented Approach, Elsevier Press. 10

B ILLAUT, J.-C., A. M OUKRIM et E. S ANLAVILLE. 2008, Introduction to flexibility and ro-


bustness in scheduling, chap. 1, in J-C. Billaut, and A. Moukrim, E. Sanlaville. (eds.),
Flexibility and robustness in scheduling, ISTE et John Wiley. 22

B ISKUP, D. 2008, «A state-of-the-art review on scheduling with learning effects», European


Journal of Operational Research, vol. 188, no 2, p. 315–329. 28

B ITRAN , G. R. et D. T IRUPATI. 1989, «Hierarchical production planning», cahier de re-


cherche 3017-89-MS, MIT Sloan School. Working Paper. 11

B ŁA ŻEWICZ , J., E. P ESCH et M. S TERNA. 2000, «Deterministic job-shop scheduling : Past,


present and future», European Journal of Operational Research, vol. 127, no 2, p. 317–
331. 20

B RUCKER , P. 1988, «An efficient algorithm for the job-shop problem with two jobs», Com-
puting, vol. 40, no 4, p. 353–359. 19

B RUCKER , P. 2007, Scheduling Algorithms, Springer Press. 15

C HEN , B., C. N. P OTTS et G. J. W OEGINGER. 1998, A review of machine scheduling : Com-


plexity, algorithms and approximability, in D. Z. Du and P. Pardalos. (eds.), Handbook
of Combinatorial Optimization, Kluwer. 16

33
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

C HENG , T. C. E. et G. WANG. 2000, «Single machine scheduling with learning effect consi-
derations», Annals of Operations Research, vol. 98, no 1, p. 273–290. 26

C LARK , W. 1923, The Gantt chart a working tool of management, Ronald Press. 17

C ONWAY, R. W., W. L. M AXWELL et L. W. M ILLER. 1967, Theory of scheduling, Addison-


Wesley Press. 15

C OOPER , L. et M. W. C OOPER. 1981, Introduction to Dynamic Programming, Pergamon


Press. 30

D UBOIS , D., H. FARGIER et P. F ORTEMPS. 2003, «Fuzzy scheduling : Modelling flexible


constraints vs. coping with incomplete knowledge», European Journal of Operational
Research, vol. 147, no 2, p. 231–252. 24

D UBOIS , D., H. FARGIER et H. P RADE. 1995, «Fuzzy constraints in job-shop scheduling»,


Journal of Intelligent Manufacturing, vol. 6, no 4, p. 215–234. 24

E SQUIROL , P. et P. L OPEZ. 1999, L’ordonnancement, Edition Economica. 9

E SQUIROL , P. et P. L OPEZ. 2001, Concepts et methodes de base en ordonnancement de la


production, chap. 12, in P. Esquirol and P. Lopez. (eds.), Ordonnancement de la produc-
tion, Hermes. 13

FARGIER , H. 1994, Problème de satisfaction de contraintes flexibles application à l’ordon-


nancement de production, thèse de doctorat, Université Paul Sabatier de Toulouse. 24

G OLDREICH , O. 2008, Computational complexity a conceptual perspective, Cambridge


University Press. 25

G OTHA. 1993, «Les problèmes d’ordonnancements», RAIRO-Recherche Opérationnelle,


vol. 27, no 1, p. 77–150. 13

G RAHAM , R. L., E. L. L AWLER, J. K. L ENSTRA et A. H. G. R INNOOY K AN. 1979, «Optimiza-


tion and approximation in deterministic sequencing and scheduling : a survey», Annals
of Discrete Mathematics, vol. 5, p. 287–326. 16

H. A. E ISELT, H. A. et C. L. S ANDBIOM. 2004, Decision Analysis, Location Models, and Sche-


duling Problems, Springer Press. 31

H ALL , N. G. et M. E. P OSNER. 2001, «Generating experimental data for computational


testing with machine scheduling applications», Operations Research, vol. 49, no 6, p.
854–865. 29

H ARTMANIS , J. 1988, Overview of computational complexity theory, chap. 1, in J. Hartma-


nis. (eds.), Computational complexity theory, American mathematical society. 24

J AIN , A. S. et S. M EERAN. 1999, «Deterministic job-shop scheduling : Past, present and


future», European Journal of Operational Research, vol. 113, no 2, p. 390–434. 20

J IA , H. Z., J. Y. H. F UH, A. Y. C. N EE et Y. F. Z HANG. 2007, «Integration of genetic algo-


rithm and gantt chart for job shop scheduling in distributed manufacturing systems»,
Computers and Industrial Engineering, vol. 53, no 7, p. 313–320. 18

34
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

J ONES , C. V. 1988, «The three-dimensional gantt chart», Operations Research, vol. 36, no 6,
p. 891–903. 18

K AABI -H ARRATH , J. 2004, Contribution à l’ordonnancement des activités de maintenance


dans les systèmes de production, thèse de doctorat, Université de Franche-Comté. 9

L AGEWEG , B. J., J. K. L ENSTRA, E. L. L AWLER et A. H. G. R INNOOY K AN. 1982, «Computer-


aided complexity classification of combinatorial problems», Communications of the
ACM, vol. 25, no 11, p. 817–822. 25

L AWLER , E. L. et D. E. W OOD. 1966, «Branch and bound methods : a survey», Operations


Research, vol. 14, no 4, p. 699–719. 30

L EE , D. L. et F. D I C ESARE. 1994, «Scheduling flexible manufacturing systems using petri


nets and heuristic search», IEEE Transactions on Robotics and Automation, vol. 10, no 2,
p. 123–132. 21

L ENSTRA , J. K., A. H. G. R INNOOY K AN et P. B RUCKER. 1977, «Complexity of machine sche-


duling problems», Annals of Discrete Mathematics, vol. 1, p. 343–362. 26

L EUNG , J. Y.-T. 2004, Introduction and Notation, chap. 1, in J. Y-T. Leung. (eds.), Hand-
book of scheduling algorithms, models, and performance analysis, CRC. 13

L EW, A. et H. M AUCH. 2007, Dynamic programming a computational tool, Springer Press.


30

M ACCARTHY, B. L. et J. L IU. 1993, «Addressing the gap in scheduling research : a review of


optimization and heuristic methods in production scheduling», International Journal
of Production Research, vol. 31, no 1, p. 59–79. 29

M ARTINSONS , M. G. et R. M. D AVISON. 2007, «Strategic decision making and support


systems : Comparing american, japanese and chinese management», Decision Support
Systems, vol. 43, no 1, p. 284–300. 9

M ATI , Y., N. R EZG et X. X IE. 2001, «A taboo search appraoch for deadlock-free scheduling
of automated manufacturing systems», Journal of Intelligent Manufacturing, vol. 12,
no 5, p. 535–552. 19

M ATI , Y. et X. X IE. 2008, «A genetic-search-guided greedy algorithm for multiresource


shop scheduling with resource flexibility», IIE Transactions, vol. 40, no 12, p. 1228–1240.
19

M C K AY, K. N. 1992, Production Planning and Scheduling : A Model for Manufacturing


Decisions Requiring Judgement, thèse de doctorat, University of Waterloo. 12

M C K AY, K. N. et V. C. S. W IERS. 1999, «Unifying the theory and practice of production


scheduling», Journal of Manufacturing Systems, vol. 18, no 4, p. 241–255. 12

M C K AY, K. N. et V. C. S. W IERS. 2006, The human factor in planning and scheduling,


chap. 2, in J. W. Herrmann. (eds.), Handbook of production scheduling, Springer. 12

M EJÍA , G. et T. M ONTOYA , C. M URATA. 2009, «Scheduling manufacturing systems with


blocking : a petri net approach», International Journal of Production Research, vol. 47,
no 22, p. 6261–6277. 21

35
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

M OORE , L. J. 1968, «An n-job, one-machine sequence algorithm for minimizing the num-
ber of late jobs», Management Science, vol. 15, no 1, p. 102–109. 30

M ORRISON , D. R., S. H. J ACOBSON, J. J. S AUPPE et E. C. S EWELL. 2016, «Branch-and-


bound algorithms : A survey of recent advances in searching, branching, and pruning»,
Discrete Optimization, vol. 19, no 1, p. 79–102. 30

M URATA , T. 1989, «Petri nets : properties, analysis and applications», Proceedings of the
IEEE, vol. 77, no 4, p. 541–580. 21

O’B RIEN , J. A. et G. M. M ARAKAS. 2011, Management Information Systems, McGraw-


Hill/Irwin Press. 11

O SMAN , I. H. et J. P. K ELLY. 1996, Meta-heuristics :Theory and Applications, Kluwer Press.


31

P ENZ , B. 1994, Constructions agrégatives d’ordonnancements pour des jobs-shops sta-


tiques, dynamiques et réactifs, thèse de doctorat, Université Joseph-Fourier - Grenoble
I. 20

P INEDO, M. L. 2009, Planning and Scheduling in Manufacturing and Services, Springer


Press. 13

R OTHLAUF, F. 2011, Design of modern heuristics principles and application, Springer Press.
31

S HELOKAR , P., A. K ULKARNI, V. K. J AYARAMAN et P. S IARRY. 2014, Metaheuristics in process


engineering : A historical perspective, chap. 1, in J. Valadi and P. Siarry. (eds.), Applica-
tions of metaheuristics in process engineering. 32

S MITH , W. E. 1956, «Various optimizers for single stage production», Naval Research Lo-
gistics Quarterly, vol. 3, no 1-2, p. 59–66. 30

S TORPER , M. et B. H ARRISON. 1991, «Flexibility, hierarchy and regional development : The


changing structure of industrial production systems and their forms of governance in
the 1990s», Research Policy, vol. 20, no 5, p. 407–422. 10

T’ KINDT, V. et J.-C. B ILLAUT. 2006, Multicriteria scheduling, Springer Press. 17

T RABELSI , W. 2012, Ordonnancement des systèmes de production flexibles soumis à diffé-


rents types de contraintes de blocage, thèse de doctorat, Universite de Lorraine. 20

T RUNG , L. H. 2005, Utilisation d’ordres partiels pour la caractérisation de solutions ro-


bustes en ordonnancement, thèse de doctorat, INSA de Toulouse. 22

T UNCEL , G. et G. M. B AYHAN. 2007, «Applications of petri nets in production scheduling :


a review», International Journal of Advanced Manufacturing Technology, vol. 34, no 7,
p. 762–773. 21

W ILSON , J. M. 2003, «Gantt charts : A centenary appreciation», European Journal of Ope-


rational Research, vol. 149, no 2, p. 430–437. 17

Y UGMA , C., S. D AUZÈRE -P ÉRÈS, C. A RTIGUES, D. A. et O. S IBILLE. 2012, «A batching and


scheduling algorithm for the diffusion area in semiconductor manufacturing», Interna-
tional Journal of Production Research, vol. 50, no 8, p. 2118–2132. 21

36
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

Z HOU , K.-Q. et A. M. Z AIN. 2016, «Fuzzy petri nets and industrial applications : a review»,
Artificial Intelligence Review, vol. 45, no 4, p. 405–446. 21

Z IMAND, M. 2004, Computational complexity : a quantitative perspective, Elsevier Press.


24

37
Chapitre 1. Problèmes d’ordonnancement dans les systèmes de production

38
Chapitre 2

Problèmes d’ordonnancement à une


machine avec coûts actualisés et
paramètres incertains

« Pour croire avec certitude, il faut


commencer par douter »

Proverbe polonais

Sommaire
2.1 Introduction et état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2 Terminologie de base sur la théorie de possibilité . . . . . . . . . . . . . . 44
2.3 Formulation du problème d’ordonnancement . . . . . . . . . . . . . . . . 47
2.3.1 Optimalité ordinaire dans le problème d’ordonnancement à une
machine avec coûts actualisés . . . . . . . . . . . . . . . . . . . . . . 47
2.3.2 Mesures possibilistes d’optimalité pour le problème d’ordonnan-
cement à une machine avec coûts actualisés et paramètres incertains 49
2.4 Conception du cadre d’expérimentations numériques . . . . . . . . . . . 55
2.4.1 Support des contraintes non linéaires . . . . . . . . . . . . . . . . . 55
2.4.2 Approche basée sur l’algorithme génétique . . . . . . . . . . . . . . 56
2.4.3 Approche basée sur la recherche par motifs . . . . . . . . . . . . . . 58
2.4.4 Génération des instances . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.5 Simulation et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.5.1 Effet du nombre de tâches . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.5.2 Effet de la graine aléatoire η . . . . . . . . . . . . . . . . . . . . . . . . 62
2.5.3 Effet de la taille de la population de l’algorithme génétique . . . . . 63
2.5.4 Effet de la réduction du taux d’actualisation flou r˜ . . . . . . . . . . 64
2.5.5 Effet de l’hybridation des approches algorithme génétique et re-
cherche par motifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.7 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

39
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

40
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

2.1 Introduction et état de l’art


Dans un environnement réel, la perception générale d’ordonnancement consiste en la
planification d’un ensemble de tâches sur un groupe de ressources disponibles sujettes à
des contraintes imposées. Cette classe de problèmes remonte aux années cinquante avec
les travaux de Johnson, Smith et Jackson [G UPTA et K YPARISIS, 1987]. Malgré la simpli-
cité apparente du problème de base à une machine, il a reçu une attention considérable
et a trouvé des applications diverses dans plusieurs domaines. Ceci peut être expliqué
par le fait que l’optimisation de plusieurs critères est possible à achever dans un temps
polynômial. En outre, le problème d’ordonnancement à une machine dans la pratique
est la pierre de base des grands systèmes de production. Donc, il est recommandé de ré-
soudre initialement le problème à une machine avant d’entamer le problème original qui
est le cas de machine goulot d’étranglement. Dans d’autres cas, la totalité de la chaîne
de production peut être modélisée comme étant un problème à une machine [B AKER et
T RIETSCH, 2009].
De point de vue complexité de calcul, plusieurs problèmes d’ordonnancement sont
NP-difficiles dans le sens que le temps nécessaire pour la résolution croît d’une façon ex-
ponentielle en fonction de la taille des instances du problème. Les efforts sont accentués
sur l’élaboration d’approches efficaces qui fournissent des solutions proches de l’opti-
male dans un temps acceptable [D AHAL et collab., 2007]. Au vu de la complexité intrin-
sèque des systèmes de production actuels caractérisés par une forte intégration de com-
posants hétérogènes, fluctuations aléatoires et facteurs humains [C HRYSSOLOURIS, 2006],
la vision classique des paramètres d’ordonnancement comme des paramètres à valeurs
déterministes est mise en doute et doit être reformulée.
L’inclusion d’aspects incertains dans les modèles d’ordonnancement doit être parmi
les enjeux primordiaux des gestionnaires pour gagner plus de stabilité envers les varia-
tions de la demande sur le marché. En considérant cet aspect, les problèmes d’ordonnan-
cement sous incertitude sont traités en utilisant deux grandes familles d’approches : les
approches stochastiques et les approches floues. La première est développée sous l’hy-
pothèse qu’une partie ou la totalité des paramètres d’ordonnancement suivent des distri-
butions de probabilité connues à priori ou bien estimées à partir d’un historique de don-
nées [L EUNG, 2004]. Tandis que la seconde est basée sur le paradigme de la théorie des
ensembles flous élaboré par Lotfi Zadeh en 1965 [Z ADEH, 1965]. La modélisation floue est
généralement recommandée dans la manipulation des informations incertaines, vagues
ou subjectives dans les modèles mathématiques pour les raisons suivantes [D ONG, 2003] :
• Les approches basées sur la théorie des ensembles flous sont plus flexibles pour la
représentation de l’imprécision des paramètres d’entrée en raison d’informations
non quantifiables, d’informations incomplètes ou d’une ignorance partielle de don-
nées ;
• Difficulté des problèmes stochastiques en comparaison aux problèmes flous car
la conversion des formulations probabilistes en des modèles déterministes génère
souvent des problèmes de programmation non linéaires même si le problème sto-
chastique original est linéaire. Alors que la majorité des problèmes flous linéaires
sont équivalents à des problèmes de programmation linéaires d’où un coût de cal-
cul réduit ;
• Les approches floues sont meilleures que les approches stochastiques en termes de
simplicité de manipulation et adaptabilité pour les problèmes à grand échelle.
Dans la pratique, plusieurs problèmes d’ordonnancement réels ont été traités avec
des formulations floues induites par l’ambigüité au niveau des valeurs de paramètres du

41
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

système. Par exemple, dans la production des transistors à couches minces pour affichage
à cristaux liquides, il est difficile d’identifier l’état courant des ressources ou attributs d’un
produit car cet état est dépendant du temps [L IU et Y IH, 2013]. Dans la spécialité de pro-
duction de peinture, le temps de configuration entre les séquences des tâches est d’une
importance particulière dans l’obtention des spécificités d’une couleur. Les conditions de
l’environnement comme la température peuvent aussi générer des incertitudes ayant un
impact sur le processus de production en particulier la durée opératoire totale [S CHULT-
MANN et collab., 2006]. Dans les raffineries de pétrole situées au bord de la mer, le pro-
blème d’ordonnancement du pétrole brut contient plusieurs tâches telles que le vidange
du pétrole brut à partir de navires pétroliers aux citernes de stockages, transfert des ci-
ternes de stockages vers les citernes de chargements et finalement le passage aux unités
de distillation. Sous les contraintes des temps d’arrivée des navires pétroliers, capacités
limitées, climat et demande imprévue, l’objectif final devient une mission fortement per-
turbée [C AO et collab., 2009]. Dans d’autres situations où le processus de modélisation est
influencé par l’aspect flou des paramètres, le lecteur peut consulter ( [N IKULIN et D REXL,
2010], [O LARU et S MITH, 2005] et [P ETROVIC et collab., 2011]).

Dans la littérature, le travail de Prade est parmi les premiers papiers publiés dans
le cadre de l’utilisation des concepts flous pour un problème d’ordonnancement réel
[P RADE, 1979]. Par la suite, l’aspect flou est diffusé sur plusieurs niveaux de décision sti-
mulé par les contraintes sévères dans le monde réel. Han et ses collègues ont exploité le
problème d’ordonnancement à une machine avec des dates échues floues. Les auteurs
ont considéré une fonction d’appartenance linéaire ainsi que des hypothèses simplifica-
trices pour permettre la résolution du problème généralisé du maximum de retard en un
temps polynômial [H AN et collab., 1994]. Stanfield et ses collègues ont considéré un pro-
blème plus général où les temps de services et les dates échues sont des quantités vagues.
Un algorithme par séparation et évaluation a été appliqué au modèle flou et une com-
paraison avec des modèles probabilistes a été réalisée [S TANFIELD et collab., 1996]. Un
problème d’ordonnancement par lots à une machine avec des temps de configuration,
durées opératoires et dates échues floues a été étudié par Harakrishnan et Ishii [H ARI -
KRISHNAN et I SHII , 2005]. Une approche polynômiale a été établie, elle est basée sur des
formulations de programmation linéaire avec l’objectif de maximiser le degré minimal
de satisfaction. Duenas et Petrovic ont développé une approche d’optimisation multi-
objectif pour le problème d’ordonnancement à une machine avec des dates échues in-
certaines. La minimisation du maximum ainsi que la minimisation de la moyenne des
temps de retard des tâches sont définies comme des fonctions objectifs. Une approche
hybride basée sur les algorithmes génétiques et la recherche locale a été proposée et vali-
dée pour une société de fabrication de poterie [D UENAS et P ETROVIC, 2008]. Liao et Liao
ont utilisé des ensembles flous triangulaires et trapézoïdaux pour modéliser l’incertitude
des dates échues et durées opératoires des tâches. Ils ont démontré la possibilité d’obte-
nir une séquence optimale des tâches maximisant le ¡degré minimum de satisfaction en
2
¢
utilisant un algorithme polynômial de complexité O n × log (G) [L IAO et L IAO, 1998].
Wang et ses collègues ont appliqué la programmation par contraintes stochastiques pour
la construction du profil de vraisemblance de la fin d’une tâche, ce qui permet un clas-
sement adéquat des solutions obtenues. Ils ont présenté également les conditions né-
cessaires d’optimalité des solutions, ce qui permet de réduire la taille de l’espace de re-
cherche [WANG et collab., 2002]. Wu et ses collègues ont traité le problème d’ordonnance-
ment de groupe à une machine avec les hypothèses de l’existence des temps de configura-
tion entre les groupes et la nature floue des durées opératoires. Une méthodologie flexible
de classement basée sur la méthode des valeurs centrales a été adoptée pour résoudre ce

42
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

problème. Ces auteurs ont prouvé que les résultats obtenus restent valables pour d’autres
fonctions de deffuzification ayant une allure lineaire [W U et L EE, 2005]. Mahrabadi et
Pahlavani ont manipulé une extension du problème d’ordonnancement à une machine
avec la somme pondérée des temps de retard qui est un problème NP-difficile. Ils ont
supposé que les durées opératoires et les dates échues des tâches sont données par des
nombres flous triangulaires. Les auteurs ont proposé aussi trois métaheuristiques pour
conduire des expérimentations sur le problème [S AIDI M EHRABAD et PAHLAVANI, 2009].
Les concepts d’avance et de retard absolus flous ont été decrits en détail dans [W U, 2010],
ces critères sont basés sur les opérateurs de soustraction et maximum appliqués aux du-
rées opératoires et dates échues floues. La somme pondérée de l’avance et de retard abso-
lus flous a été minimimisée par un algorithme génétique où l’effet de l’allure des nombres
flous a été également discuté par les auteurs. Ahmadizar et Hosseini ont proposé un algo-
rithme polynômial pour le problème d’ordonnancement à une machine avec effet d’ap-
prentissage de position et durées opératoires floues. La procédure de minimisation du
temps total opératoire est basée sur l’application de la règle Délai de Fabrication le plus
Court (en anglais SPT rule) pour les durées opératoires floues triangulaires [A HMADIZAR
et H OSSEINI, 2011]. Les mêmes auteurs ont présenté deux algorithmes polynômiaux pour
la résolution du problème d’ordonnancement à une machine avec effet d’apprentissage
de position et durées opératoires floues où l’objectif est de minimiser la durée totale de
l’ordonnancement i.e. le makespan. La première approche est basée sur la programma-
tion par contraintes stochastiques floues tandis que la deuxième est basée sur une mé-
thode de classement de nombres flous [A HMADIZAR et H OSSEINI, 2013]. Il est à souligner
que l’aspect flou est souvent introduit dans les modèles d’ordonnancement sans justifier
l’optimalité des fonctions objectifs choisies lorsque les versions floues des règles d’ordon-
nancement classiques sont utilisées. Özelkan et ses collègues ont étudié l’optimalité dans
le cas flou de quelques règles d’ordonnancement telles que la règle Délai de livraison le
plus proche (en anglais EDD). Ils ont illustré que la procédure de démonstration basée sur
la permutation des tâches reste valable sous certaines conditions. Les auteurs ont conclu
que la fuzzification des règles classiques et l’utilisation d’une fonction de classement ar-
bitraire ne donnent pas toujours une règle optimale dans le contexte d’ordonnancement
flou [Ö ZELKAN et D UCKSTEIN, 1999]. En suivant le même chemin, Chung a proposé une
procédure sous l’acronyme "LARGE" pour trouver le plus grand ensemble de sous en-
sembles flous discrétisés. Cette procédure a été utilisée pour développer un algorithme
basé sur la règle Délai de livraison le plus proche dans le cas de durée opératoire, dates
de disponibilité et dates échues floues [C HUANG, 2004]. Malgré le nombre élevé des tra-
vaux consacrés aux modèles d’ordonnancement flous, seulement une partie limitée de
la littérature aborde la signification des coupes gamma (d’une façon equivalente alpha
dans plusieurs références) des paramètres flous dans le modèle d’ordonnancement en
particulier que l’information fournie par les différents niveaux des coupes peut être dif-
férente. Ainsi il sera intéressant d’exploiter au maximum les données introduites comme
paramètres flous dans le modèle d’ordonnancement. Chanas et Kasperski ont introduit la
notion de fonction floue monotone pour généraliser l’algorithme de Lawler. Les auteurs
ont appliqué cette extension pour la maximisation du degré de possibilité que le maxi-
mum de la somme pondérée des retards algébriques ne dépasse pas la valeur seuil d’un
certain objectif flou [C HANAS et K ASPERSKI, 2001]. Par la suite, les mêmes auteurs ont
élaboré les concepts d’optimalité possible et d’optimalité nécessaire des solutions et ont
présenté un calcul détaillé des paramètres dans le problème d’ordonnancement à une
machine avec la somme pondérée des ¡ temps d’exécution
¢ et durées opératoires floues. La
complexité de leur approche est O n × log (ε) [C HANAS et K ASPERSKI, 2004]. Kasperski

43
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

a modélisé cinq problèmes d’ordonnancement avec la théorie de possibilité et a mon-


tré que quelques uns de ces problèmes sont NP-difficiles au sens fort [K ASPERSKI, 2005].
Li et ses collègues ont construit des modèles d’ordonnancement pour le problème d’af-
fectation des dates échues avec durées opératoires floues et contraintes de précédence
afin de minimiser la somme pondérée [L I et collab., 2011]. De plus, Kasperski et Ziełiński
ont proposé une approche minmax où les paramètres flous induisent une distribution de
possibilité sur l’ensemble des scenarii. Ils ont démontré que la détermination d’une sé-
quence optimale dans le problème flou n’est plus difficile que dans le cas où les valeurs
des paramètres sont localisées dans des intervalles [K ASPERSKI et Z IEŁI ŃSKI, 2011].
À la lumière de ces contributions, nous considérons une version floue du problème
d’ordonnancement à une machine avec l’objectif de minimiser la somme pondérée des
dates de fin d’exécution actualisées où tous les paramètres du modèle (durées opé-
ratoires, coefficients de pondération et taux d’actualisation) sont représentés par des
nombres flous trapézoïdaux. Au lieu d’utiliser le principe d’extension pour l’évaluation de
la fonction objectif dans le contexte d’un problème d’optimisation combinatoire, la théo-
rie de possibilité est adoptée pour quantifier le degré de satisfaction de l’événement "Une
séquence de tâches donnée est optimale en matière de la vérification d’un ensemble de
règles". Donc, la notion d’optimalité devient elle-même un concept incertain qui néces-
site une estimation dans l’intervalle [0, 1] en utilisant des modèles mathématiques com-
pacts et la simulation numérique. Notre objectif dans ce chapitre est de proposer des cri-
tères basés sur les notions d’optimalités possible et nécessaire pour évaluer l’optimalité
d’une séquence de tâches bien déterminée. Nous montrons aussi que dans certains cas
particuliers, les formulations proposées se réduisent à des règles d’ordonnancement déjà
disponibles dans la littérature. En se basant sur une formulation sous contraintes non li-
néaires de l’optimalité possible, deux approches de résolution (algorithme génétique et
recherche par motifs) sont développées. Les contraintes non linéaires sont incluses dans
le modèle à travers une fonction objectif augmentée. Dans le but d’évaluer et de compa-
rer les performances des deux approches, plusieurs instances sont générées et utilisées
comme des benchmarks pour mener les tests. Les méthodologies de modélisation pro-
posées dans ce chapitre peuvent être considérées comme de bonnes alternatives pour
l’évaluation efficace de la robustesse des ordonnancements dans un environnement in-
certain.
L’organisation du chapitre est comme suit. Les notions fondamentales sur la theorie
de possibilité sont introduites dans la Section 2.2. Les formulations théoriques sont pré-
sentées dans la Section 2.3, suivie par les composantes de base de notre simulation dans
la Section 2.4. Des exemples numériques ainsi que les résultats d’expérimentation sont
traités dans la Section 2.5. Finalement, nous concluons avec quelques remarques et pers-
pectives futures dans la dernière Section.

2.2 Terminologie de base sur la théorie de possibilité


Avant d’aborder les théorèmes principaux relatifs à la théorie de possibilité, les défi-
nitions et propriétés de base attachées aux nombres flous sont illustrées ( [K LIR et Y UAN,
1995], [S IVANANDAM et collab., 2007] et [Z IMMERMANN, 1985]). Les nombres flous ou
plus généralement les ensembles flous de la ligne réelle sont un schéma convenable pour
la représentation et la manipulation arithmétique des quantités mal connues.

Définition 2.1. Une fonction ũ : R → [0, 1] est dite un nombre flou si elle satisfait :
i) ũ est normale, i.e. ∃x 0 ∈ R avec ũ (x 0 ) = 1 ;

44
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

ii) ũ est un ensemble flou convexe (i.e. ũ λx + (1 − λ) y ≥ min ũ (x) , ũ y ∀x, y ∈


¡ ¢ © ¡ ¢ª

R, ∀λ ∈ [0, 1]) ;
iii) ũ est semi continue supérieure sur R ;
iv) {x 0 ∈ R : ũ (x) > 0} est un ensemble compact, avec {} est la fermeture de l’ensemble.

Il est plus convenable de représenter les nombres flous en utilisant un ensemble d’inter-
valles fermés générés selon la définition suivante.

Définition 2.2. Soit γ un nombre réel tel que γ ∈ [0, 1]. L’ensemble des coupes (niveaux) γ
de ũ est l’ensemble réel [ũ]γ défini par :

 x ∈ R : ũ (x) ≥ γ si γ > 0
 © ª
γ
[ũ] = (2.1)
{x ∈ R : ũ (x) > 0} si γ = 0

Par conséquent, l’intervalle fermé et borné [ũ]γ peut s’écrire sous forme paramétrique
[ũ]γ = u γ , u γ avec ū u est une fonction bornée continue à gauche croissante (dé-
£ ¡ ¢ ¡ ¢¤ ¡ ¢

croissante) sur l’intervalle [0, 1].

Définition 2.3. Un nombre flou trapézoïdal noté par ũ = a, b, α, β , avec a, b ∈ R et α, β ≥ 0,


¡ ¢

est défini par la fonction :

1 − a−x si a − α ≤ x < a
 ¡ ¢


 α




 1 si a ≤ x ≤ b



ũ (x) = ³ ´ (2.2)
x−b
1− β si b < x ≤ b + β










0 aut r ement

On dit que ũ est un nombre flou trapezoidal avec intervalle de tolérance [a, b],
¢ de
largeur à gauche α et largeur à droite β. Pour le nombre flou trapezoidal ũ = a, b, α, β , les
¡
γ
fonctions u : £[0, 1]¡→ R et ¢ [ũ] , γ ∈ [0, 1],
¢ u : [0,¡ 1] →¢R ¤définissant les bornes¡des intervalles
ont la forme a − 1 − γ α, b + 1 − γ β . Le support de ũ est a − α, b + β .

Dans le but de généraliser les opérations arithmétiques ordinaires ainsi que les fonc-
tions composées, le théorème suivant est utilisé pour calculer les ensembles de niveau
γ des nombres flous obtenus comme résultat de l’application de ces opérations sur des
opérandes de même type [N GUYEN, 1978].

Théorème 2.1. Soient f : Rd → R une fonction continue et Ã1 , . . ., Ãd un ensemble de d


nombres flous. Alors :
i) La fonction f Ã1 , ..., Ãd : Rd → [0, 1] construite par application du principe d’exten-
¡ ¢

sion de Zadeh est un nombre flou ;


¢¤γ ¡£ ¤γ £ ¤γ ¢ ¢¤γ
ii) ©Pour tout γ ∈¯ [0, 1],
£ ¡ £ ¡
£ on¤γa f Ã1 ,£..., ädγ ª = f Ã1 , ..., Ãd avec f Ã1 , ..., Ãd =
f (x 1 , ..., x d ) x 1 ∈ Ã1 , ..., x 2 ∈ Ãd
¯ .

En se basant sur ce Théorème, les opérations généralisées suivantes peuvent être déduites
pour tous nombres flous positifs ( Ã et B̃) et scalaire λ, respectivement :

45
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains
¤γ £ ¤γ £ ¤γ h ¡ ¢ ¡ ¢i
i) Ã ⊕ B̃ = Ã + B̃ = a γ + b γ , a γ + b γ ;
£ ¡ ¢ ¡ ¢

|λ| × a γ , |λ| × ā γ si λ ≥ 0
 £ ¡ ¢ ¡ ¢¤
¤γ 
ii) λ × Ã = £
£
;
|λ| × ā γ , |λ| × a γ si λ < 0
 ¡ ¢ ¡ ¢¤

¤γ h ¡ ¢ ¡ ¢i
iii) Ã ⊗ B̃ = a γ ×b γ , a γ ×b γ pour γ ∈ [0, 1].
£ ¡ ¢ ¡ ¢

La théorie de possibilité évoluée à partir des propriétés algébriques riches des


nombres flous a pour objectif de remplacer la théorie de probabilité dans la modélisation
des situations vagues [Z ADEH, 1978]. Pour cela, les mesures de possibilité et de nécessité
substituent les distributions de probabilité. Dans ce qui suit, nous présentons d’une façon
succincte quelques résultats principaux de la théorie de possibilité ( [D UBOIS et P RADE,
1988], [G EORGESCU, 2012], [J AMISON, 1998] et [L ODWICK et K ACPRZYK, 2010]). Soit P (Ω)
l’ensemble des parties d’un ensemble non vide noté Ω. Pour un élément D ∈ P (Ω), on
note son complément par DC = Ω − D.

Définition 2.4. Une mesure floue sur Ω est une fonction m : P (Ω) → [0, 1] telle que :
i) m φ = 0 ;
¡ ¢

ii) m (Ω) = 1 ;
iii) ∀D1 , D2 ∈ P (Ω) : (D1 ⊆ D2 ) ⇒ (m (D1 ) ≤ m (D2 )).

À la base de cette Définition, les mesures de possibilité et de nécessité sont illustrées par
les Définitions 2.5 et 2.6, respectivement.

Définition 2.5. Une mesure de possibilité sur Ω est une fonction Π : P (Ω) → [0, 1] satisfai-
sant les conditions suivantes :
i) Π φ = 0 ;
¡ ¢

ii) Π (Ω) = 1 ;
µ ¶
iii) Π ∪ Di = sup Π (Di ), pour chaque famille {Di }i ∈I de sous ensembles de Ω.
i ∈I i ∈I

Définition 2.6. Une mesure de nécessité sur Ω est une fonction N : P (Ω) → [0, 1] telle que
les propriétés suivantes sont vérifiées :
i) N φ = 0 ;
¡ ¢

ii) N (Ω) = 1 ;
µ ¶
iii) N ∩ Di = inf Π (Di ) pour chaque famille {Di }i ∈I de sous ensembles de Ω.
i ∈I i ∈I

La notion de distribution de possibilité est étroitement liée à celle de la mesure de pos-


sibilité. Une distribution de possibilité sur Ω est une fonction µ : Ω → [0, 1] telle que
sup µ (x) = 1.
x∈Ω

Définition 2.7. Soit Π une mesure de possibilité sur Ω et µ : Ω → [0, 1] une distribution de
possibilité. Les applications µΠ : Ω → [0, 1] et Pos µ : P (Ω) → [0, 1] sont définies par µΠ (x) =
Π ({x}) ∀x ∈ Ω et Pos µ (D) = sup µ (x) ∀D ∈ P (Ω) respectivement.
x∈D

46
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

2.3 Formulation du problème d’ordonnancement


Dans ce chapitre, le problème d’ordonnancement à étudier est formulé comme suit.
Un ensemble de n tâches à exécuter sans préemption sur une machine supposée sans
interruption (défaillance, maintenance,...). Seulement une tâche est servie à la fois et les
autres tâches prêtes sont en attentes. Les dates de disponibilité sont fixées à l’origine ce
qui signifie que la machine ainsi que les tâches sont prêtes au temps zéro. En outre, les
durées de configurations de la machine sont indépendantes de la séquence des tâches et
sont incluses dans les durées opératoires. Pour chaque tâche i , 1 ≤ i ≤ n, un ensemble de
paramètres : durée opératoire p i , poids ωi et taux d’actualisation r est défini. Alors, les
coûts sont actualisés à un taux fixe (souvent proche de 0 i.e. au voisinage de 10%), indi-
quant que si la tâche i n’est pas achevée à la date t , un coût supplémentaire ωi r e −r t d t
sera considéré sur l’intervalle [t , t + d t ]. Soit Ci la date
¡ fin de¢la tâche i , si elle est complé-
tée à t = Ci , le coût total sur la période [0, Ci ] est ωi 1 − e −r Ci
. L’objectif final est d’ordon-
nancer l’ensemble des tâches de telle sorte que la somme actualisée pondérée des dates
iP
=n
ωi 1 − e −r Ci soit minimale ( [R OTHKOPF, 1966]). L’in-
¡ ¢
de fin d’exécution donnée par
i =1
troduction du taux d’actualisation reflète en général le coût de possession où le coût de
stockage qui est supposé actualisé à un taux 0 < r < 1 par unité de temps comme indiqué
dans plusieurs problèmes pratiques ( [B ŁA ŻEWICZ et collab., 2007], [A RTIGUES et collab.,
2008] et [G AWIEJNOWICZ, 2008]). Dans la première sous section, nous présentons les pro-
iP
=n
priétés du modèle classique associé au problème d’ordonnancement 1 || ωi 1 − e −r Ci .
¡ ¢
i =1
Dans la deuxième sous section, nous proposons une extension pour ce problème basée
sur la théorie de possibilité. Cette extension est donnée utilisant la notation de Graham
¯ iP
=n
par 1 ¯p̃ i , ω̃i , r˜¯ ωi 1 − e −r Ci avec p̃ i , ω̃i et r˜ sont des paramètres flous.
¯ ¡ ¢
i =1

2.3.1 Optimalité ordinaire dans le problème d’ordonnancement à une


machine avec coûts actualisés
Lorsque les paramètres d’ordonnancement prendront des valeurs réelles ce qui reflète
une vision déterministe du problème, la fonction objectif peut être considérée comme
une généralisation de la somme pondérée non actualisée des dates de fin. Dans ce cas, la
minimisation de la fonction objectif est possible par la règle de priorité suivante [P INEDO,
2012].
iP
=n
ωi 1 − e −r Ci , un ordonnan-
¡ ¢
Théorème 2.2. Dans le problème d’ordonnancement 1| |
i =1
cement π est optimal si et seulement si la condition suivante est satisfaite pour chaque
i = 1, n − 1 :

e r p π(i ) − 1 e r p π(i +1) − 1


≤ (2.3)
ωπ(i ) ωπ(i +1)
Démonstration.
Necessité des conditions (⇒)
Supposons que nous avons un ordonnancement optimal θ et les conditions ne sont pas
r p π(i ) r p π(i +1)
satisfaites. Alors, il existe au moins une tâche k ∈ {1, ..., n − 1} telle que e ω −1 > e ω −1
.
π(i ) π(i +1)
Il est possible de générer un nouvel ordonnancement δ par permutation des tâches θ (k)
et θ (k + 1) dans la séquence θ, i.e. δ = (θ (1) , ..., θ (k − 1) , θ (k + 1) , θ (k) , θ (k + 2) , ..., θ (n))
comme indiqué sur la Figure 2.1.

47
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

F IGURE 2.1 Application de l’argument de permutation pour les tâches aux positions k et
k + 1.

Nous pouvons vérifier que la différence suivante


iP
=n iP=n
ωi 1 − e −r Ci (θ) − ωi 1 − e −r Ci (σ)
¡ ¢ ¡ ¢
peut être simplifiée pour obtenir
i =1 © i =1
e −r t ωθ(k+1) e −r p θ(k+1) (1 − e −r p θ(k) ) − ωθ(k) e −r p θ(k) (1 − e −r p θ(k+1) ) . Comme cette quan-
ª
iP
=n
ωi 1 − e −r Ci (θ) est supérieure à
¡ ¢
tité est strictement positive ce qui implique que
i =1
iP
=n
ωi 1 − e −r Ci (σ)
, d’où une contradiction avec notre hypothèse sur l’optimalité de θ.
¡ ¢
i =1
Donc, l’ensemble des conditions sont nécessaires pour l’optimalité d’un ordonnance-
iP
=n
ωi 1 − e −r Ci .
¡ ¢
ment pour le problème 1| |
i =1
Suffisance des conditions (⇐)
Supposons maintenant que nous avons un ordonnancement κ qui viole ces conditions.
Donc, il existe au moins deux tâches voisines dans la séquence pour laquelle la règle de
priorité n’est pas vérifiée. Si nous effectuons une permutation locale de ces tâches, les
dates de fin des autres tâches ne seront pas affectées mais nous aurons une diminution
de la somme actualisée pondérée des dates de fin d’ordonnancement original κ. Ce
processus est répété itérativement jusqu’à l’obtention d’un ordre total des tâches selon
r p κ(i )
le rapport e ω −1 . À ce niveau, aucune amelioration n’est possible et l’ordonnancement
κ(i ) ¡ ¢
final est optimal. La procédure de classement est de complexité O n × log (n) . Donc,
nous déduisons que cette règle constitue une condition suffisante d’optimalité d’un
iP
=n
ωi 1 − e −r Ci .
¡ ¢
ordonnancement dans le problème 1| |
i =1

Le lien entre le problème d’ordonnancement à une machine avec coûts actualisés

48
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

iP
=n iP
=n
ωi 1 − e −r Ci et la version non actualisée 1| | ωi Ci est donnée par le Lemme 2.1.
¡ ¢
1| |
i =1 i =1

Lemme 2.1. Pour des valeurs très petites du taux d’actualisation (r → 0), le problème
iP
=n iP
=n
ωi 1 − e −r Ci se réduit au problème 1| | ωi Ci .
¡ ¢
1| |
i =1 i =1

Démonstration.
En considérant la fonction objectif comme fonction du taux d’actualisation f (r ) =
iP
=n
ωi 1 − e −r Ci , le développement limité de Taylor de la fonction f au voisinage du zéro
¡ ¢
i =1
f (k) (0)r k
donne f (r ) = f (0)+ f 0 (0) r +...+ k! +Rk (r ). Nous pouvons limiter la série de Taylor au
deux premiers termes car r est très proche de zéro et nous obtenons f (r ) ∼= f (0)+ f 0 (0) r =
iP
=n
r ωi Ci . Le résultat obtenu diffère de la somme pondérée des dates de fin uniquement
i =1
par une constante positive de multiplication qui n’influe pas sur l’optimalité de la fonc-
iP
=n iP
=n
ωi 1 − e −r Ci se réduit au problème 1| | ωi Ci pour des
¡ ¢
tion. D’où le problème 1| |
i =1 i =1
valeurs faibles de r.

2.3.2 Mesures possibilistes d’optimalité pour le problème d’ordonnan-


cement à une machine avec coûts actualisés et paramètres incer-
tains
Comme les paramètres associés à une tâche i sont supposés incertains, nous uti-
lisons des nombres flous positifs pour représenter les durées opératoires, les coeffi-
cients de pondération et le taux d’actualisation dans le problème d’ordonnancement
¯ iP
=n
1 ¯p̃ i , ω̃i , r˜¯ ωi 1 − e −r Ci . Nous obtenons pour γ ∈ [0, 1] fixe l’intervalle compact
¯ ¡ ¢
i =1
des coupes γ des différents paramètres flous Γ γ =
¡ ¢
généré
µ h par le
¶ produit
µ cartésien

i =n γ i =n £ γ γ¤
⊗ p γ , p i × ⊗ ωi , ωi × r γ , r γ . En se basant sur cette représentation, les me-
i £ ¤
i =1 i i =1
sures d’optimalité possible et nécessaire peuvent être développées. En premier, le concept
d’optimalité possible pour une séquence de tâches fixe est présenté dans la Définition
suivante.

Définition 2.8. On dit qu’un ordonnancement fixe π est possiblement optimal si et seule-
ment s’il existe une configuration τ pour laquelle l’ordonnancement π est optimal au sens
ordinaire. Cette définition peut être
¢ formulé ¡ mathématiquement par : ¢
π est possi bl ement opt i mal ⇔ ∃τ ∈ Γ γ /π est opt i mal pour τ
¡ ¡ ¢

L’optimalité possible est notée par Pos Γ(γ) et nous écrivons Pos Γ(γ) π est opt i mal =
¡ ¢

1 dans ¡le cas où π est γ . Autrement, nous avons


¡ ¢
possiblement optimal pour Γ
Pos Γ(γ) π est opt i mal = 0. La propriété suivante est vérifiée pour la mesure d’optima-
¢

lité possible.

¡ 2.1. En considérant
Propriété un ordonnancement donné π et un réel γ ∈ [0, 1], nous avons
Pos Γ(γ) π est opt i mal = 1 si et seulement si le système d’inégalités suivant est faisable :
¢

49
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

 γ γ
p ≤ p π(i ) ≤ p̄ π(i ) i = 1, n
π(i )






γ γ

 ωπ(i ) ≤ ωπ(i ) ≤ ω̄π(i ) i = 1, n



(2.4)
r γ ≤ r ≤ r¯γ








 e r p π(i ) −1 e r p π(i +1) −1


ω
≤ ω i = 1, n − 1
π(i ) π(i +1)

Démonstration.
Necessité des conditions¡ (⇒)
Supposons que Pos Γ(γ) π est opt i mal = 1 pour un certain γ ∈ [0, 1]. Alors, de la Défi-
¢

τ = p 1 , ..., p n , ω1 , ..., ωn , r ∈ Γ γ pour


¡ ¢ ¡ ¢
nition 2.8, il existe au moins une configuration
γ γ γ
laquelle π est optimal. Comme τ ∈ Γ γ , nous déduisons que p γ ≤ p i ≤ p i , ωi ≤ ωi ≤ ωi
¡ ¢
i
r p π(i ) r p π(i +1)
et r γ ≤ r ≤ r γ pour i = 1, n − 1. En outre, π est optimal pour τ d’où e −1
ωπ(i )
≤e −1
ωπ(i +1)
pour
i = 1, n − 1. Ceci signifie que τ vérifie le système des inégalités et le système est faisable.
Suffisance des conditions (⇐)
τ = p 1 , ..., p n , ω1 , ..., ωn , r
¡ ¢
Maintenant, nous supposons qu’il existe h unei configuration
γ £ γ γ¤
satisfaisant le système. Comme p i ∈ p γ , p i , ωi ∈ ωi , ωi , r ∈ r γ , r γ , nous avons
£ ¤
i
donc τ ∈ Γ γ . De plus, τ vérifie les conditions ¡ ¢suffisantes d’optimalité de π (voir Théo-
¡ ¢

rème 2.2). Alors, π est optimal pour τ ∈ Γ γ . De la Définition 2.8, nous obtenons
Pos Γ(γ) π est opt i mal = 1
¡ ¢

Définition 2.9. Pour un ordonnancement fixe π, le degré d’optimalité possible Pos est défini
comme suit :

Pos π est opt i mal


¡ ¢

 0 si Pos Γ(0) π est opt i mal = 0


 ¡ ¢

= n o
 sup γ : Pos
 ¡
π est opt i mal
¢
= 1, γ ∈ [0, 1] si Pos Γ(0) π est opt i mal = 1
¡ ¢
Γ(γ)
(2.5)

Le problème de calcul de Pos π est opt i mal peut être simplifié en supposant que les
¡ ¢

paramètres d’ordonnancement
³ sont
´ donnés par des nombres flous trapézoïdaux. Nous
p p
supposons que p̃ i = p , p i , αi , βi , ω̃i = ωi , ωi , αω , βω et r˜ = r , r , αr , βr pour i = 1, n. Il
¡ ¢ ¡ ¢
i i i
en résulte de la Définition 2.9 et la Propriété 2.1 que Pos π est opt i mal est égale à la
¡ ¢

valeur maximale de la fonction objectif du problème d’optimisation suivant :

50
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

max γ
 ¡ ¢



 0≤γ≤1




Su j et à








p ¡ p ¡

− απ(i ) 1 − γ ≤ p π(i ) ≤ p̄ π(i ) + βπ(i ) 1 − γ
¢ ¢
p i = 1, n


π(i )


(2.6)
ωπ(i ) − αω 1 − γ ≤ ωπ(i ) ≤ ω̄π(i ) + βω

1−γ
¡ ¢ ¡ ¢
i = 1, n


π(i ) π(i )







r − αr 1 − γ ≤ r ≤ r¯ + βr 1 − γ
 ¡ ¢ ¡ ¢







 e r p π(i ) −1 ≤ e r p π(i +1) −1 i = 1, n − 1


ω π(i ) ω π(i +1)

Si ce problème n’est pas faisable, alors nous aurons Pos π est opt i mal = 0. Le concept
¡ ¢

d’optimalité nécessaire d’un ordonnancement fixe est donné par la Définition ci-dessous.
Définition 2.10. On dit qu’un ordonnancement fixe π est nécessairement optimal si
et seulement si l’ordonnancement π est optimal au sens ordinaire pour toutes les
configurations. La formulation mathématique
¡ ¢ de cette définition est¢ exprimée par :
π est nécessai r ement opt i mal ⇔ ∀τ ∈ Γ γ /π est opt i mal pour τ .
¡ ¢ ¡

L’optimalité nécessaire est notée par Nec Γ(γ) et nous écrivons Nec Γ(γ) π est opt i mal =
¡ ¢

1 si π¡ est nécessairement optimal pour Γ γ . Autrement, nous aurons


¡ ¢

Nec Γ(γ) π est opt i mal = 0. La propriété suivante est satisfaite par la mesure d’op-
¢

timalité nécessaire.
Propriété 2.2. Pour un ordonnancement ¢ donné π et un certain réel γ ∈ [0, 1], la condition
suffisante pour Nec Γ(γ) π est opt i mal = 1 est que le système non linéaire suivant soit
¡

satisfait pour i = 1, n − 1 :
γ γ
r γ p π(i ) r γ p π(i +1)
e −1 e −1
γ ≤ (2.7)
ωπ(i ) ωπ(i +1)

Démonstration.
Necessité des conditions (⇒)
Nous démontrons¡ en premier que ¢ ces conditions ne sont pas nécessaires. Nous suppo-
sons que Nec Γ(γ) π est opt i mal = 1 pour une valeur fixe de γ ∈ [0, 1], à partir de la Défi-
nition 2.10, π est optimal pour toutes les configurations p 1 , ..., p n , ω1 , ..., ωn , r ∈ Γ γ . Si
¡ ¢ ¡ ¢
γ
r γp
e π(i ) −1
ces conditions ne sont pas satisfaites, il existe k ∈ {1, ..., n − 1} tel que la valeur de γ
ωπ(i )
γ
r γp
e π(i +1) −1
est strictement supérieure à ω . Cette inégalité implique que pour des valeurs
π(i +1)
γ γ γ¤
arbitraires de p i ∈ p γ , p i ,ωi ∈ ωi , ωi et r ∈ r γ , r γ , nous obtenons les inégalités
h i £ £ ¤
i
suivantes :
 γ γ
r¯ p̄ r p π(k)
e π(k) −1
≥ e ω −1

γ

ωπ(k)

π(k)

γ
r γp

 r p π(k+1) π(k+1) −1
e e

−1



ωπ(k+1) ω̄π(k+1)

51
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

γ γ
rp r p π(k+1) rp r p π(k+1)
e π(k) −1 e −1 e π(k) −1 e −1
Nous distinguons deux cas ωπ(k) > ωπ(k+1) ouDans le cas
ωπ(k) ≤ ωπ(k+1) .
de la dernière inégalité, pour toute configuration τ = p 1 , ..., p n , ω1 , ..., ωn , r ∈ Γ γ ,
¢ ¡¡ ¢

nous concluons du Théorème 2.2 que π est optimal pour toutes les configurations (les
conditions nécessaires d’optimalité sont¢ vérifiées indépendamment de la valeur de γ), ce
qui signifie que Nec Γ(γ) π est opt i mal = 1 même si ces conditions ne sont pas vérifiées.
¡

D’où, les conditions ne sont pas des conditions nécessaires.


Suffisance des conditions (⇐)
Supposons que les conditions sont satisfaites. i Donc, pour chaque configuration
γ γ
£ γ γ¤
τ = p 1 , ..., p n , ω1 , ..., ωn , r ∈ Γ γ où p i ∈ p , p i ,ωi ∈ ωi , ωi et r ∈ r γ , r γ , (i = 1, n),
¡ ¢ ¡ ¢ h £ ¤
i
γ γ
r γp r γp
e r p π(i ) −1 e π(k+1) −1 e π(i +1) −1 e r p π(i +1) −1
nous avons également ωπ(i )
≤ γ pour i = 1, n − 1.
≤ γ ≤ ωπ(i +1)
ωπ(i ) ωπ(i +1)
Donc, du Théorème 2.2, π est optimal τ ∈ Γ γ . De la Définition
¡ ¢
pour toute configuration
2.10, nous concluons que Nec Γ(γ) π est opt i mal = 1.
¡ ¢

Définition 2.11. Pour un ordonnancement fixe π, le degré d’optimalité nécessaire Nec est
exprimé par :

Nec π est opt i mal =


¡ ¢

Nec Γ(1) π est opt i mal = 0


 ¡ ¢
 0 si

n o
 1 − inf γ : Nec
 ¡
π est opt i mal
¢
= 1, γ ∈ [0, 1] si Nec Γ(1) π est opt i mal = 1
¡ ¢
Γ(γ)
(2.8)

L’extension du Lemme 2.1 au cas flou où tous les paramètres sont représentés par des
nombres flous trapézoïdaux est illustrée par le Lemme suivant.

Lemme 2.2. Dans le cas des valeurs très petites du taux d’actualisation flou, le problème
¯ iP
=n ¯ iP
=n
1 ¯ω̃i , p̃ i , r˜¯ ωi 1 − e −r Ci se réduit au problème 1 ¯ω̃i , p̃ i ¯ ωi Ci .
¯ ¡ ¢ ¯
i =1 i =1

Démonstration.
Si le taux d’actualisation flou prend des valeurs faibles (r → 0), nous pouvons l’approxi-
mer par un nombre réel (r˜ ∼ = (r, r, 0, 0)). Dans ce cas, la fonction objectif devient elle même
une fonction floue notée par f˜.hEn utilisant la notation des coupes γ, nous obtenons pour
¤γ ¡ ¢ ¡ ¢i
˜
γ ∈ [0, 1] l’expression f (r ) = f r, γ , f r, γ avec
£

¡ ¢ iP =n

¡ ¢ ³ −r Ci (γ)
´


 f r, γ = ω i γ × 1 − e
i =1


 ¡ ¢ iP =n ¡ ¢ ³ ´
ωi γ × 1 − e −r Ci (γ)

 f r, γ =


i =1

Comme ces bornes sont des fonctions réelles de r, le Lemme 2.1 peut être appli-
qué pour arriver à :

52
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

iP
=n

γ ∼ ω γ γ
¡ ¢ ¡ ¢ ¡ ¢


 f r, = r i × C i
i =1

iP
=n


 f r, γ ∼ ωi γ × C i γ
 ¡ ¢ ¡ ¢ ¡ ¢
 =r
i =1
iP=n ¡ ¢ iP
=n
· ¸
¤γ
∼ f˜ (r )
ωi γ × C i γ , ωi γ × C i γ .
£ ¡ ¢ ¡ ¢ ¡ ¢
ou bien sous forme plus compacte = r
i =1 i =1
iP
=n ¡ ¢ iP
=n
· ¸
ωi γ × Ci γ , ωi γ × Ci γ pour γ ∈ [0, 1] peuvent
¡ ¢ ¡ ¢ ¡ ¢
Sachant que les intervalles r
i =1 i =1
être identifiés à une constante de multiplication près au coupes γ de la fonction
¯ iP
=n
objectif associée au problème 1 ¯ω̃i , p̃ i ¯ ωi Ci , nous déduisons que le problème
¯
i =1
¯ iP
=n ¯ iP
=n
1 ¯ω̃i , p̃ i , r˜¯ ωi 1 − e −r Ci coïncide bien avec le problème 1 ¯ω̃i , p̃ i ¯ ωi Ci pour les
¯ ¡ ¢ ¯
i =1 i =1
valeurs très faibles du taux d’actualisation r˜.

¯ iP
=n
Quelques résultats asymptotiques pour le problème 1 ¯ω̃i , p̃ i , r˜¯ ωi 1 − e −r Ci sont
¯ ¡ ¢
i =1
obtenus si les hypothèses suivantes sont imposées sur le taux d’actualisation comme in-
diqué par les Corollaires suivants.

Corollaire 2.1. Si le taux d’actualisation prend des valeurs réelles i.e. r˜ = (r, r, 0, 0), l’en-
semble des conditions suffisantes sont aussi des conditions nécessaires pour l’optimalité
nécessaire
¡ d’un ordonnancement. Dans ce cas, le degré d’optimalité nécessaire est donné
par Nec π est opt i mal = 1 − γ avec γ∗ est la valeur minimale de la fonction objectif du

¢

problème d’optimisation suivant :

γ
 ¡ ¢
 min


 0≤γ≤1




Su j et à

(2.9)


p p
 h i h i
π(i +1) π(i +1) (
1−γ)
π(i ) (
1−γ)

 r p̄ π(i ) +β r p −α
 e e

 h
 i≤h i i = 1, n − 1
ωπ(i ) −αω π(i ) (
1−γ) ω̄π(i +1) +βωπ(i +1) (
1−γ)

Démonstration.
Supposons que Nec Γ(γ) π est opt i mal = 1 pour une valeur donnée de γ ∈ [0, 1]. Donc,
¡ ¢

de¡ la¢ Définition 2.10, π est optimal pour toutes les configurations p 1 , ..., p n , ω1 , ..., ωn , r ∈
¡ ¢

Γ γ . Si les conditions ne sont pas satisfaites alors il existe k ∈ {1, ..., n − 1} tel que
γ γ
r γp r γp
e π(k) −1 e π(k+1) −1
. Nous considérons une configuration τ = p 1 , ..., p n , ω1 , ..., ωN , r ∈
¡ ¢
γ > γ
ω ωπ(k+1)
¡ π(k) γ γ γ γ
Γ γ telle que p π(k) = p π(k) , p π(k+1) = p π(k+1) , ωπ(k) = ωπ(k) , ωπ(k+1) = ωπ(k+1) et r = r γ = r γ . À
¢

partir de la Propriété 2.2 et Théorème 2.2, nous concluons que π n’est pas optimal pour τ
(les conditions nécessaires¡pour l’optimalité ¢ ne sont pas satisfaites), ce qui contredit notre
hypothèse initiale Nec Γ(γ) π est opt i mal = 1. Donc, pour une valeur réelle du taux d’ac-
tualisation r˜, les conditions suffisantes sont également des conditions nécessaires. Dans
ce cas, par application de la Définition 2.11 et la Propriété 2.2 nous obtenons le problème
de minimisation ( 2.9).

Corollaire 2.2. Pour des petites valeurs du taux d’actualisation flou r˜, les assertions sui-
vantes sont valides :

53
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

i) Les conditions d’optimalité possible se réduisent à :

γ
p γ ≤ p i ≤ p̄ i i = 1, n


i





γ γ

ωi ≤ ωi ≤ ω̄i i = 1, n (2.10)




 p π(i ) ≤ p π(i +1) i = 1, n − 1


ω π(i )ω π(i +1)

ii) Les conditions suffisantes d’optimalité nécessaire se réduisent à :

γ
p π(i ) pγ
π(i +1)
γ ≤ γ i = 1, n − 1 (2.11)
ωπ(i ) ωπ(i +1)

qui sont aussi des conditions nécessaires.

Démonstration.

¯ iP
=n
i) Par la réduction de notre problème flou 1 ¯ω̃i , p̃ i , r˜¯ ωi 1 − e −r Ci utilisant le
¯ ¡ ¢
i =1
¯ iP
=n
Lemme 2.2 au problème 1 ¯ω̃i , p̃ i ¯ ωi Ci et en suivant la même procédure de
¯
i =1
démonstration de la Propriété 2.1, nous déduisons que la faisabilité du système
d’inégalités :
γ
p γ ≤ p i ≤ p̄ i i = 1, n


i





γ γ

ωi ≤ ωi ≤ ω̄i i = 1, n




 p π(i ) ≤ p π(i +1) i = 1, n − 1


ω ω
π(i ) π(i +1)

est une condition nécessaire et suffisante pour l’optimalité possible d’un or-
donnancement.
ii) Nous utilisons les mêmes procédures comme pour Propriété 2.2 et Corollaire 2.1
¯ iP
=n
pour le problème réduit 1 ¯ω̃i , p̃ i ¯ ωi Ci , nous déduisons que la faisabilité du
¯
i =1
système d’inégalités :
γ γ
p π(i ) p π(i +1)
γ ≤ γ i = 1, n − 1
ωπ(i ) ωπ(i +1)

est une condition nécessaire et suffisante pour l’optimalité nécessaire d’un


ordonnancement.

En se basant sur les modèles compacts associés aux mesures d’optimalité possible
et nécessaire, nous pouvons observer que ces modèles représentent des problèmes
d’optimisation continue avec contraintes non linéaires. Comme dans plusieurs cas, ce
type de problème est difficile à résoudre à cause de la présence des régions faisables
non connexes dans l’espace de recherche ainsi que la présence de minimum locaux,

54
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

il est commode d’opter pour des techniques plus fiables telles que les approches évo-
lutionnaires émergentes ces dernières années comme outils puissants pour la résolu-
tion et l’analyse des problèmes d’optimisation ( [C ASTILLO et M ELIN, 2009] et [K ROLL
et S CHULTE, 2014]).

2.4 Conception du cadre d’expérimentations numériques


Dans cette section, nous présentons le cadre de simulation utilisé pour l’évaluation du
degré d’optimalité possible d’un ordonnancement bien défini. Par contre, le degré d’op-
timalité nécessaire n’est pas considéré car c’est une condition forte d’optimalité qui ne
peut être satisfaite que dans des cas très rares par exemple lorsque le taux d’actualisa-
tion est connu d’une façon exacte. Le formalisme Lagrangien augmenté est utilisé pour
intégrer les contraintes non linéaires dans la fonction objectif et ceci dans le contexte des
algorithmes d’optimisation proposés (algorithme génétique et recherche par motifs).

2.4.1 Support des contraintes non linéaires


Les problèmes d’optimisation continue non linéaires ont représentés un grand souci
en pratique due à la difficulté de leur adaptation aux méthodes conventionnelles. L’ap-
proche basée sur un coût de pénalité est parmi plusieurs approches proposées pour re-
médier tel défi où les contraintes sont ajoutées à la fonction objectif [C OELLO C OELLO,
2002]. Lorsque une solution s’éloigne de la région faisable pendant le processus de re-
cherche, elle est pénalisée par l’accroissement de la fonction objectif avec un terme de
pénalité multiplié par un coefficient de pénalité [N OCEDAL et W RIGH, 1999]. La viola-
tion de contrainte est pénalisée par l’augmentation de ce coefficient d’une manière gra-
duelle, ce qui force le processus de recherche de se rediriger vers les régions faisables du
problème à résoudre. Le problème majeur dans les fonctions de pénalités et de barrières
simples consiste en l’effet de bord associé au mal conditionnement. Cet obstacle peut être
évité dans le cas des approches à base du Lagrangien augmenté ayant plusieurs avantages
en comparaison avec d’autres techniques de programmation non linéaire [S RIVASTAVA et
D EB, 2010] :

• Une solution exacte peut être obtenue ce qui est faux pour les méthodes basées sur
des fonctions de pénalités simples ;
• La fonction objectif originale n’est pas distorsée, au lieu elle est décalée de telle
sorte que l’optimum se déplace du minimum sans contraintes vers le minimum
sous contraintes ;
• La valeur du multiplicateur de Lagrange est donnée pour chaque contrainte. Cette
possibilité de calculer le multiplicateur de Lagrange offre plus de flexibilité par rap-
port aux autres algorithmes d’optimisation.

Cependant, parmi les critiques des méthodes à base du Lagrangien augmenté nous
trouvons la nécessité d’un nombre d’itération important (méthodes gourmandes en
temps de calcul) ainsi que la dépendance des phases d’optimisation actuelles de la
précision des phases précédentes. Pour un problème d’optimisation continue avec des
contraintes non linéaires, linéaires et de bornes, la formulation mathématique générique
est donnée par :

55
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains


min F (x)
x







Su j et à









 i neq
Ci (x) ≤ 0, i = 1, M







eq (2.12)
 Ci (x) = 0, i = 1, N




Ai neq x ≤ Bi neq









eq eq
 A x =B








Lb ≤ x ≤ U b

i neq eq
où Ci (x) représente M contraintes d’inégalité non linéaires, Ci (x) représentent N
contraintes d’égalité non linéaires, Ai neq la matrice des coefficients des contraintes d’in-
égalité linéaires, Aeq la matrice des coefficients des contraintes d’égalité linéaires, Lb et
U b sont les vecteurs des bornes inférieures et supérieures.
Un sous problème est formulé par la définition d’une nouvelle fonction objectif de la
somme pondérée de la fonction objectif originale et les contraintes non linéaires utilisant
les paramètres de Lagrange et de pénalité. La formulation compacte du sous problème
résultant est donnée par [C ONN et collab., 1997] :

M ³
i neq
´ X N
eq ρX N ¡
eq ¢2
Ψ x, λ, s, ρ = F (x) − λi s i log s i − Ci (x) + λi Ci (x) +
¡ ¢ X
Ci (x) (2.13)
i =1 i =1 2 i =1

Donc, nous commençons par l’affectation d’une valeur initiale au paramètre de pénalité,
une séquence de sous problèmes (qui sont des approximations du problème original) est
minimisée selon une méthode itérative appropriée ou une heuristique de telle sorte que
les contraintes linéaires et de bornes soient satisfaites et traitées séparément. À chaque
itération, si la précision nécessaire du minimum du sous problème est atteinte, les élé-
ments estimés du vecteur de multiplicateur de Lagrange sont mis à jour. Sinon, le para-
mètre de pénalité est augmenté par un facteur de pénalité. Ceci donne un nouveau sous
problème à minimiser suivant la même stratégie. Ces étapes sont réitérées jusqu’à l’une
des conditions d’arrêt imposées sur le nombre de générations, violation de contraintes ou
l’erreur sur la fonction objectif soit vérifiée.

2.4.2 Approche basée sur l’algorithme génétique


Les algorithmes génétiques introduits initialement dans les années soixante par John
Holland sont des techniques de recherche stochastiques basées sur la génération d’une
population de solutions à chaque itération. L’évolution de la population est guidée par
plusieurs opérateurs (sélection, croisement et mutation) permettant la couverture de l’es-
pace de solutions pendant la recherche [G LOVER et KOCHENBERGER, 2003]. L’évolution
de la population entre différentes itérations est gouvernée par la configuration adéquate
des opérateurs génétiques responsables des bonnes performances de l’algorithme géné-
tique. Pour atteindre ce but, des efforts supplémentaires doivent être focalisés sur ces

56
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

opérateurs lors de la conception d’un algorithme génétique destiné à un problème. En


effet, dans plusieurs cas un tel algorithme dépend des caractéristiques intrinsèques du
problème analysé. Par exemple, le codage par permutation est largement utilisé pour
la représentation des séquences des tâches dans les problèmes d’ordonnancement NP-
difficiles à une machine [L OPEZ et R OUBELLAT, 2000]. Malgré que la représentation bi-
naire classique soit la plus répondue, notre implémentation est basée sur la représenta-
tion réelle à cause de la nature du problème étudié. De plus, des études ont confirmé que
le codage réel est rapide, plus consistant et donne une meilleure précision par rapport
au codage binaire [M ICHALEWICZ, 1998]. Chaque individu dans la population est codé
comme un vecteur de dimension 2n + 2.
Le processus de sélection des parents pour la prochaine génération est achevé utili-
sant une sélection stochastique uniforme pour assurer que la fréquence de sélection de
chaque individu soit en ligne avec les fréquences attendues. Une valeur unique aléatoire
est utilisée pour sélectionner toutes les solutions sur des intervalles équivaux d’une ligne
où chaque parent correspond à une section de la ligne de longueur proportionnelle à la
valeur normalisée de sa fonction objectif. Cette procédure donne aux individus faibles de
la population une chance d’être choisis et permet donc de réduire le risque de la conver-
gence prématurée de la population. En utilisant l’opérateur de croisement, il est possible
de transférer les bonnes propriétés des individus à leurs descendants. Dans le croisement
uniforme adopté dans ce travail, un vecteur aléatoire (ou masque) contenant des valeurs
binaires est créé et par la suite la génération d’un enfant est faite par le test du masque bit
par bit. Si le bit testé est zéro alors le génotype du parent est extrait tandis que le génotype
du deuxième parent est considéré si le bit est à un. Un deuxième enfant peut être ob-
tenu en inversant l’ordre des parents. Les enfants sont par la suite sujets à une mutation
gaussienne où une valeur distribuée selon une loi gaussienne est ajoutée à un génotype
choisi d’un enfant. Si la valeur résultante viole la contrainte de borne pour ce génotype,
cette nouvelle valeur est écartée. Finalement pour la sélection élitiste ayant pour objectif
de conserver l’amélioration continue de la meilleur solution d’une itération à une autre,
une fraction des meilleurs individus est transferée directement à la prochaine génération
sans subir les opérateurs de croisement et de mutation. Les étapes élémentaires de l’al-
gorithme génétique sont illustrées par l’Algorithme 2.1.

Algorithm 2.1 Algorithme génétique


DEBUT
Initialiser les paramètres de l’algorithme génétique
POUR (k = 1 au nombre maximum d’itérations) FAIRE
Évaluer la fonction objectif pour tous les individus de la population
Choisir les parents en se basant sur une stratégie de sélection
Appliquer l’opérateur de croisement avec le taux de croisement associé
Appliquer l’opérateur de mutation avec le taux de mutation associé
Préserver les individus élites et remplacer les individus restants
FIN POUR
Retourner la meilleure solution correspondante au minimum de la fonction objectif f
FIN

Dans leur forme standard, les algorithmes génétiques ont plus de chance pour évi-
ter les optimums locaux en comparaison avec les techniques de programmation déter-
ministes comme ces algorithmes ne nécessitent pas le calcul du gradient de la fonction
objectif. Mais d’autre part, ces algorithmes supportent uniquement les contraintes de
bornes et les individus qui violent ces contraintes peuvent être éliminés sans difficultés.

57
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

Ceci est inefficace dans le cas où les solutions faisables sont difficilement déterminées.
En se basant sur les bonnes performances des métaheuristiques intégrées avec des fonc-
tions de pénalité à base du lagrangien augmenté, des approches très prometteuses ont
été développées pour des applications industrielles ( [D EB et S RIVASTAVA, 2012], [R AHIM
et collab., 2012], [R OCHA et collab., 2011] et [TALBI, 2013]).

2.4.3 Approche basée sur la recherche par motifs


La recherche par motifs est une sous classe de la famille des méthodes de recherche
directionnelles proposées initialement par Lewis et Torczon [L EWIS et T ORCZON, 1999].
Cette méthode ne nécessite pas le calcul du gradient ou d’une dérivée d’ordre supérieure
pendant le processus de recherche de solution optimale. Son principe consiste en l’ex-
ploitation d’un ensemble de points voisins de la solution courante avec l’objectif de trou-
ver un point ayant une valeur plus faible de la fonction objectif. La génération du voisi-
nage est fondée sur un maillage construit sur la base d’un ensemble de vecteurs connus
sous le nom de motifs définissant les directions de recherche. Le maillage est caractérisé
par une taille représentant une sorte de distance entre le point courant et un point ar-
bitraire du voisinage. Sachant que le cardinal d’une base positive de Rd est limité dans
l’intervalle [d + 1, 2d ] ( [H ARE et S ONG, 2016]), deux stratégies élémentaires sont implé-
mentées en se basant sur les valeurs extrêmes de l’intervalle pour définir un motif. La
première stratégie est de considérer d vecteurs de base en plus du vecteur obtenu par l’in-
verse de la somme de ces d vecteurs. La deuxième stratégie est de considérer 2d vecteurs
définis par les d vecteurs de base ainsi que les d vecteurs inverses [L EWIS et collab., 2000].
Dans notre travail, nous adoptons la deuxième stratégie ce qui est justifié par l’obtention
d’un nombre plus élevé de directions de recherche.
Pour une fonction objectif donnée, la méthode de recherche par motifs commence
avec une solution initiale x 0 et une taille de maillage initiale ∆0 > 0. Une séquence de so-
lutions itérées {x k } est générée telle que f (x k+1 ) ≤ f (x k ) et à chaque itération la méthode
sauvegarde les points du maillage en évaluant leurs valeurs de la fonction objectif. Ce
processus de sauvegarde est connu sous le nom de procédure de vote. Si un point a une
valeur inférieure par rapport au point courant, le vote est dit réussi et ce point devient le
centre courant du nouveau maillage créé selon la formule :
n o
Mk = x k + ∆k νz : z ∈ Z|ν|+ (2.14)

où ∆k le paramètre de maillage, Z+ l’ensemble des entiers non négatifs et |ν| le cardi-


nal de la base positive. Autrement, le vote est dit échoué et le point courant est préservé
avec le retrissage de l’espace de recherche [T ORCZON, 1997]. Nous pouvons déduire que
la structure du voisinage est modifiée d’une façon dynamique avec l’évolution de l’algo-
rithme à cause de la taille du maillage qui dépend de l’état du vote (réussi ou échoué)
ainsi que du nombre d’itérations selon l’équation de récurrence suivante :

∆k+1 = τ∆k (2.15)

avec

 τ < 1 si l e vot e est r éussi


τ > 1 si l e vot e est échoué


58
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

En effet, les mécanismes d’exploiatation dans la méthode de recherche par motifs


contiennent deux types dans le parcours de l’espace de solutions : une étape de recherche
optionnelle et une étape de vote (enregistrement). Nous utilisons comme mécanisme
de recherche l’ensemble de points de voisinage obtenu par la génération de 2n v vec-
teurs aléatoires avec n v le nombre de variables indépendantes de la fonction objectif
n v = 2n + 2. La différence entre les mécanismes de vote et de recherche optionnelle réside
dans la manière de sélection des points tests. L’étape de recherche optionnelle est plus
flexible car une heuristique ou règle de dominance peut être utilisée pour ce but. Mais il
est à noter que l’étape de vote est l’élément primordial dans le paradigme de la recherche
par motifs qui est plus rigide et élaborée. À ce niveau, on a entre les mains tous les in-
grédients nécessaires pour la description de la méthode comme illustré par l’Algorithme
2.2.

Algorithm 2.2 Recherche par motifs


DEBUT
Initialiser les paramètres de la recherche par motifs
POUR (k = 1 au nombre maximum d’itérations) FAIRE
Effectuer l’étape de recherche optionnelle pour obtenir une solution améliorée
SI (l’étape de recherche est échouée) ALORS
Créer l’ensemble des directions de vote
Effectuer l’étape de vote pour obtenir une solution améliorée
FIN SI
SI (une solution améliorée est trouvée) ALORS
Considérer la solution améliorée comme solution courante
Étendre la taille du maillage
SINON
Réduire la taille du maillage
FIN SI
FIN POUR
Retourner la meilleure solution correspondante au minimum de la fonction objectif f
FIN

Il est à mentionner que pour des problèmes continus sous contraintes, les contraintes
de bornes peuvent être supportées par l’élimination des points testés non faisables où la
fonction objectif est évaluée uniquement aux points faisables respectant les contraintes
de bornes. D’autres parts, la délimitation de la région faisable lorsque des contraintes non
linéaires compliquées sont présentes nécessite plus d’efforts et peut être dans certains cas
une tâche fastidieuse. Aussi, la considération d’une fonction objectif basée sur une péna-
lité du lagrangien augmenté peut aider à surmonter cet obstacle et présenter une bonne
alternative pour la résolution du problème d’optimisation non linéaire avec contraintes
( [A RTIGUES et collab., 2008] et [C OSTA et collab., 2012]).

2.4.4 Génération des instances


Dans le but d’évaluer les performances des approches proposées, il est nécessaire de
générer un ensemble d’instances de test. Chaque instance est composée d’un ensemble
fixe de tâches caractérisées par leurs durées opératoires, coefficients de pondération et
taux d’actualisation, où les nombres flous trapézoïdaux sont utilisés pour la modélisa-
tion d’incertitude au niveau de ces paramètres. On s’inspire de la procédure de généra-
tion utilisée pour l’obtention des nombres flous triangulaires à partir des nombres réels

59
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

¡comme ¡ illustré dans


¢¢ la référence [G HRAYEB, 2003]. Un paramètre générique noté par
Z̃ i = z i , z i , αi , βi exprimant l’un des paramètres flous d’ordonnancement p̃ i , ω̃i et r˜,
Z Z

est généré selon les règles suivantes :


• Initialement, une valeur réelle arbitraire z i £pour le
¤ paramètre Z̃ i est sélectionnée
Z Z
d’une distribution uniforme sur l’intervalle a i , b i pour chaque tâche i ;
• Après ce choix pour toutes les tâches, les bornes inférieures et supérieures de Z̃ i
sont générées aléatoirement selon l’expression :

 z i ← η × zi , zi
 £ ¤

z̄ i ← z i , 1 + η × z i
 £ ¡ ¢ ¤

avec le paramètre η ∈ (0, 1] une graine aléatoire ;


• Par la suite, les paramètres αZi et βZi sont définis comme des entiers arbitraires des
£ α α ¤ h β β i
intervalles spécifiés par a i Z , b i Z et a i Z , b i Z respectivement ;
• Une valeur élevée de la graine aléatoire η indique que nous avons en général un
intervalle étendu pour les nombres flous et une valeur faible indique un intervalle
étroit de valeurs affectées au paramètres flous.

2.5 Simulation et résultats


Pour valider les approches de résolution proposées, des expérimentations numé-
riques sont réalisées utilisant un ensemble de problèmes tests. L’ensemble test contient
des instances de différentes tailles allant de n = 2 jusqu’à n = 6. En total, 30 instances
sont générées pour chaque nombre de tâches. Mais seulement un nombre limité sélec-
tionné arbitrairement est utilisé dans l’optimisation à cause du temps de calcul. La gé-
nération des instances et les algorithmes de résolution sont codés utilisant l’outil MAT-
LAB qui est devenu actuellement un environnement intégré puissant de modélisation
des problèmes difficiles d’engineering [W ONGA et L AI, 2011]. Les expériences numé-
riques sont effectuées sur un processeur Intel Core i7 avec 8 GB de RAM. L’ensemble
complet des instances avec toutes les données associées sont disponibles sur le lien :
<http://lab.univ-batna2.dz/lap/index.php/component/content/article?id=31>.
Comme le comportement des approches est basé sur quelques paramètres aléatoires,
chaque instance est résolue répétitivement n r ep fois avec des configurations initiales dif-
férentes. En se basant sur les résultats obtenus, il est possible d’analyser la sensibilité de la
qualité des solutions face à la variation de quelques paramètres. Le Tableau 2.1 présente
les valeurs choisies pour les bornes inférieures et supérieures utilisées dans la génération
des nombres flous trapézoïdaux associés à chaque paramètre dans notre problème d’or-
donnancement.
Le Tableau 2.2 illustre les paramètres principaux de l’algorithme génétique et la re-
cherche par motifs. Il est à noter que tous les paramètres des approches proposées sont
fixés et varient uniquement lorsque nous effectuons une analyse de sensibilité d’un para-
mètre spécifique. Dans ce travail, aucun effort n’est dédié à la détermination de la confi-
guration optimale des métaheuristiques à cause des coûts de calcul élevés.
L’influence du changement de quelques paramètres sur la qualité de la solution est
exploitée ci-dessous où nous adoptons une notation à trois champs pour les instances de
test Sol (X) (Y) (Z). La signification de chaque champ est comme suit :
• X : la valeur de la graine aléatoire ;

60
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

TABLEAU 2.1 Valeurs des bornes inférieures et supérieures des paramètres utilisées lors
de la procédure de génération des instances

Paramètre Borne inférieure Borne supérieure


pi 1 10
p
αi 1 8
p
βi 1 8
ωi 1 5
αωi
1 8
βωi
1 8
r 0.1 0.04
αr 0.001 0.005
βr 0.001 0.005

TABLEAU 2.2 Valeurs des paramètres de configuration utilisées dans les approches d’op-
timisation proposées

Paramètre Sous paramètre Algorithme Recherche par


génétique motifs
Nombre des éxecu- 30 30
tions répétées
Nombre des individus 5 /
élites
Nombre des itérations 200 200
Taille de la population 50 /
Taux de croisement 0.8 /
Maillage Taille initiale / 10
Facteur d’expan- / 10
sion
Facteur de / 10
contraction
Pénalité Valeur initiale 5 10
Facteur d’aug- 25 10
mentation
Tolérance Violation des 10−6 10−6
contraintes
Fonction objectif 10−6 10−6

61
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

• Y : le nombre de tâches ;
• Z : l’indice de l’instance.
Quatre critères statistiques sont utilisés pour l’évaluation des performances des deux
approches : la meilleure valeur de la fonction objectif trouvée après n r ep exécutions
(FBest ), la valeur moyenne de toutes les valeurs de la fonction objectif (F¡ Mean¢ ), l’erreur
moyenne entre les valeurs de la fonction objectif et sa meilleure valeur FAv g et finale-
ment l’écart type des valeurs de la fonction objectif (FSt d ). Les formulations mathéma-
tiques de ces critères sont données par :
¡ ¢
FBest = max fj (2.16)
j =1,n r ep

n r ep
P
fj
j =1
FMean = (2.17)
n r ep
n r ep ¯ ¯
P ¯
f j − FBest ¯
j =1
FAv g = (2.18)
n r ep
n r ep ¡ ¢2
P
f j − FMean
j =1
FSt d = (2.19)
n r ep

avec f j est le degré d’optimalité possible obtenu lors de la répétition j.

2.5.1 Effet du nombre de tâches


Du Tableau 2.3 représentant les performances des approches proposées en fonction
du nombre de tâches, il s’ensuit que l’augmentation du nombre de tâches affecte la qua-
lité des solutions. Il est à noter que pour les instances avec deux, trois et quatre tâches,
les approches proposées sont capables de résoudre d’une façon optimale le problème de
maximisation. Par contre, pour un nombre plus élevé de tâches, la qualité des solutions
obtenues est dégradée comme il est reflété par l’augmentation des valeurs de l’erreur
moyenne et l’écart type. Cette observation peut être expliquée par le fait que la consi-
dération de contraintes supplémentaires rend l’espace de recherche faisable plus difficile
à exploiter. En outre, la différence entre des valeurs meilleure et moyenne de la fonction
objectif pour la méthode de recherche par motifs est plus faible et strictement inférieure
à celle associée à l’algorithme génétique. Cette tendance montre que la méthode de re-
cherche par motifs est plus stable envers la variation du nombre de tâches en comparai-
son avec l’algorithme génétique à cause de l’aspect stochastique caractérisant ce dernier.

2.5.2 Effet de la graine aléatoire η


La graine aléatoire η joue un rôle crucial dans la procédure de génération car elle
¡ ¢

permet de contrôler l’intervalle des valeurs associées au différents paramètres d’ordon-


nancement. Le Tableau 2.4 introduit les performances des approches proposées en fonc-
tion des valeurs de η, où le nombre de tâches est fixé à quatre. Il est facile de déduire que
la qualité des solutions générées par l’algorithme génétique utilisant des valeurs élevées

62
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

TABLEAU 2.3 Évolution des performances des approches proposées en fonction du


nombre de tâches n

Instance Algorithme génétique Recherche par motifs


FBest FMean FAv g FSt d FBest FMean FAv g FSt d
Sol(0.2)(2)(2) 1* 1 0 0 1* 1 0 0
Sol(0.2)(3)(7) 1* 1 0 0 1* 1 0 0
Sol(0.2)(4)(15) 1* 1 0 0 1* 1 0 0
Sol(0.2)(5)(21) 0.6 0.53 0.07 0.07 0.6 0.58 0.02 0.02
Sol(0.2)(6)(1) 0.71 0.47 0.24 0.08 0.88 0.87 0.01 0.03

* : Valeur optimale

de η est strictement inférieure à celle associée aux valeurs faibles de η. Ceci peut être jus-
tifié par l’aspect stochastique de l’algorithme en plus de l’intervalle étroit des valeurs des
paramètres d’ordonnancement lorsque η prend des petites valeurs. Alors, il est possible
d’obtenir de meilleures solutions en comparaison avec le cas où les valeurs de η sont éle-
vées. La méthode de recherche par motifs conserve sa stabilité même pour des valeurs
élevées du paramètre η où la meilleure valeur et la valeur moyenne de la fonction objectif
sont égales.

TABLEAU 2.4 Évolution des performances des approches proposées pour différentes va-
leurs de la graine aléatoire η

Instance Algorithme génétique Recherche par motifs


FBest FMean FAv g FSt d FBest FMean FAv g FSt d
Sol(0.2)(4)(6) 0.94 0.74 0.20 0.08 1* 1 0 0
Sol(0.4)(4)(13) 0.88 0.84 0.04 0.06 0.88 0.88 0 0
Sol(0.6)(4)(19) 1* 0.89 0.11 0.07 1* 1 0 0
Sol(0.8)(4)(24) 0.81 0.68 0.14 0.10 0.81 0.81 0 0
Sol(1)(4)(29) 0.91 0.73 0.18 0.11 0.97 0.97 0 0

* : Valeur optimale

2.5.3 Effet de la taille de la population de l’algorithme génétique


Pour analyser l’effet de la taille de la population sur les performances de l’algorithme
génétique en comparaison avec la recherche par motifs, quelques instances sont choisies
et résolues avec quatre valeurs différentes de la taille de la population. Dans ces expé-
riences, nous prenons des populations formées de 20, 40, 60 et 80 individus. Les résultats
concernant les critères statistiques obtenus après 30 répétitions sont listées dans le Ta-
bleau 2.5. Dans ce cas, nous pouvons conclure que l’efficacité et la consistance de l’algo-
rithme pour de grandes valeurs de la graine aléatoire ne dépend pas fortement de la taille
de la population car l’intervalle large des valeurs attachées au problème d’ordonnance-
ment rend la recherche des régions faisables plus compliquée. Pour le nombre maximum
de la taille de la population (80), la meilleure solution de l’algorithme génétique se rap-
proche de celle de la recherche par motifs mais de moindre qualité.

63
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

TABLEAU 2.5 Influence de la taille de la population p Si ze sur les performances de l’algo-


rithme génétique

Instance Algorithme génétique Recherche par motifs


p Si ze FBest FMean FAv g FSt d FBest FMean FAv g FSt d
Sol(0.8)(2)(7) 20 1* 1 0 0 1* 1 0 0
40 1* 1 0 0
60 1* 1 0 0
80 1* 1 0 0
Sol(0.4)(4)(11) 20 0.79 0.51 0.27 0.10 0.93 0.93 0 0
40 0.85 0.65 0.20 0.11
60 0.91 0.75 0.16 0.06
80 0.92 0.81 0.11 0.06
Sol(0.2)(4)(6) 20 0.89 0.58 0.31 0.15 1* 1 0 0
40 0.88 0.61 0.27 0.14
60 0.99 0.66 0.33 0.16
80 1* 0.69 0.31 0.15

* : Valeur optimale

2.5.4 Effet de la réduction du taux d’actualisation flou r˜


Dans le but d’exploiter l’impact du taux d’actualisation flou sur les performances des
approches proposées, nous adoptons les données du premier exemple dans [C HANAS et
K ASPERSKI, 2004] pour notre problème ¡ avec−2l’introduction d’une valeur¢initiale arbitraire
pour le taux d’actualisation flou r˜ = 3 × 10 , 6 × 10 , 2 × 10−3 , 1 × 10−3 . Après, nous ré-
−2

duisons cette valeur graduellement en la divisant par un facteur puissance de 2 et l’ins-


tance résultante est résolue comme il est montré dans le Tableau 2.6. Nous pouvons voir
que les meilleures valeurs de la fonction objectif fluctuent autour de la valeur optimale
de la fonction objectif associée au problème d’ordonnancement avec coûts non actua-
lisés FOpt = 0.316 pour l’algorithme génétique et un comportement similaire est détecté
pour la recherche par motifs où la meilleure valeur de la fonction objectif converge vers la
même valeur optimale. En outre, la recherche par motifs montre un comportement plus
stable en fonction de la variation du taux d’actualisation flou comme indiqué par les cri-
tères de qualité. La convergence de la fonction objectif vers une valeur limite peut être
considérée comme une pseudo validation numérique du Lemme 2.2.

TABLEAU 2.6 Évolution des performances des approches proposées avec la réduction du
taux d’actualisation flou r˜

Diviseur Algorithme génétique Recherche par motifs Valeur optimale


FBest FMean FAv g FSt d FBest FMean FAv g FSt d FOpt
2 0.317 0.225 0.092 0.048 0.417 0.405 0.013 0.053 0.316
4 0.313 0.203 0.110 0.044 0.351 0.341 0.011 0.004
8 0.309 0.200 0.108 0.045 0.331 0.300 0.036 0.046
16 0.326 0.202 0.124 0.061 0.329 0.245 0.087 0.071
32 0.315 0.200 0.115 0.069 0.319 0.239 0.079 0.054

64
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

2.5.5 Effet de l’hybridation des approches algorithme génétique et re-


cherche par motifs

Généralement, il est bien prédictible que l’hybridation entre différentes méthodes


d’optimisation peut donner une amélioration dans les performances. Les méthodes de
recherche par motifs souffrent de la limitation de la taille du voisinage généré dans les
phases de recherche optionnelle et de vote. Cette taille dépend d’une façon polynômiale
du nombre de paramètres du problème d’ordonnancement i.e. O (2n + 2). Donc, la qua-
lité des solutions obtenues par cette famille de méthode peut être dégradée à cause de
cette limitation. Pour étendre les possibilités de recherche, nous proposons d’utiliser un
algorithme génétique dans la phase de recherche optionnelle sans modifier le reste des
phases. Cette hybridation permet d’augmenter le nombre de solutions du voisinage ex-
ploité d’une manière aléatoire et d’offrir un compromis entre la diversification et l’inten-
sification pendent la recherche.
Une comparaison des résultats obtenus par les approches élémentaires et l’approche
hybride est illustrée dans les Tableaux 2.7 et 2.8, où le nombre de tâches est fixé à 5.
Nous pouvons observer que l’approche hybride domine les deux approches élémentaires
en terme de la meilleure valeur de la fonction objectif. Ceci confirme l’avantage d’inclure
une autre méthode d’optimisation dans le contexte de la recherche par motifs comme
phase de recherche optionnelle.

TABLEAU 2.7 Performances des approches proposées utilisées séparément

Instance Algorithme génétique Recherche par motifs


FBest FMean FAv g FSt d FBest FMean FAv g FSt d
Sol(0.2)(5)(1) 0.950 0.721 0.229 0.117 0.882 0.870 0.012 0.027
Sol(0.4)(5)(8) 0.924 0.644 0.281 0.104 0.965 0.964 0.001 0.001
Sol(0.6)(5)(15) 0.720 0.569 0.151 0.095 0.940 0.940 0 0
Sol(0.8)(4)(22) 0.850 0.568 0.282 0.125 0.851 0.840 0.011 0.014
Sol(1)(5)(30) 0.503 0.276 0.227 0.096 0.841 0.840 0.002 0.003

* : Valeur optimale

TABLEAU 2.8 Performances des approches proposées après hybridation

Instance Approche hybride


FBest FMean FAv g FSt d
Sol(0.2)(5)(1) 1* 1 0 0
Sol(0.4)(5)(8) 0.965 0.964 0.001 0.001
Sol(0.6)(5)(15) 0.940 0.940 0.001 0.004
Sol(0.8)(4)(22) 0.851 0.777 0.073 0.067
Sol(1)(5)(30) 0.841 0.813 0.028 0.054

* : Valeur optimale

65
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

2.6 Conclusion
Dans ce chapitre, nous avons presenté le problème d’ordonnancement à une machine
avec des coûts actualisés et des paramètres incertains. Ce problème diffère des autres
problèmes d’ordonnancement conventionnels dans le fait que la notion d’optimalité or-
dinaire est remplacée par les degrés possible et nécessaire pour évaluer l’optimalité d’un
ordonnancement fixe. Le calcul du degré d’optimalité possible a été achevé en utilisant
deux approches d’optimisation basées sur un algorithme génétique et une méthode de
recherche par motifs. Dans ces approches, le formalisme lagrangien augmenté est intégré
pour supporter les contraintes non linéaires dans le contexte de la fonction objectif ori-
ginale. Cette intégration permet une meilleure gestion de la procédure de recherche dans
les régions des solutions faisables.
L’évaluation des performances des approches proposées a été caractérisée par l’ana-
lyse de l’effet de quelques paramètres sur la qualité des solutions obtenues. En effet, nous
avons trouvé que la majorité du temps de calcul est consommée dans la recherche de ré-
gion faisable, ce qui reflète la difficulté de satisfaire les contraintes non linéaires. Les ap-
proches proposées peuvent être considérées comme des candidates prometeuses pour la
résolution des problèmes d’ordonnancement plus compliqués lorsque les données sont
sujettes à des sources d’incertitude.
Dans cette recherche, nous avons focalisé les efforts sur la quantification de la notion
d’optimalité pour un ordonnancement bien défini dans un contexte flou. Il serait intéres-
sant de pousser l’analyse vers la considération d’aspect combinatoire de l’ordonnance-
ment et d’exploiter l’existence de problèmes ayant une complexité polynômiale. Un autre
axe de recherche qui mérite d’être entamer est de voir le comportement des solutions
optimales sous l’effet de contraintes agissant sur les durées opératoires des tâches sans
négliger les conséquences sur les procédures de simulation associées.

2.7 Références
A HMADIZAR , F. et L. H OSSEINI. 2011, «Single-machine scheduling with a position-based
learning effect and fuzzy processing times», The International Journal of Advanced Ma-
nufacturing Technology, vol. 56, no 5, p. 693–698. 43

A HMADIZAR , F. et L. H OSSEINI. 2013, «Minimizing makespan in a single-machine sche-


duling problem with a learning effect and fuzzy processing times», The International
Journal of Advanced Manufacturing Technology, vol. 65, no 1, p. 581–587. 43

A RTIGUES , C., S. D EMASSEY et E. N RON. 2008, Resource-constrained project scheduling


models, algorithms, extensions and applications, Wiley Press. 47, 59

B AKER , K. R. et D. T RIETSCH. 2009, Principles of sequencing and scheduling, Wiley Press.


41

B ŁA ŻEWICZ , J., K. H. E CKER, E. P ESCH, G. S CHMIDT et J. W EGLARZ. 2007, Handbook on


scheduling from theory to applications, Springer Press. 47

C AO, C., X. G U et Z. X IN. 2009, «Chance constrained programming models for refinery
short-term crude oil scheduling problem», Applied Mathematical Modelling, vol. 33,
no 3, p. 1696–1707. 42

66
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

C ASTILLO, O. et P. M ELIN. 2009, Soft computing models for intelligent control of non-linear
dynamical systems,, chap. 4, in W. Mitkowski et J. Kacprzyk (eds.), Modelling dynamics
in processes and systems, Springer. 55

C HANAS , S. et A. K ASPERSKI. 2001, «Minimizing maximum lateness in a single machine


scheduling problem with fuzzy processing times and fuzzy due dates», Engineering Ap-
plications of Artificial Intelligence, vol. 14, no 3, p. 377–386. 43

C HANAS , S. et A. K ASPERSKI. 2004, «Possible and necessary optimality of solutions in the


single machine scheduling problem with fuzzy parameters», Fuzzy Sets and Systems,
vol. 142, no 3, p. 359–371. 43, 64

C HRYSSOLOURIS , G. 2006, Manufacturing systems : theory and practice, Springer Press. 41

C HUANG , T. N. 2004, «The edd rule for fuzzy job time», Journal of Information and Opti-
mization Sciences, vol. 25, no 1, p. 1–20. 43

C OELLO C OELLO, C. A. 2002, «Theoretical and numerical constrainthandling techniques


used with evolutionary algorithms : a survey of the state of the art», Computer Methods
in Applied Mechanics and Engineering, vol. 191, no 11-12, p. 1245–1287. 55

C ONN , A. R., N. G OULD et P. L. T OINT. 1997, «A globally convergent lagrangian barrier al-
gorithm for optimization with general inequality constraints and simple bounds», Ma-
thematics of Computation, vol. 66, no 217, p. 261–288. 56

C OSTA , L., I. A. C. P. E SPRITO S ANTO et E. M. G. P. F ERNANDES. 2012, «A hybrid gene-


tic pattern search augmented lagrangian method for constrained global optimization»,
Applied Mathematics and Computation, vol. 218, no 18, p. 9415–9426. 59

D AHAL , K. P., K. C. TAN et P. I. C OWLING. 2007, Evolutionary scheduling, Springer Press.


41

D EB , K. et S. S RIVASTAVA. 2012, «A genetic algorithm based augmented lagrangian method


for constrained optimization», Computational Optimization and Applications, vol. 53,
no 3, p. 869–902. 58

D ONG , Y. 2003, «One machine fuzzy scheduling to minimize total weighted tardiness, ear-
liness, and recourse cost», International Journal of Smart Engineering System Design,
vol. 5, no 3, p. 135–147. 41

D UBOIS , D. et H. P RADE. 1988, Possibility theory an approach to computerized processing


of uncertainty, Plenum Press. 46

D UENAS , A. et D. P ETROVIC. 2008, «Multi-objective genetic algorithm for single machine


scheduling problem under fuzziness», Fuzzy Optimization and Decision Making, vol. 7,
no 1, p. 87–104. 42

G AWIEJNOWICZ , S. 2008, Time-dependent scheduling, Springer Press. 47

G EORGESCU , I. 2012, Possibility theory and the risk, Springer Press. 46

G HRAYEB , O. A. 2003, «A bi-criteria optimization : minimizing the integral value and


spread of the fuzzy makespan of job shop scheduling problems», Applied Soft Com-
puting, vol. 2/3F, p. 197–210. 60

67
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

G LOVER , F. et G. A. KOCHENBERGER. 2003, Handbook of metaheurustics, Kluwer Press. 56

G UPTA , S. K. et J. K YPARISIS. 1987, «Single machine scheduling research», Omega The In-
ternational Journal of Management Science, vol. 15, no 3, p. 207–227. 41

H AN , S., H. I SHII et S. F UJI. 1994, «One machine scheduling problem with fuzzy due
dates», European Journal of Operational Research, vol. 79, no 1, p. 1–12. 42

H ARE , H. et H. S ONG. 2016, «On the cardinality of positively linearly independent sets»,
Optimization Letters, vol. 10, no 4, p. 649–654. 58

H ARIKRISHNAN , K. K. et H. I SHII. 2005, «Single machine batch scheduling problem with


resource dependent setup and processing time in the presence of fuzzy due date»,
Fuzzy Optimization and Decision Making, vol. 4, no 2, p. 141–147. 42

J AMISON , K. D. 1998, Modeling uncertainty using probabilistic based possibility theory


with applications to optimization, thèse de doctorat, Université de Colorado. 46

K ASPERSKI , A. 2005, «A possibilistic approach to sequencing problems with fuzzy para-


meters», Fuzzy Sets and Systems, vol. 150, no 1, p. 77–86. 44

K ASPERSKI , A. et P. Z IEŁI ŃSKI. 2011, «Possibilistic minmax regret sequencing problems


with fuzzy parameters», IEEE Transactions on Fuzzy Systems, vol. 19, no 6, p. 1072–1082.
44

K LIR , G. J. et B. Y UAN. 1995, Fuzzy sets and fuzzy logic theory and applications, Prentice
Hall Press. 44

K ROLL , A. et H. S CHULTE. 2014, «Benchmark problems for nonlinear system identification


and control using soft computing methods : need and overview», Applied Soft Compu-
ting, vol. 25, p. 496–513. 55

L EUNG , J. Y. T. 2004, Handbook of scheduling algorithms, models,and performance ana-


lysis, CRC Press. 41

L EWIS , R. M. et V. T ORCZON. 1999, «Pattern search algorithms for bound constrained mi-
nimization», SIAM Journal on Optimization, vol. 9, no 4, p. 1082–1099. 58

L EWIS , R. M., V. T ORCZON et M. W. T ROSSET. 2000, «Direct search methods :then and
now», Journal of Computational and Applied Mathematics, vol. 124, no 1-2, p. 191–207.
58

L I , J., X. Y UAN, E. S. L EE et D. X U. 2011, «Setting due dates to minimize the total weighted
possibilistic mean value of the weighted earliness-tardiness costs on a single machine»,
Computers and Mathematics with Applications, vol. 62, no 11, p. 4126–4139. 44

L IAO, L. M. et C. J. L IAO. 1998, «Single machine scheduling problem with fuzzy due date
and processing time», Journal of the Chinese Institute of Engineers, vol. 21, no 2, p. 189–
196. 42

L IU , H. C. et Y. Y IH. 2013, «A fuzzy-based approach to the liquid crystal injection sche-


duling problem in a tft-lcd fab», International Journal of Production Research, vol. 51,
no 20, p. 6163–6181. 42

68
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

L ODWICK , W. A. et J. K ACPRZYK. 2010, Fuzzy optimization recent advances and applica-


tions, Springer Press. 46

L OPEZ , P. et F. R OUBELLAT. 2000, Ordonnancement de la production, Editions Lavoisier.


57

M ICHALEWICZ , Z. 1998, Genetic Algorithms + Data Structures = Evolution Programs, Sprin-


ger Press. 57

N GUYEN , H. T. 1978, «A note on the extension principle for fuzzy sets», Journal of Mathe-
matical Analysis and Applications, vol. 64, no 2, p. 369–380. 45

N IKULIN , Y. et A. D REXL. 2010, «Theoretical aspects of multicriteria flight gate scheduling :


deterministic and fuzzy models», Journal of Scheduling, vol. 13, no 3, p. 261–280. 42

N OCEDAL , J. et S. J. W RIGH. 1999, Numerical optimization, Springer Press. 55

O LARU , D. et B. S MITH. 2005, «Modelling behavioural rules for daily activity scheduling
using fuzzy logic», Transportation, vol. 32, no 4, p. 423–441. 42

Ö ZELKAN , E. C. et L. D UCKSTEIN. 1999, «Optimal fuzzy counterparts of scheduling rules»,


European Journal of Operational Research, vol. 113, no 3, p. 593–609. 43

P ETROVIC , S., D. P ETROVIC et E. B URKE. 2011, Fuzzy logic-based production scheduling


and rescheduling in the presence of uncertainty,, chap. 20, in K. G. Kempf, (eds.), Plan-
ning production and inventories in the extended enterprise,Springer. 42

P INEDO, M. L. 2012, Scheduling theory, algorithms, and systems, Springer Press. 47

P RADE , H. 1979, «Using fuzzy set theory in a scheduling problem : a case study», Fuzzy
Sets and Systems, vol. 2, no 2, p. 153–165. 42

R AHIM , M. A., H. M. K HALID et A. K HOUKHI. 2012, «Nonlinear constrained optimal


control problem : a pso-ga-based discrete augmented lagrangian approach», The In-
ternational Journal of Advanced Manufacturing Technology, vol. 62, no 1, p. 183–203.
58

R OCHA , A. M. A. C., T. F. M. C. M ARTINS et E. M. G. P. F ERNANDES. 2011, «An augmented


lagrangian fish swarm based method for global optimization», Journal of Computatio-
nal and Applied Mathematics, vol. 235, no 16, p. 4611–4620. 58

R OTHKOPF, M. H. 1966, «Scheduling independent tasks on parallel processors», Manage-


ment Science, vol. 12, no 5, p. 437–447. 47

S AIDI M EHRABAD, M. et A. PAHLAVANI. 2009, «A fuzzy multi-objective programming for


scheduling of weighted jobs on a single machine», The International Journal of Advan-
ced Manufacturing Technology, vol. 45, no 1-2, p. 122–139. 43

S CHULTMANN , F., M. F RÖHLING et O. R ENTZ. 2006, «Fuzzy approach for production plan-
ning and detailed scheduling in paints manufacturing», International Journal of Pro-
duction Research, vol. 44, no 8, p. 1589–1612. 42

S IVANANDAM , S. N., S. S UMATHI et S. N. D EEPA. 2007, Introduction to fuzzy logic using


MATLAB, Springer Press. 44

69
Chapitre 2. Problèmes d’ordonnancement à une machine avec coûts
actualisés et paramètres incertains

S RIVASTAVA , S. et K. D EB. 2010, A genetic algorithm based augmented Lagrangian method


for computationally fast constrained optimization,, in Panigrahi, B. K. and Das, S. and
Suganthan, P. N. and Dash, S. S. (eds.), Swarm, evolutionary, and memetic computing.
Springer. 55

S TANFIELD, P. M., R. E. K ING et J. A. J OINES. 1996, «Scheduling arrivals to a production


system in a fuzzy environment», European Journal of Operational Research, vol. 93,
no 1, p. 75–87. 42

TALBI , E. G. 2013, «Combining metaheuristics with mathematical programming,


constraint programming and machine learning», 4OR A Quarterly Journal of Operations
Research, vol. 11, no 2, p. 101–150. 58

T ORCZON , V. 1997, «On the convergence of pattern search algorithms», SIAM Journal on
Optimization, vol. 7, no 1, p. 1–25. 58

WANG , C., D. WANG, W. H. I P et D. W. Y UEN. 2002, «The single machine ready time sche-
duling problem with fuzzy processing times», Fuzzy Sets and Systems, vol. 127, no 2, p.
117–129. 42

W ONGA , B. K. et V. S. L AI. 2011, «A survey of the application of fuzzy set theory in pro-
duction and operations management : 1998-2009», International Journal of Production
Economics, vol. 129, no 1, p. 157–168. 60

W U , C. C. et W. C. L EE. 2005, «A single-machine group schedule with fuzzy setup and


processing times», Journal of Information and Optimization Sciences, vol. 26, no 3, p.
683–691. 43

W U , H. C. 2010, «Solving the fuzzy earliness and tardiness in scheduling problems by


using genetic algorithms», Expert Systems with Applications, vol. 37, no 7, p. 4860–4866.
43

Z ADEH , L. A. 1965, «Fuzzy sets», Information and Control, vol. 8, no 3, p. 338–353. 41

Z ADEH , L. A. 1978, «Fuzzy sets as a basis for a theory of possibility», Fuzzy Sets and Sys-
tems, vol. 1, p. 3–28. 46

Z IMMERMANN , H. J. 1985, Fuzzy sets theory and applications, Kluwer Press. 44

70
Chapitre 3

Problèmes d’ordonnancement à une


machine avec effet d’apprentissage et
paramètres incertains

« As far as the laws of mathematics


refer to reality, they are not certain ;
and as far as they are certain, they
do not refer to reality »

Albert Einstein

Sommaire
3.1 Introduction et état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.2 Présentation du cadre de modélisation floue . . . . . . . . . . . . . . . . . 77
3.3 Métaheuristiques à base de trajectoire . . . . . . . . . . . . . . . . . . . . 80
3.3.1 Recherche tabou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.3.2 Recuit simulé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.3.3 Recherche kangourou . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.4 Algorithme polynômial pour le problème d’ordonnancement à une ma-
chine avec effet d’apprentissage et durées opératoires floues . . . . . . . 86
3.4.1 Optimalité du problème d’ordonnancement à une machine avec
effet d’apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.4.2 Optimalité du problème d’ordonnancement à une machine avec
effet d’apprentissage et durées opértoires floues . . . . . . . . . . . 89
3.5 Approches d’optimisation pour le problème d’ordonnancement à une
machine avec dates de disponibilité floues, durées opératoires floues et
effet d’apprentissage à base de position . . . . . . . . . . . . . . . . . . . . 93
3.5.1 Formulation du problème d’ordonnancement . . . . . . . . . . . . . 93
3.5.2 Procédure de génération des jeux tests . . . . . . . . . . . . . . . . . 94
3.5.3 Évaluation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.7 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

71
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

72
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

3.1 Introduction et état de l’art

Il n’y a pas de doute qu’un grand nombre de travaux est publié relativement au pro-
blèmes d’ordonnancement déterministes et en particulier les problèmes d’ordonnance-
ment à une machine. Malgré que le traitement de ces problèmes date de plusieurs dé-
cennies [P INEDO, 2012], plusieurs améliorations continuent d’avoir lieu en considérant
les nouvelles contraintes technologiques de nos jours. Cette tendance peut être expliquée
d’un point de vue théorique par le fait que les connaissances cumulées sur les modèles
d’ordonnancement à une machine permettent une compréhension profonde pour les
problèmes d’ordonnancement plus compliqués tels que les environnements job shop ou
à machines parallèles. Donc, les propositions disponibles peuvent être étendues et ouvrir
de futurs axes de recherche. D’un point de vue pratique, les systèmes de production dans
certaines industries se comportent comme une ressource unique de service qui opère sur
un produit à la fois mais d’une façon séquentielle pour le plan de production composé de
plusieurs produits. En outre, dans quelques situations, où plusieurs machines existent,
l’une de ces machines connue sous le nom de goulot d’étranglement domine les autres
phases du processus. Toute procédure d’amélioration doit être concentrée en premier sur
cette machine si les performances globales sont à augmenter. Sachant que plusieurs pro-
blèmes d’ordonnancement existant en pratique sont des problèmes NP-difficiles, dans
le sens que la complexité de calcul de résolution croît exponentiellement en fonction de
la taille du problème, plus d’efforts sont réservés à l’élaboration d’heuristique où d’ap-
proches évolutionnaires permettant d’avoir des solutions proches de l’optimale [G LOVER
et KOCHENBERGER, 2003].
Dans plusieurs configurations d’ordonnancement réelles, la capacité de production
des différentes ressources (en particulier les ressources humaines) à exécuter des tâches
bien déterminées (planification de la maintenance, manipulation de logiciel) augmente
d’une façon continue avec le temps. Souvent ceci peut être observé dans les compagnies
avec des tâches similaires exécutées sur une machine ou machines parallèles identiques
pour un nombre de clients. À un niveau de base, ceci est reflété par des durées opé-
ratoires qui se réduisent lorsque les tâches associées sont placées en aval qu’en amont
dans le plan d’ordonnancement. Mathématiquement, ce phénomène connu sous le nom
d’effet d’apprentissage est exprimé par une fonction décroissante pour les durées opéra-
toires. Une représentation graphique nommée par les courbes d’apprentissage a été in-
troduite par Wright en 1936 pour analyser les coûts directs de production dans l’industrie
des avions, où les coûts de travail par unité diminuent avec l’augmentation du nombre
d’avions produits [W RIGHT, 1936]. Ces courbes décrivent l’amélioration de performance
comme une fonction de la reoccurrence de la même tâche. Par la suite, les courbes d’ap-
prentissage ont été utilisées dans multitudes domaines d’applications ( [Y ELLE, 1979] et
[W OODS et collab., 1992]). La première étude intégrant l’effet d’apprentissage dans les
problèmes d’ordonnancement est due à Meilzson et Tamir, où ils ont considéré un en-
semble de tâches avec des unités décroissantes à exécuter sur des processeurs parallèles
identiques [M EILIJSON et TAMIR, 1984]. Le travail pionnier de Biskup était le premier à
présenter l’effet d’apprentissage dans le contexte d’ordonnancement à une machine en
supposant que le temps de production d’un composant décroit en fonction de la posi-
tion de la tâche dans la séquence. Il a également prouvé que la minimisation de la somme
des durées de séjour des tâches ainsi que la minimisation de la somme des déviations
des dates de fin des tâches par rapport à une date échue connue sont toutes les deux
de complexité polynômiale [B ISKUP, 1999]. Par contre, Mosheiov a démontré à travers
des exemples numériques que plusieurs règles classiques d’ordonnancement telles que

73
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

l’algorithme de Smith ou Moore ne donne pas des solutions optimales sous l’hypothèse
d’effet d’apprentissage. Donc, il est possible de développer des heuristiques pour les pro-
blèmes modifiés en se basant sur les solutions optimales du problème classique comme
solution initiale [M OSHEIOV, 2001]. Bachman et Janiak ont montré que quelques cas par-
ticuliers du problème de minimisation de la somme pondérée des dates de fin des tâches
avec effet d’apprentissage sont polynômiaux. Par exemple, lorsque toutes les tâches ont
la même durée opératoire ou lorsque les poids sont un multiple de la durée opératoire.
Ils ont prouvé aussi que le problème de minimisation du makespan avec des dates de
disponibilité est au moins NP-difficile mais la procédure de démonstration reste à vé-
rifier car quelques commentaires ont été mentionnées après par Rudek ( [B ACHMAN et
J ANIAK, 2004] et [RUDEK, 2013]). Par la suite, les efforts sont concentrés sur les cas polynô-
miaux des problèmes d’ordonnancement où plusieurs auteurs ont proposé des nouveaux
modèles d’effet d’apprentissage et ont déterminé l’ensemble des conditions à satisfaire
par les paramètres de configuration de telle sorte que l’application des règles conven-
tionnelles reste une procédure de résolution valide. Kuo et Yang ont introduit un effet
d’apprentissage qui dépend du temps comme étant une fonction de la somme des durés
opératoires des tâches ordonnancées en amont. Ils ont montré que la minimisation de la
somme des dates de fin sur une machine admet la séquence obtenue par la règle Délai de
Fabrication le plus Court comme solution optimale [K UO et YANG, 2006]. Wu et Lee ont
présenté un modèle d’apprentissage où la durée opératoire de la tâche actuelle dépend de
sa position ainsi que de la somme des durées opératoires des tâches déjà ordonnancées.
Le makespan et la somme des dates de fin d’exécution peuvent être résolues à l’optima-
lité si les durées opératoires et les poids sont liés par une contrainte d’agréabilité [W U
et L EE, 2008]. Janick et Rudek ont proposé un effet d’apprentissage à multi-capacité dans
lequel le processeur obtient seulement les capacités ou bien les expériences. Les auteurs
ont étudié le problème de minimisation du makespan et ont élaboré un algorithme de
résolution de complexité polynômiale [J ANIAK et RUDEK, 2010]. Yin et ses collègues ont
développé un modèle d’ordonnancement général avec effet d’apprentissage dépendant
de la position et effet de détérioration dépendant du temps. Plusieurs critères d’ordon-
nancement à une machine ont été considérés par les auteurs et quelques règles ont été
prouvées d’être optimales sous quelques conditions spécifiques. Des algorithmes d’ap-
proximations ont été également proposés pour la classe des problèmes à complexité ou-
verte [Y IN et collab., 2012]. Dans [L AI et L EE, 2013], un nouveau modèle considérant les
effets d’apprentissage et d’oublie a été décrit. Les auteurs ont prouvé que l’application de
la règle Délai de Fabrication le plus Court donne des solutions optimales pour le makes-
pan et la somme des dates de fin d’exécution. De plus, la règle Délai de Fabrication le plus
Court Pondéré (en anglais WSPT) donne une solution optimale pour la somme pondé-
rée des dates de fin et la règle Délais de Livraison le plus Proche (en anglais EDD) donne
une solution optimale pour les critères maximum retard algébrique, maximum retard ab-
solu et somme des retards absolus sous quelques contraintes d’agréabilité. Néanmoins,
il est à noter qu’il existe moins de travaux dédiés à l’étude des versions NP-difficiles de
ce type de problème. Eren a développé un modèle de programmation non linéaire pour
le problème d’ordonnancement à une machine avec dates de disponibilité différentes et
effet d’apprentissage. Il a montré en utilisant des tests numériques que le modèle pro-
posé peut résoudre des instances de taille allant jusqu’à trente tâches d’une façon effi-
cace [E REN, 2009]. Wu et ses collègues ont considéré un problème d’ordonnancement
à une machine avec effet d’apprentissage basé sur la somme des durées opératoires et
données de disponibilité pour minimiser la somme pondérée des dates de fin d’exécu-
tion. Les auteurs ont développé des approches par séparation et évaluation et algorithme

74
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

génétique pour obtenir des solutions acceptables où les résultats ont montré que l’ap-
proche par séparation et évaluation a des bonnes performances jusqu’à quinze tâches et
l’erreur relative moyenne de l’algorithme génétique est tolérable [W U et collab., 2011].
Yin et ses collègues ont abordé la minimisation de la somme des retards avec des dates de
disponibilité arbitraires et effet d’apprentissage de position. Comme ce problème est NP-
difficile, un modèle de programmation linéaire mixte en nombres entiers et une procé-
dure par séparation et évaluation avec des règles de dominance et bornes inférieures ont
été proposés pour obtenir une solution optimale [Y IN et collab., 2014]. Pour une étude
détaillée sur la complexité des problèmes d’ordonnancement avec différents types d’effet
d’apprentissage, le lecteur peut consulter la référence [B ISKUP, 2008].

Un autre facteur qui peut altérer non pas seulement les durées opératoires des tâches
mais aussi la totalité de la stratégie d’ordonnancement est l’existence de plusieurs sources
d’incertitudes internes et externes du système de production. Dans la pratique, les durées
opératoires sont souvent estimées relativement à deux règles : les durées opératoires as-
sociées à des tâches de même type et si ce type n’existe pas (nouveau produit) il faut opter
pour l’estimation basée sur des tâches un peu similaires. Le problème majeur confronté
dans ce cas réside dans le fait que les durées opératoires des tâches dépendent de plu-
sieurs éléments contenant l’aspect subjectif qu’on ne peut pas évaluer d’une façon pré-
cise. Par exemple, les temps de configurations dépendant de la séquence dans la produc-
tion de peintures ont une influence importante sur la conformité de la couleur aux be-
soins. Plusieurs contraintes environnementales comme la régulation de la température
peuvent aussi générer des incertitudes avec impact sur le processus de production et en
particulier sa durée [S CHULTMANN et collab., 2006]. Pour cela, la théorie des ensembles
flous a été adoptée par plusieurs chercheurs comme le pilier de construction d’un nou-
veau paradigme représenté par les modèles d’ordonnancement flous. Ce type d’ordon-
nancement avec durées opératoires floues a été abordé initialement par Prade qui a pu-
blié un article dans ce domaine. Il a affecté des nombres flous triangulaires aux durées
des cours pour élaborer le calendrier trimestriel dans une grande école française [P RADE,
1979]. Après, le concept flou a été diffusé aux différents niveaux motivé par les pertur-
bations dans les marchés de nos jours. Liao et Liao ont considéré un problème d’ordon-
nancement à une machine avec durées opératoires et dates échues floues représentées
par des nombres flous triangulaires et trapézoïdaux respectivement. Ils ont proposé des
algorithmes de complexité polynômiale pour maximiser le degré minimum de satisfac-
tion [L IAO et L IAO, 1998]. Dans [C HANAS et K ASPERSKI, 2001], il a été illustré que si la
fonction coût est F-monotone, la généralisation de l’algorithme de Lawler peut être uti-
lisée pour résoudre plusieurs problèmes d’ordonnancement avec des durées opératoires
ou dates échues floues. Le problème de maximisation du degré de possibilité que le maxi-
mum flou du retard algébrique n’est pas supérieure à un certain seuil flou donné par des
experts a été également introduit. Wang et ses collègues ont utilisé le principe d’extension
et le concept de profil d’achèvement probable de tâche pour maximiser le temps de dis-
ponibilité commun avec durées opératoires floues et sous des conditions particulières.
Ils ont établit une condition nécessaire que la solution optimale doit satisfaire lorsque les
tâches ont différentes dates échues et intervalles de confiances [WANG et collab., 2002].
L’article de Dong a été consacré à une approche d’ordonnancement à deux phases pour
résoudre un problème à une machine avec l’objectif de minimiser une combinaison de
la somme pondérée des retards absolus, la somme pondérée des avances et la somme
pondérée des coûts de recours. Il a représenté les durées opératoires incertaines par des
nombres flous triangulaires et les a interprété comme étant des distributions de possibi-
lité [D ONG, 2003]. Chanas et Kasperski ont supposé que les paramètres des problèmes

75
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

d’ordonnancement flous sont mal-connus et ont introduit le concept d’optimalité pos-


sible et nécessaire exprimant la possibilité et la nécessité que l’événement "Un ordonnan-
cement donné est optimal au sens ordinaire" [C HANAS et K ASPERSKI, 2004]. Wu et Lee
ont considéré un problème d’ordonnancement de groupe à une machine où les durées
opératoires et les temps de configurations des groupes sont traités comme des nombres
flous. Des procédures de résolution sont proposées pour trouver une séquence de groupe
et une séquence de tâches qui minimisent les valeurs centroïdes de ces tâches pour que
le temps total de séjour flou puisse être calculé pour la décision [W U et L EE, 2005]. Li
et ses collègues ont abordé un problème d’ordonnancement pour l’affectation des dates
échues à une machine avec durées opératoires incertaines et des contraintes de précé-
dence générales entre tâches. Ils ont montré que si les contraintes de précédence géné-
rales sont incluses, le problème est NP-difficile. Autrement, si ces contraintes sont élimi-
nées ou ayant une structure arborescente alors le problème est polynômial [L I et collab.,
2010]. Dans [W U, 2010], l’auteur a exploité la minimisation de la somme pondérée de
l’avance flou et le retard absolu flou à travers le concept de l’addition entre les nombres
flous où les durées opératoires et les dates échues sont supposées des nombres flous. Un
algorithme génétique a été proposé pour résoudre ce problème. Kasperski et Ziełiński ont
modélisé l’incertitude par le biais des intervalles flous où les fonctions d’appartenances
sont données par des distributions de possibilité pour les valeurs des paramètres. Les au-
teurs ont représenté un cadre général pour les problèmes de séquencement avec critère
du regret minmax en utilisant la théorie de possibilité et ont proposé quelques méthodes
pour résoudre les problèmes NP-difficiles flous [K ASPERSKI et Z IEŁI ŃSKI, 2011]. Malgré
le nombre croissant des travaux disponibles sur l’effet d’apprentissage et modélisation
floue des problèmes d’ordonnancement, il est clair que les contributions relatives à la
considération simultanée d’effet d’apprentissage à base de position et durées opératoires
floues dans le même modèle sont à nos connaissances très rares. Ahmadizar et Hosseini
ont proposé plusieurs procédures polynômiales de résolution basées sur la règle Délai de
Fabrication le plus Court, programmation sous contraintes probabilistes floues et classe-
ment des nombres flous où les critères d’optimisation sont la minimisation de la somme
des dates de fin et le makespan ( [A HMADIZAR et H OSSEINI, 2011] et [A HMADIZAR et H OS -
SEINI , 2013]).

Comme l’application des approches classiques d’ordonnancement résulte en des so-


lutions sous optimales ou non faisables lorsque l’effet d’apprentissage ou bien données
incertaines sont présents, le travail présenté dans ce chapitre vise deux objectifs essen-
tiels. En premier, nous allons développer un algorithme polynômial pour minimiser la
somme pondérée des dates de fin d’exécution des tâches lorsque les deux aspects sont
considérés à la fois. Mais dans ce cas, le concept d’agréabilité floue doit être satisfait
pour préserver la validité des conditions d’optimalité classiques. Par la suite, lorsque ce
concept n’est pas vérifié avec la présence de différentes dates de disponibilité, une ana-
lyse numérique comparative entre trois métaheuristiques à base de trajectoire (le recuit
simulé, la recherche tabou et la recherche kangourou) sont implémentées pour l’obten-
tion de solutions acceptables. Les tests numériques sont consolidés par une validation
statistique pour évaluer les performances de chaque méthode.
Le reste de ce chapitre est organisé comme suit. La Section 3.2 présente les définitions
de base et les concepts de la théorie des ensembles flous. La Section 3.3 est dédiée à la
présentation de différentes métaheuristiques à base de trajectoire et les étapes de leur
élaboration sont également détaillées. Dans la Section 3.4, nous introduisons le concept
d’agréabilité et nous étendons la règle de Smith pour le cas avec effet d’apprentissage et
durées opératoires floues. Les expérimentations numériques basées sur ces trois méta-

76
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

heuristiques sont décrites avec une analyse statistique dans la Section 3.5. La dernière
Section est destinée à la discussion des résultats obtenus sans oublier quelques sugges-
tions pour des futurs développements.

3.2 Présentation du cadre de modélisation floue


Dans la plus part des applications réelles, les processus de prise de décision né-
cessitent souvent la manipulation de données numériques dans un environnement
incertain ou sous manque d’informations. Il est primordial de mentionner que les varia-
tions probabilistes ne sont pas la source unique d’imprécision qui doit être supportée.
D’autres sources peuvent être considérées comme générateurs d’incertitude telles que
les capteurs d’acquisions bruités ou les préférences subjectives humaines. Alors, les
mesures de performances comme l’utilité espérée sont représentées en utilisant des
modèles flous dans lesquels la comparaison de quantités incertaines devient un obstacle
ardu à contourner. Dans cette section, nous présentons les idées de base des ensembles
et nombres flous où quelques définitions sont extraites partiellement des références
( [K LIR et Y UAN, 1995], [R OSS, 2004], [H ANSS, 2005] et [S IVANANDAM et collab., 2007]).

Un nombre flou est un sous ensemble flou de la ligne réelle R avec des fonctions d’ap-
partenance continues et convexes. L’espace des nombres flous est noté par F. En général,
un nombre flou est défini uniquement sur un sous ensemble X ⊆ R connu sous le nom de
l’univers de discours.

Définition 3.1. Pour un nombre flou donné Ã = (a, b, c, d ) ∈ F, sa fonction d’appartenance


possède les propriétés suivantes :

µ (x) si a ≤ x ≤ b
 L


 Ã




 1 si b ≤ x ≤ c


µÃ (x) = (3.1)
µR (x) si c ≤ x ≤ d





 Ã




0 aut r ement

avec µL et µR sont des fonctions monotones, continues et strictement croissante (décrois-


à Ã
sante) définies sur R dans l’intervalle fermé [0, 1].

À cause de la tendance monotone des deux fonctions, leurs fonctions inverses existent et
sont aussi monotones.

Définition 3.2. Pour tout nombre réel γ ∈ [0, 1], la coupe γ de à notée par A γ est donnée
¡ ¢

par :

A γ = x ¯µÃ (x) ≥ γ ∀x ∈ X
¡ ¢ © ¯ ª
(3.2)

La ¢ ¡ γ¢¤résultante est
£ ¡coupe ¡ ¢un intervalle compact
ª exprimé sous
© ¯forme paramétrique
par A γ , Ā γ ⊆ R avec A γ = inf x µÃ (x) ≥ γ et Ā γ = sup x ¯µÃ (x) ≥ γ . Ici, nous
© ¯ ¡ ¢ ª
¯
x∈X x∈X
distinguons deux cas limites lorsque γ = 0 et γ = 1. Le premier cas limite est le support
de à défini par supp à = x ¯µÃ (x) ≥ 0 avec {} signifie la fermeture de l’ensemble
¡ ¢ © ¯ ª

77
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

x ¯µÃ (x) ≥ 0 . Le deuxième cas limite est le noyau de à défini par ker à = x ¯µÃ (x) = 0 .
© ¯ ª ¡ ¢ © ¯ ª

Le Théorème de représentation de Zadeh permet de représenter à par [Z ADEH, 1971] :

∪ γA γ
¡ ¡ ¢¢
à = (3.3)
γ∈[0, 1]

avec

¡ ¢  γ si x∈A γ
 ¡ ¢

γA γ =
x∉A γ
¡ ¢
0 si

Nous concluons de ce Théorème que si toutes les coupes γ d’un nombre flou peuvent
être déterminées, le nombre flou est complètement défini. Donc, il y a une équivalence
entre un nombre flou et ses coupes γ pour γ ∈ [0, 1].
Dans [M ATARAZZO et M UNDA, 2001], il a été mentionné que la représentation L-R
des nombres flous est la forme générale la plus adoptée à cause de sa précision et faible
complexité de calcul lorsqu’elle est appliquée à des instances des problèmes réelles.

Définition 3.3. Un nombre flou noté par à = a, a, αà , βà L−R est de type L-R si sa fonction
¡ ¢

d’appartenance a la forme suivante :


 ³ a−x ´
 L αÃ

 pour − ∞ < x < a




µÃ (x) = 1 pour a < x < ā (3.4)




 ³ ´
 R x−ā

pour ā < x < +∞
βÃ

avec les paramètres αà et βà expriment les déviations gauche et droite, respectivement. Les
fonctions L et R sont des fonctions décroissantes avec L (0) = R (0) = 1.

Les nombres flous trapézoïdaux sont caractérisés par des fonctions linéaires L (R) et
a < a, tandis que les nombres flous triangulaires permettent la linéarité des fonctions L et
R avec a = a. Les£ coupes γ du nombre flou¤trapézoïdal à sont données par l’ensemble des
intervalles Aγ = a − αà + αà γ, a + βà − βà γ . En utilisant le principe d’extension de Zadeh,
il est possible de généraliser le concept d’application définie sur des ensembles réels à une
application définie sur des ensembles flous. Par conséquent les opérations arithmétiques
élémentaires peuvent être également déduites à partir des opérations simples.

Définition 3.4. Soient M, N ∈ F (R) deux nombres flous et ◦ : R × R → R une opération bi-
naire. Si nous notons par ◦˜ l’opération généralisée sur l’espace des nombres flous, alors par
application du principe d’extension, M˜◦N est donnée par un ensemble flou de R avec la
fonction d’appartenance :

si (◦)−1 (z) 6= φ 
© ¡ ¢ª
sup min M (x) , N y
 

 z=x◦y 
(M˜◦N) (z) = ∀z ∈ R (3.5)
 
0 si (◦)−1 (z) = φ
 

L’application de cette définition résulte en les expressions floues des opérations


³ binaires
´
classiques pour tout triplet de nombres flous à = a, a, αà , βà L−R , B̃ = b, b, αB̃ , βB̃
¡ ¢
et
L−R

78
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

C̃ = c, c, αC̃ , βC̃ R−L comme suit :


¡ ¢

³ ´
• à + B̃ = a + b, a + b, αà + αB̃ , βà + βB̃
L−R

• à − C̃ = a − c, a − c, αà + βC̃ , βà + αC̃ L−R


¡ ¢

λa, λa, λαA , λβA L−R pour λ ≥ 0


 ¡ ¢

• λà =
λa, λa, |λ| αA , |λ| βA L−R pour λ < 0
 ¡ ¢

Au contraire des nombres réels pour lesquelles il existe un ordre total, il est très difficile
de comparer les nombres flous représentés par des distributions de possibilité car il est
possible d’avoir un chevauchement. Mais un outil efficace consiste à utiliser les fonctions
de classement [J AIN, 1976], qui associe à chaque nombre flou un point sur la ligne réelle
R et la comparaison est rendue naturelle après cette transformation. Dépendamment de
la position relative des nombres flous, deux relations de dominance sont établies. Une
dominance forte caractérisant les nombres flous séparés et la dominance faible caracté-
risant les nombres flous avec chevauchement en utilisant une fonction de classement.
Leurs définitions formelles sont représentées ci-dessous [Ö ZELKAN et D UCKSTEIN, 1999].
Soit E : F → R une fonction de classement, Ã et B̃ sont deux nombres flous.
¡ ¢ ¡ ¢
Définition 3.5. On dit que à domine faiblement B̃© si Eª à ≥ E B̃ . La dominance faible est
notée par à ≥w B̃ et dans ce cas nous avons maxw Ã, B̃ = Ã.

Définition 3.6. On dit que à domine fortement B̃ si A γ ≥ B γ et A γ ≥ B γ pour toutes


¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢

les valeurs
© ªde γ ∈ [0, 1]. La dominance forte est notée par à ≥s B̃ et dans ce cas nous avons
maxs Ã, B̃ = Ã.

Une condition plus simple pour la dominance forte est écrite a − αà ≥ b + βB̃ , ou d’une
façon equivalente A (0) ∩ B (0) = φ.
Pour remédier les inconvénients des fonctions de classement existantes qui sont dans
certains cas en contradiction avec l’intuition humaine ou ne sont pas discriminantes,
Abasabandy et Hajjari ont proposé une nouvelle approche de classement des nombres
flous trapézoïdaux basée sur les déviations gauche et droite à une certaine coupe γ des
nombres flous trapézoïdaux [A BBASBANDY et H AJJARI, 2009]. Le principe de cette mé-
thode est décrit ci-dessous.

d’un nombre flou arbitraire à = a, a, αA , βA L−R avec forme


¡ ¢
Définition 3.7.h La magnitude
i
paramétrique A γ , A γ est définie par :
¡ ¢ ¡ ¢

Zr =1³
¡ ¢ 1 ´
A γ + A γ + a + a f (r ) d r
¡ ¢ ¡ ¢
Mag à = (3.6)
2
r =0

avec la fonction f est une fonction croissante sur [0, 1] avec f (0) = 0, f (1) = 1 et
rR=1
f (r ) d r = 21 .
r =0

Il est à mentionner que si f est prise égale à 1 et seulement les bornes des coupes γ sont

79
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

considérées alors l’expression de la magnitude se réduit à la formule proposée par Yager


[YAGER, 1981]. Si les fonctions d’appartenance sont supposées
¡ linéaires,
¢ 1 ¡ il est possible de
déduire une expression analytique donnée par Mag à = 12 a + a − 12 αà − βà .
¡ ¢ ¢

Dans ce qui suit, nous démontrons que la propriété de linéarité est valable pour la
fonction de classement magnitude dans le cas des nombres flous trapézoïdaux et coeffi-
cients réels positifs.

Propriété 3.1. La fonction de classement exprimée par la magnitude est linéaire pour tous
les nombres flous Ã, B̃ ∈ F et les réels c 1 , c 2 ∈ R dans le sens de :
©¡ ¢ ¡ ¢ª ¡ ¢ ¡ ¢
Mag c 1 ⊗ à ⊕ c 2 ⊗ B̃ = c 1 Mag à + c 2 Mag B̃ (3.7)

Démonstration.
En se basant sur les expressions floues pour la somme et la multiplication par un scalaire,
nous pouvons écrire :
©¡ ¢ ¡ ¢ª
Mag c 1 ⊗ Ã ⊕ c 2 ⊗ B̃ =
n³ ´ o
Mag c 1 a + c 2 b, c 1 a + c 2 b, c 1 αà + c 2 αB̃ , c 1 βà + c 2 βB̃
L−R
³ ´
= 21 c 1 a + c 2 b + c 1 a + c 2 b − 12
1
c 1 αà + c 2 αB̃ − c 1 βà − c 2 βB̃
¡ ¢

©1 ¡ ¢ 1 ¡ n ³ ´ ¢o
1
αà − βà + c 2 21 b + b − 12 αB̃ − βB̃
¢ª ¡
= c1 2 a + a − 12

Comme les expressions entre crochet sont les fonctions de classement


©¡ (les¢ ¡ magni-
¢ª
tudes) ¡des
¢ nombres ¡ ¢flous à et B̃, nous obtenons l’équation Mag c 1 à + c 2 B̃ =
c 1 Mag à + c 2 Mag B̃ .

3.3 Métaheuristiques à base de trajectoire


Dans cette section, nous présentons trois types de métaheuristiques à base de tra-
jectoire : recherche tabou, recuit simulé et recherche kangourou. L’avantage de ces mé-
thodes réside dans le temps de calcul acceptable car elles sont construites à la base d’une
solution en plus de la simplicité d’application des opérateurs d’évolution. Pour chaque
méthode, nous discutons le codage de l’espace de recherche et la structure du voisinage
qui joue un rôle critique dans la convergence rapide de ces approches. Les paramètres de
configuration sont aussi illustrés avec les règles adéquates pour la détermination de leurs
valeurs.

3.3.1 Recherche tabou


Le paradigme de la recherche tabou peut être considéré parmi les métaheuristiques
les plus populaires appliquées pour la résolution d’un grand nombre de problèmes d’or-
donnancement [L EE et collab., 1997]. Cette approche est une méthode de recherche ba-
sée sur une solution et a été développée par Glover. Elle constitue une extension de la
fameuse heuristique de recherche locale où une mémoire à courte terme nommée liste
tabou est ajoutée pour éviter d’être piégé dans un minimum local ( [G LOVER, 1989] et
[G LOVER, 1990]). La procédure de recherche commence avec une solution initiale fai-
sable enregistrée comme solution courante et meilleure. Ensuite, utilisant une structure

80
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

de voisinage pour obtenir les solutions candidates, elle génère un sous ensemble de so-
lutions et évalue leurs fonctions objectifs correspondantes. Le meilleur candidat non ta-
bou ou tabou mais satisfaisant le critère d’aspiration est sélectionné comme une nou-
velle solution courante et le mouvement associé est ajouté à la liste tabou gérée selon la
stratégie Premier Entré Premier Sorti (en anglais FIFO) pour que le même mouvement
soit interdit pendant un nombre fini des prochaines itérations. Sinon, choisir le premier
mouvement non tabou et le considérer comme la nouvelle solution courante. Si cette so-
lution est meilleure que la meilleure solution courante, elle est enregistrée comme nou-
velle meilleure solution. Cette procédure est répétée pour un nombre fixe d’itérations.
À la fin, la meilleure solution obtenue est la solution du problème d’optimisation [A L -
T URKI et collab., 2001]. L’Algorithme 3.1 est une description de différentes phases de la
recherche tabou.

Algorithm 3.1 Recherche tabou


DEBUT
Initialiser la liste tabou TL ← φ
Sélectionner la solution initiale x 0 arbitrairement et la considérer comme solution cou-
rante
Initialiser la meilleure solution x ∗ ← x 0
POUR (k = 1 au nombre maximum d’itérations) FAIRE
Définir le type de mouvement δ et déterminer un sous voisinage de cardinal s de la
solution courante Nδs (x k )
POUR (i = 1 à s) FAIRE
SI ( f (x i ) < f (x k )) ALORS
Ajouter les attributs du mouvement inverse à la tête de la liste tabou selon la
strategie FIFO
Mettre x k+1 ← x i
Sortir de la boucle
FIN SI
SI ( f (x i ) < f (x ∗ ) et les attributs de mouvement ne sont pas tabous) ALORS
Mettre x k+1 ← x i
Sortir de la boucle
FIN SI
FIN POUR
SI ( f (x k+1 ) < f (x ∗ )) ALORS
Mettre x ∗ ← x k+1
FIN SI
FIN POUR
Retourner la solution x ∗ comme la meilleure solution correspondante au minimum de
la fonction objectif f
FIN

Comme plusieurs paramètres affectent le processus de recherche à travers la qualité


de solution et le temps d’exécution, nous abordons dans ce qui suit les détails de l’implé-
mentation de l’approche adoptée dans ce chapitre.
• Solution initiale (x 0 ) : malgré que pour le cas des données numériques réelles, plu-
sieurs méthodes telles que les règles de répartition de priorité sont utilisées pour
obtenir une solution initiale, moins d’efforts sont alloués aux données floues. Ceci
est due au manque de connaissance sur les propriétés intrinsèques des problèmes

81
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

d’ordonnancement flous. Mais généralement, une telle situation ne pose pas de


problème sérieux car les méthodes de choix d’une solution initiale n’influent pas
généralement sur la qualité de la solution mais sur le temps de calcul. Donc, dans
notre travail la recherche est initialisée avec une solution aléatoire ;
• Génération de voisinage (Nx ) : un nouvel ensemble de solutions est obtenu de la
solution courante par application de petites perturbations et ce passage est connu
sous le nom de mouvement. Le type de mouvement doit être défini avec précision
car il existe une forte corrélation entre la structure du voisinage et l’efficacité de
la recherche. Le mouvement de permutation général (GPIM) est adopté où deux
tâches choisies arbitrairement sont permutées jusqu’à l’obtention d’un voisinage
ayant une taille prédéfinie ;
• Liste tabou (TL) : la liste tabou est définie comme étant une chaîne circulaire
avec une taille généralement fixe. Mais une étude empirique suggère l’utilisation
d’une liste tabou avec une taille dynamique pour augmenter la possibilité d’avoir
de bonnes solutions. Donc, nous suivons la même approche et nous supposons
que la taille de la liste varie aléatoirement dans l’intervalle [TLmin , TLmax ] à chaque
période finie d’itérations (TLUp ) [S ALHI, 2002]. Après chaque mouvement où les
tâches i et j occupant les positions pos i et pos j respectivement sont permutées,
les
¡¡ attributs
¢ ¡ de mouvement
¢¢ sont enregistrés dans la liste tabou dans l’ordre inverse
j , pos i , i , pos j . Chaque solution voisine créée par une permutation déjà exis-
tante dans la liste est interdite jusqu’à la satisfaction du critère d’aspiration ou la
suppression de l’état tabou ;
• Critère d’aspiration : les critères d’aspirations sont des règles qui modifient l’état
tabou d’un mouvement. Le critère basé sur la valeur de la fonction objectif est lar-
gement utilisé où un mouvement est permis s’il mène à une solution meilleure que
la meilleure solution trouvée auparavant ;
• Nombre de solutions de test (Nt r ) : nous avons fixé la taille du voisinage à (n − 1)
solutions pour permettre l’exploitation complète des possibilités en plus de l’exé-
cution rapide. En effet, des valeurs élevées pour le nombre de solutions de test
rendent la recherche basée sur l’intensification, tandis que les valeurs faibles gé-
nèrent moins de solutions voisines pour l’optimisation et la recherche est accentuée
sur la diversification ;
• Critères de terminaison : l’algorithme s’arrête lorsque un nombre maximum d’ité-
rations Imax est atteint ou la valeur de la fonction objectif est stable pour un nombre
donné d’itérations I f st ab .

3.3.2 Recuit simulé


D’une façon analogue au phénomène physique de recuit dans lequel un cristal est
chauffé et ensuite refroidi très lentement jusqu’à l’atteinte de l’état d’énergie minimale
par le réseau. Le recuit simulé a été développé comme une recherche stochastique ité-
rative pour mimer ce type de comportement thermodynamique dans l’optimisation. Les
concepts de base ont été introduits pour la première fois par Metropolis, tandis que l’ap-
plication à des problèmes apparaissant dans la conception des ordinateurs est due à Kirk-
patrick et ses collègues [K IRKPATRICK et collab., 1983]. L’algorithme commence par une
solution initiale générée aléatoirement ou selon des règles spécifiques. À chaque itération
de l’algorithme, la valeur de la fonction objectif est évaluée pour la solution courante (x k )

82
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

et la solution sélectionnée du voisinage x 0 . Si la valeur de la fonction objectif est amé-


¡ ¢

liorée alors la solution associée est toujours acceptée. Mais même pour des solutions non
améliorées, il y a une probabilité d’acceptation dépendente d’un facteur de température.
Ce mécanisme est adopté pour éviter d’être piégé dans les optimums locaux pendant le
processus de recherche. La probabilité d’acceptation est donnée par :

f (x 0 )− f (x k )
 µ ¶
 − T
f x 0 − f (x k ) > 0
¡ ¢
k
e si


P Accept er x 0 comme pr ochai ne sol ut i on =
¡ ¢

f x 0 − f (x k ) ≤ 0
 ¡ ¢
1 si

(3.8)

avec le paramètre Tk définit la température à l’itération k et ∀k Tk ≥ 0 et lim Tk = 0.


k→+∞
Il est à mentionner que la convergence du recuit simulé est assurée par la tendance dé-
croissante du paramètre de température. Par la réduction des valeurs vers zéro, la chaîne
de Markov non homogène équivalente converge vers une forme pour laquelle la probabi-
lité est concentrée sur l’ensemble des solutions optimales locales ou globales [VAN L AA -
RHOVEN et A ARTS , 1987]. Les différentes étapes du recuit simulé sont indiquées sur l’Algo-
rithme 3.2.

Algorithm 3.2 Recuit simulé


DEBUT
Construire la solution initiale x 0 et la considérer comme la solution courante
Initialiser la température à une valeur élevée T = Ti ni
Initialiser la meilleure solution x ∗ ← x 0
Définir le nombre et les longueurs des épochs
POUR (k = 1 au nombre maximum ¡ 0 d’itérations)
¢ FAIRE
Générer
¡ ¡ 0une
¢ solution¢voisine x ∈ N (x k ) utilisant un type de mouvement défini
SI ( f x − f (x k ) ≤ 0 ) ALORS
Accepter l’état nouvel x k ← x 0
¡ ¢

SINON
Générer un nombre aléatoir q ∈ [0, 1]
f (x 0 )− f (x k ))
à !

(
Tk
SI ( q< e ) ALORS

Accepter l’état nouvel x k ← x 0


¡ ¢

FIN SI
FIN SI
Mettre
¡ à jour¢ la température à chaque époch utilisant la loi de refroidissement
Tk+1 = g (Tk )
FIN POUR
Retourner la solution x ∗ comme la meilleure solution correspondante au minimum de
la fonction objectif f
FIN

Les détails les plus importants concernant l’implémentation de la technique du recuit


simulé sont donnés ci-dessous.
• Solution initiale (x 0 ) : la solution initiale est générée aléatoirement ;
• Génération de voisinage (Nx ) : le mouvement d’insertion (IM) est utilisé pour la
génération du voisinage où une tâche dans la position j est sélectionnée au hasard

83
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

ce qui permet par la suite d’avoir (n − 1) nouvelles solutions par


© l’insertion de cetteª
tâche à chaque fois dans une position des positions restantes 1, .., j − 1, j + 1, ..n ;
• Température initiale (T0 ) : si la température initiale dans le processus du recuit est
suffisamment élevée, le système peut atteindre tous les états possibles. En se basant
sur cette réalité physique, l’algorithme peut trouver une solution qui ne dépend
pas fortement de la configuration initiale. Dans ce travail et comme une première
suggestion de la température initiale, nous générons le voisinage de la solution ini-
tiale, ensuite nous calculons la différence entre les valeurs meilleure et mauvaise de
la fonction objectif. La température initiale est approximée par − ( worlog st )− f (x best ))
f (x
(p 0 )
avec p 0 la probabilité d’acceptation d’une solution médiocre ;
• Nombre d’itérations à chaque température (IT ) : il n’est pas très difficile d’assimiler
le passage d’une configuration à une autre voisine avec certaine probabilité dans le
processus du recuit à une chaîne de Markov. Alors, le nombre d’itérations à chaque
température doit être choisi avec précision. Il est important d’allouer un temps long
pour les températures faibles et un temps bref pour les températures élevés. Ceci est
fait dans le but de consolider la décroissance de taux de probabilité des solutions
avec la réduction de la température. Comme la borne supérieure peut être propor-
tionnelle à la taille du voisinage, le nombre d’itérations à chaque température est
de l’ordre de n (O(n)).
• Taux de refroidissement (r cool ) : le taux de refroidissement designe le taux de ré-
duction de la température qui est souvent modélisé comme une loi de dégradation
linéaire Tk = r cool × Tk−1 avec la pente choisie dans l’intervalle [0.8, 0.99] pour avoir
une décroissance lente de la température. Mais il existe d’autres types de refroidis-
sement analysés dans la littérature [N OURANI et A NDRESEN, 1989] ;
• Conditions d’arrêt : en plus du nombre maximum d’itérations Imax , une autre
condition est utilisée lorsque la meilleure configuration reste figée pour un nombre
spécifique de phases de réduction de la température. Cette condition est propor-
tionnelle au logarithme du cardinal de l’espace de recherche (la taille de l’espace de
toutes les permutations). Donc, une condition d’arrêt supplémentaire est la stabi-
lité de la fonction objectif pour un nombre d’itérations de l’ordre de l og (n!).

3.3.3 Recherche kangourou


La méthode kangourou est une technique d’optimisation basée sur la descente sto-
chastique. Elle consiste en l’application d’une descente aléatoire aux différentes solu-
tions prises arbitrairement dans l’espace de recherche. Cette méthode a été proposée par
Fleury en 1993 par analogie avec le recuit simulé mais utilisant une stratégie de recherche
complètement différente [F LEURY, 1993]. Dans cette approche, nous avons une solution
initiale faisable obtenue aléatoirement ou utilisant une heuristique. À chaque itération,
la structure de voisinage est exploitée dans le but d’obtenir une solution meilleure que la
solution courante. Si la meilleure solution n’est pas améliorée pendant un certain nombre
d’itérations, alors un nouveau voisinage généré après un saut de la solution courante est
exploité. L’exécution est arrêtée si le nombre maximum d’itérations est atteint ou un autre
critère d’arrêt est vérifié. À ce moment, un optimum local qui peut être proche du global
est obtenu [D UTA, 2006]. La structure générale de cette méthode est détaillée dans l’Al-
gorithme 3.3.
Les aspects élémentaires de la recherche kangourou sont clarifiés ci-dessous.

84
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

Algorithm 3.3 Recherche kangourou


DEBUT
Construire une solution initiale x 0 et la considérer comme la solution courante
Initialiser le compteur de stabilité C ← 1
Initialiser le nombre maximum d’itérations sans améliorations A
POUR (k = 1 au nombre maximum d’itérations) FAIRE
SI ((C<A)) ALORS
Appliquer la procédure de descente à la solution courante x k
SI (la valeur de la fonction objectif de la solution obtenue n’est pas changée)
ALORS
Mettre à jour la solution courante x k
Incrémenter le compteur de stabilité C ← C + 1
SINON
Mettre à jour la solution courante x k
Réinitialiser le compteur de stabilité C ← 0
FIN SI
SINON
Appliquer l’opérateur de saut à la solution courante x k
SI (la valeur de la fonction objectif de la solution obtenue n’est pas changée)
ALORS
Mettre à jour la solution courante x k
Incrémenter le compteur de stabilité C ← C + 1
SINON
Mettre à jour la solution courante x k
Réinitialiser le compteur de stabilité C ← 0
FIN SI
FIN SI
SI ( f (x k+1 ) < f (x ∗ )) ALORS
Mettre x ∗ ← x k+1
FIN SI
FIN POUR
Retourner la solution x ∗ comme la meilleure solution correspondante au minimum de
la fonction objectif f
FIN

85
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

• Solution initiale (x 0 ) : comme pour les approches précédentes, la solution initiale


est générée aléatoirement ;
• Génération de voisinage (Nx ) : pour la génération des solutions du voisinage, nous
utilisons une stratégie hybride basée sur l’exploitation alternée de deux types de
mouvement, le mouvement d’insertion et le mouvement de permutation adjacente
(IMAPIM). Cette stratégie a pour objectif d’assurer le compromis entre l’exploration
et l’exploitation. D’autre part, elle réduit le risque d’être piégé dans un optimum
local ;
¡ ¢
• Opérateur de saut Jop : l’opérateur de saut est utilisé comme un mécanisme de
diversification lorsque une valeur de la fonction objectif est dominante dans le pro-
cessus de recherche. Dans ce travail, l’opérateur 2-opt est appliqué à la solution
courante pour transférer la recherche à d’autres régions inexploitées. Pour l’opéra-
teur 2-opt, deux tâches sont tirées au hasard, les six combinaisons sont formées et
évaluées. La recherche locale est initialisée autour de la meilleure combinaison. Cet
opérateur a été également proposé dans d’autres approches d’optimisation [KOÇ,
2010] ;
• L’algorithme s’arrête lorsque le nombre d’itérations atteint la valeur maximale Imax
ou lorsque la valeur de la fonction objectif reste constante pendant un nombre don-
née d’itérations I f st ab .

3.4 Algorithme polynômial pour le problème d’ordonnan-


cement à une machine avec effet d’apprentissage et du-
rées opératoires floues
La formulation du problème d’ordonnancement avec effet d’apprentissage et durées
opératoires floues étudié est comme suit. Il existe une ressource avec capacité d’appren-
tissage (être humain ou machine intelligente) pour effectuer un ensemble de n tâches.
Chaque tâche est caractérisée par un poids noté ωi et une durée opératoire réelle p i ou
floue p̃ i selon l’environnement. Lorsque une tâche est ordonnancée à la r ème position
dans la séquence, sa durée opératoire actuelle devient p i ,r = p i r a . Le fonctionnement de
la ressource est sujet aux règles suivantes :
• Il n’y a pas de contraintes de précédence entre les tâches ;
• Les périodes de réparation et de maintenance sont négligeables ;
• Une tâche est servie à la fois ;
• La préemption d’une tâche en exécution n’est pas permise ;
• Toutes les tâches sont supposées prêtes au même temps.

La notation de Graham à trois champs α ¯β¯ γ est utilisée pour décrire les différents pro-
¯ ¯

blèmes d’ordonnancement analysés dans ce chapitre [G RAHAM et collab., 1979].

3.4.1 Optimalité du problème d’ordonnancement à une machine avec


effet d’apprentissage
Dans le cas du problème d’ordonnancement avec des données réelles et sans ef-
fet d’apprentissage, l’algorithme de Smith résout à l’optimalité ce problème à une ma-
chine avec le critère de la somme pondérée des dates de fin d’exécution en considérant

86
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

p
les tâches dans l’ordre décroissant du rapport ωi connu aussi sous le nom de la règle
i
WSPT [S MITH, 1956]. Si l’effet d’apprentissage est introduit, la règle reste valide mais
sous quelques conditions comme il est indiqué par le Théorème suivant [Z HAO et col-
lab., 2004].
¯ iP
=n
Théorème 3.1. Pour le problème 1 ¯p i ,r = p i r a ¯ ωi Ci , si les tâches ont des poids agréables
¯
i =1
i.e. p j ≤ p k implique ω j ≥ ωk pour toutes les tâches j et k, alors un ordonancement ∆ est
optimal si et seulement si les conditions suivantes sont satisfaites :
p ∆(i ) p ∆(i +1)
≤ , i = 1, ..., n − 1 (3.9)
ω∆(i ) ω∆(i +1)

Démonstration.
Necessité des conditions (⇒)
Nous considérons un ordonnancement optimal π pour lequel la règle WSPT n’est pas ap-
p p
plicable. Alors, il existe au moins i ∈ {1, ..., n − 1} tel que ωπ(i ) > ωπ(i +1) , ce qui implique
π(i ) π(i +1)
p π(i ) > p π(i +1) à cause de l’hypothèse d’agréabilité. En effectuant une permutation adja-
cente des tâches π (i ) et π (i + 1) dans π, nous obtenons un nouvel ordonnancement π0 .
Les dates de fin d’exécution ne sont pas affectées par la permutation des tâches comme
indiqué sur la Figure 3.1.

F IGURE 3.1 Application de l’argument de permutation pour les tâches aux positions i et
i + 1.

Dans le but d’évaluer la dominance de l’ordonnancement π0 par rapport à l’ordonnance-

87
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

ment π, nous procédons comme suit.


Sous l’ordonnancement π nous avons :
 a
 Ci (π) = t + p π(i ) i

Ci +1 (π) = t + p π(i ) i a + p π(i +1) (i + 1)a


Sous l’ordonancement π0 nous avons :


a
 Ci π = t + p π(i +1) i
 ¡ 0¢

Ci +1 π0 = t + p π(i +1) i a + p π(i ) (i + 1)a


 ¡ ¢

Nous calculons la différence des deux dates de fin d’exécution de tâche dans la po-
sition (i + 1) pour les deux ordonnancements :

Ci +1 π0 − Ci +1 (π) = p π(i +1) − p π(i ) i a − (i + 1)a


¡ ¢ ¡ ¢¡ ¢

Comme p π(i +1) − p π(i ) < 0 et i a − (i + 1)a > 0 alors Ci +1 π0 < Ci +1 (π), ce qui garan-
¡ ¢

tie que toutes les tâches ordonnancées après la position (i + 1) dans π0 ont des dates de
fin non supérieures à leurs dates de fin dans π. Maintenant, nous calculons la somme
pondérée des deux tâches aux positions (i ) et (i + 1) pour les deux ordonnancements :

ωπ(i +1) Ci π0 + ωπ(i ) Ci +1 π0 − ωπ(i ) Ci (π) + ωπ(i +1) Ci +1 (π) =


¡ ¡ ¢ ¡ ¢¢ ¡ ¢

ωπ(i +1) t + p π(i +1) i a + ωπ(i ) t + p π(i +1) i a + p π(i ) (i + 1)a −


¡ ¢ ¡ ¢

ωπ(i ) t + p π(i ) i a − ωπ(i +1) t + p π(i ) i a + p π(i +1) (i + 1)a


¡ ¢ ¡ ¢

Après simplification, nous obtenons :

(ωπ(i +1) Ci (π0 )+ωπ(i ) Ci +1 (π0 ))−(ωπ(i ) Ci (π)+ωπ(i +1) Ci +1 (π))


=
(ωπ(i +1) +ωπ(i ) )p π(i ) i a

ωπ(i +1) ωπ(i )


h ³ ´ ¡ ¢a i h ³ ´ ¡ ¢a i
p π(i +1) i +1 i +1
p 1 − ω +ω i − 1 − ω +ω i
π(i ) π(i +1) π(i ) π(i +1) π(i )

Comme p π(i¡) ≥ p π(i +1) ¢ ωπ(i +1) ≥ ¡ω0π(i


¡ 0et ¢¢ ) , ¡nous deduisons que la quantité suivante
est négative ωπ(i +1) Ci π + ωπ(i ) Ci +1 π − ωπ(i ) Ci (π) + ωπ(i +1) Ci +1 (π) , ce qui garantie
¢

que la contribution à la somme pondérée des dates de fin des tâches aux positions (i ) et
(i + 1) dans l’ordonnancement π0 est inférieure à leur contribution dans l’ordonnance-
ment π.
Il résulte des deux inégalités que la somme pondérée des dates de fin sous π0 est stricte-
ment inférieure à celle sous π, ce qui contredit l’optimalité de π. Donc, les conditions de
la règle WSPT sont des conditions nécessaires pour l’optimalité.
Suffisance des conditions (⇐)
Supposons qu’il existe un ordonnancement arbitraire violant l’ensemble des conditions
WSPT. Alors, il existe aux moins deux tâches consécutives dans l’ordonnancement qui
violent aussi ces conditions. Si nous effectuons une permutation locale de ces tâches,
une amélioration de la somme pondérée des dates de fin de l’ordonnancement original
aura lieu. En répétant cette procédure pour toutes les tâches non ordonnancées selon
la règle WSPT jusqu’à la stabilité de l’amélioration, nous obtenons un ordonnancement
optimal. La procédure de classement nécessite un temps de O(n × l og (n)). D’où l’en-
semble des conditions considérées sont des conditions suffisantes pour l’optimalité d’un

88
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

¯ iP
=n
ordonnancement dans le problème 1 ¯p i ,r = p i r a ¯ ωi Ci .
¯
i =1

3.4.2 Optimalité du problème d’ordonnancement à une machine avec


effet d’apprentissage et durées opértoires floues
Supposons que chaque tâche est caracterisée par une durée operatoire floue et coef-
ficient de ponderation réel. Dans le but de préserver la validité de la règle de Smith sous
paramètres incertains, nous devons en premier généraliser le concept d’agreabilité des
poids au cas flou.

Définition 3.8. On dit que des tâches ont des poids agréables flous si p̃ j ≥w p̃ i implique
que ωi ≥ ω j pour toutes les tâches i et j . On écrit mathématiquement :

∀ i , j ∈ J × J p̃ j ≥w p̃ i ⇒ ωi ≥ ω j
¡ ¢ ¡ ¢ ¡ ¢
(3.10)

avec J est l’ensemble de toutes les tâches.

Si
¡ la fonction¢ ¡de classement
¡ ¢ est ¡identifiée
¢¢ à la fonction magnitude, nous avons
p̃ j ≥w p̃ i ⇔ Mag p̃ j ≥ Mag p̃ i .
Nous proposons le théorèmeµsuivant présentant une approche polynômiale pour le pro-
iP
=n

blème 1 ¯p̃ i , p i ,r = p i r a ¯ Mag ωi ⊗ C̃i . Ce théorème peut être considérée comme une
¯ ¯
i =1
extension du Théorème 3.1 lorsque le modèle d’ordonnancement est sujet à des données
incertaines.

Théorème 3.2. Si les tâches ont des poids agréables flous i.e. p̃ k ≥w p̃ j implique que
ω j ≥ ωk pour toutes tâches arbitraires j et k, alors, l’ordonnancement Φ est optimal si et
seulement si les conditions suivantes sont satisfaites :

p̃ Φ(i ) p̃ Φ(i +1)


w ≤ , i = 1, ..., n − 1 (3.11)
ωΦ(i ) ωΦ(i +1)

Démonstration.
Necessité des conditions (⇒)
Nous démontrons la nécessité de ces conditions par contradiction. Nous supposons
qu’un ordonnancement donné π est optimal sans satisfaire ces conditions. Donc, il existe
p̃ p̃
au moins deux tâches adjacentes avec ωπ(i ) >w ωπ(i +1) , ce qui implique p π(i ) >w p π(i +1)
π(i ) π(i +1)
due à l’agréabilité floue des tâches. Si nous effectuons une permutation locale des tâches
π (i ) et π (i + 1) dans π, nous obtenons un nouvel ordonnancement :

π0 = (π (1) , ..., π (i − 1) , π (i + 1) , π (i ) , π (i + 2) , ..., π (n)).

Les dates de fin floues des tâches ordonnancées en amont de la tâche i ne sont pas
affectées par l’opération de permutation. Nous adoptons la même méthodologie que
dans le cas réel pour la vérification de la dominance de l’ordonnancement π0 par rapport
à l’ordonnancement π.
Sous l’ordonnancement π nous avons :

89
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains
 ¡ a ¢
 C̃i (π) = t̃ ⊕ i ⊗ p̃ π(i )

C̃i +1 (π) = t̃ ⊕ i a ⊗ p̃ π(i ) ⊕ (i + 1)a ⊗ p̃ π(i +1)


 ¡ ¢ ¡ ¢

et pour l’ordonnancement π0 :
¡ a
 C̃i π = t̃ ⊕ i ⊗ p̃ π(i +1)
 ¡ 0¢ ¢

C̃i +1 π0 = t̃ ⊕ i a ⊗ p̃ π(i +1) ⊕ (i + 1)a ⊗ p̃ π(i )


 ¡ ¢ ¡ ¢ ¡ ¢

Dans le but d’assurer que toutes les tâches ordonnancées en aval de la position
(i + 1) dans π0 ont une magnitude des dates de fin pas supérieure à leur magnitude de
dates de fin dans π, nous calculons la différence :

Mag C̃i +1 π0 − Mag C̃i +1 (π)


¡ ¡ ¢¢ ¡ ¢

= Mag t̃ ⊕ i a ⊗ p̃ π(i +1) ⊕ (i + 1)a ⊗ p̃ π(i )


© ¡ ¢ ¡ ¢ª

−Mag t̃ ⊕ i a ⊗ p̃ π(i ) ⊕ (i + 1)a ⊗ p̃ π(i +1)


© ¡ ¢ ¡ ¢ª

L’application de la propriété de linéarité de la fonction magnitude donne :

Mag C̃i +1 π0 − Mag C̃i +1 (π) =


¡ ¡ ¢¢ ¡ ¢

i a Mag p̃ π(i +1) + (i + 1)a Mag p̃ π(i ) − i a Mag p̃ π(i ) + (i + 1)a Mag p̃ π(i +1)
¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢

i − (i + 1)a
¡ ¡ ¢ ¡ ¢¢ ¡¡ a ¢¢
= Mag p̃ π(i +1) − Mag p̃ π(i )
a a
¡ p̃ π(i
Comme ¢¢w p̃ π(i +1)¡ et i − (i¢ + 1) > 0 alors nous déduisons l’inégalité ci-dessous :
¡ )0>
Mag C̃i +1 π < Mag C̃i +1 (π) .

Maintenant, pour garantir que la contribution à la magnitude de la somme pondé-


rée des dates de fin des tâches aux positions (i ) et (i + 1) dans l’ordonnancement π0 est
inférieure à leur contribution dans l’ordonnancement π,¡ Nous
¢¢ ¡ calculons la¡ différence
entre le premier terme donné©¡par Mag ω¢π(i +1) ¡ ⊗ C̃i π ⊕ ωπ(i
0
¢ª) ⊗ C̃i +1 π
0
©¡ ¢¢ª
et le
deuxième terme donné par Mag ωπ(i ) ⊗ C̃i (π) ⊕ ωπ(i +1) ⊗ C̃i +1 (π) .
En se basant sur la propriété de linearité et après quelques simplifications nous obtenons :

Mag (ωπ(i +1) ⊗C̃i (π0 )⊕ωπ(i ) ⊗C̃i +1 (π0 ))−Mag (ωπ(i ) ⊗C̃i (π)⊕ωπ(i +1) ⊗C̃i +1 (π))
i a (ωπ(i +1) +ωπ(i ) )Mag (p̃ π(i ) )
=

Mag (p π(i +1) ) ωπ(i +1) i +1 a ωπ(i ) i +1 a


h ³ ´¡ ¢ i h ³ ´¡ ¢ i
Mag (p π(i ) )
1− ωπ(i +1) +ωπ(i ) i − 1− ω i
π(i +1) +ωπ(i )

Comme p̃ π(i ) ≥w p̃ π(i +1) et ωπ(i +1) ≥ ωπ(i ) , nous déduisons que cette différence est
strictement inférieure à zéro. Il en résulte de ces deux inégalités que la magnitude de
la somme pondérée des dates de fin sous π0 est strictement inférieure à celle sous π,
ce qui contredit l’optimalité de π. Donc, les conditions considérées sont des conditions
nécessaires pour l’optimalité.
Suffisance des conditions (⇐)
Pour un ordonnancement arbitraire non optimal π, il existe au moins deux tâches
adjacentes dans l’ordonnancement qui viole ces conditions. Nous pouvons améliorer
la valeur de magnitude de la somme pondérée des dates de fin en permutant ces
tâches. Si cette procédure est itérée pour toutes les tâches non respectant la règle WSPT

90
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

jusqu’à l’obtention d’une stabilité, un ordonnancement optimal est obtenu dans un


temps polynômial O(n × l og (n)). Donc, nous concluons que l’ensemble des conditions
considérées sont aussi des conditions µsuffisantes¶ d’optimalité d’un ordonnancement
iP
=n
dans le problème 1 ¯p̃ i , p i ,r = p i r a ¯ Mag ωi ⊗ C̃i .
¯ ¯
i =1

L’exemple suivant illustre l’utilité du concept d’agréabilité floue dans l’application du


Théorème 3.2.

Exemple 3.1. Nous considérons une instance du problème


iP
=n
µ ¶
1 ¯p̃ i , p i ,r = p i r a ¯ Mag ωi ⊗ C̃i avec cinq tâches. L’ensemble des valeurs des para-
¯ ¯
i =1
mètres du modèle est présenté dans le Tableau 3.1. Il est possible de vérifier sur ce tableau
que les différentes tâches satisfaient le concept d’agréabilité floue.

TABLEAU 3.1 Valeurs des parametèrs d’ordonnancement associées à l’ensemble des


tâches J

Poids ωi
¡ ¢
Ji =1,5 Durée opératoire floue p̃ i Magnitude Mag p̃ i
1 (31,35,3,2) 1.49 22
2 (9,18,1,0) 0.45 30
3 (28,54,1,2) 4.11 10
4 (31,42,0,3) 2.63 14
5 (24,38,1,2) 1.35 23

La Figure 3.2 illustre les durées opératoires floues des tâches où le chevauchement des
nombres flous rend l’élaboration d’un classement au sens conventionnel impossible. Le cal-
cul de la fonction magnitude pour les différents ordonnancements utilisant une recherche
exhaustive donne la solution optimale π∗ = (2, 5, 1, 4, 3), qui correspond bien au résultat de
l’application du Théorème 3.2.
Dans la Figure 3.3, l’évolution de la fonction magnitude de la somme pondérée des
dates de fin pour la solution optimale est représentée. Comme attendu, la fonction objectif
a une allure décroissante en fonction de la valeur absolue du taux d’apprentissage, ce qui
confirme la réduction des coûts à cause de l’amélioration de la capacité de la ressource à
réaliser les tâches allouées.
Mais l’hypothèse d’agréabilité floue est une contrainte très forte et n’est pas satisfaite
dans la majorité des situations pratiques. Pour cette raison, il est plus approprié de concen-
trer les efforts sur le développement d’outils génériques ayant la capacité de résoudre une
multitude de problèmes sophistiqués sans avoir une connaissance approfondie sur les pro-
priétés intrinsèques de ces problèmes.

91
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

F IGURE 3.2 Représentation graphique des durées opératoires floues.

F IGURE 3.3 Évolution de la magnitude de la somme pondérée des dates de fin en fonction
du taux d’apprentissage.

92
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

3.5 Approches d’optimisation pour le problème d’ordon-


nancement à une machine avec dates de disponibilité
floues, durées opératoires floues et effet d’apprentis-
sage à base de position
Dans cette section, nous présentons en premier la formulation floue du problème
d’ordonnancement proposé. Ensuite, nous abordons la procédure de génération des ins-
tances utilisées dans les expérimentations numériques et finalement nous évaluons les
performances des trois métaheuristiques adoptées à la base d’une analyse statistique.

3.5.1 Formulation du problème d’ordonnancement


Dans le but d’approcher les spécificités des problèmes d’ordonnancement réels, nous
conservons la description générale du problème précédent avec la considération de
quelques contraintes supplémentaires. La restriction des poids avec contrainte d’agréabi-
lité floue est relaxée et des dates de disponibilité floues différentes r˜i = r i , r i , αr˜i , βr˜i L−R
¡ ¢

pour i = 1, n sont affectées aux tâches. Dans ce cas, la date fin floue de chaque tâche i
peut être calculée utilisant l’opérateur de somme floue, multiplication avec un scalaire et
la dominance faible pour la détermination du maximum de deux nombres flous. Comme
fonction de classement, nous adoptons la magnitude d’un nombre flou proposée par
Abasabandy et Hajjeri [A BBASBANDY et H AJJARI, 2009], qui est également utilisée dans
la comparaison entre différentes ordonnancements. La date fin floue d’une tâche i dans
un ordonnancement π est calculée utilisant la formule de récurrence suivante :

 C̃1 (π) = r˜1 (π) ⊕ p̃ 1 (π)
© ª (3.12)
r˜i (π) , C̃i −1 (π) ⊕ p̃ i (π) pour i = 2, n

C̃i (π) = maxw

La manipulation mathématique de cette formule donne :


 ³ ´
 C̃1 (π) = r 1 + p , r 1 + p , α
1 r˜1 + α , β
p̃ 1 r˜1 + β p̃ 1
1







 

 

 
 ³ ´
a a a a
r i + p i , r i + p i i , αr˜i + αp̃ i i , βr˜i + βp̃ i i

 

 
i

 

 

(3.13)


 ¡ ¢
si Mag (r˜i (π)) > Mag C̃i −1 (π)
 
C̃i (π) = i = {2, ..., n}





 

  ³ ´
a a a a
α α β β

C p i , C p i , i , i


 
 i −1 + i −1 + i C̃i −1 + p̃ i C̃i −1 + p̃ i
i

 


 


 

  ¡ ¢
si Mag (r˜i (π)) ≤ Mag C̃i −1 (π)
 

La fonction objectif à optimiser est la magnitude de la somme pondérée des dates de fin
floues des tâches. En adoptant la notation à trois champs, nous notons ce problème par
iP
=n
µ ¶
1 ¯r˜i , p̃ i , p i ,r = p i r a ¯ Mag ωi ⊗ C̃i . Si l’effet d’apprentissage n’est pas considéré et tous
¯ ¯
i =1
iP
=n
les paramètres ont des valeurs réelles, ce problème se réduit au problème 1 |r i | ωi Ci
i =1
qui est prouvé NP-difficile au sens fort [L ENSTRA et collab., 1977]. Donc, notre version

93
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

floue a au moins la même complexité de calcul. La résolution de ce problème est basée


sur les trois métaheuristiques à base de trajectoire (la recherche tabou, le recuit simulé et
la recherche kangourou).

3.5.2 Procédure de génération des jeux tests


La procédure de génération des instances est une étape primordiale avant l’évalua-
tion des performances des méthodes d’optimisation. Le nombre de tâches n est fixé pour
chaque instance où l’incertitude au niveau des durées opératoires et les dates de disponi-
bilité sont modélisées par des nombres flous trapézoïdaux tandis que les poids sont mo-
délisés par des valeurs entières positives. La procédure de génération proposée est basée
essentiellement sur les travaux [G HRAYEB, 2003], [S AIDI M EHRABAD et PAHLAVANI, 2009]
et [Y IN et collab., 2014]. Alors, les paramètres d’ordonnancement sont générés selon les
règles suivantes :
i) Une
£ valeur¤ aléatoire p i est prise d’une distribution uniforme sur l’intervalle
a p̃ i , b p̃ i pour chaque tâche i = 1, n.
ii) Les bornes inférieures et supérieures des durées opératoires floues p̃ i sont générées
aléatoirement selon les relations :

 p i ← 1 − ρ1 p i , p i
£¡ ¢ ¤

 p ← £ p , ¡1 + ρ ¢ p ¤

i i 1 i

avec ρ1 une première graine aléatoire appartenant à l’intervalle [0, 1].


iii) Les déviations gauche et droite (αp̃ i et βp̃ i ) des durées·opératoires
µ floues
¶¸ sont défi-
p +p i
i
nies arbitrairement comme des entiers de l’intervalle 0, 0.1 × 2
.
iv) Les bornes supérieures et inférieures des dates de disponibilité floues r˜i sont
générées selon les relations :

iP
=n
 · ¸
 r = 0, ρ2 p
 i

i =1 i

iP
=n iP
=n

 · ¸
 r¯i = ρ2 p , ρ2

 p̄ i
i =1 i i =1

avec ρ2 une deuxième graine aléatoire supérieure à zéro.


v) Les déviations gauche et droite (αr˜i et βr˜i ) des dates de disponibilité floues
sont définies d’une façon analogue comme des entiers arbitraires de l’intervalle
r i +r i
h ³ ´i
0, 0.1 × 2
.
vi) Les poids £ωi sont ¤générés comme des entiers positifs d’une distribution discrète
uniforme a ωi , b ωi
vii) Des valeurs élevées de ρ1 et ρ2 indiquent des intervalles étendus des durées opé-
ratoires p̃ i et dates de disponibilité floues r˜i respectivement. Alors que des valeurs
faibles indiquent des intervalles étroits pour les valeurs affectées à ces paramètres.

3.5.3 Évaluation des résultats


Les expérimentations numériques sont réalisées à l’aide d’un ensemble d’instances
pour évaluer l’efficacité des méthodes proposées, où chaque ensemble test contient des

94
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

instances de taille fixe. Le nombre de tâches varie de 7 à 40 tâches. Comme l’exactitude


des résultats dépend fortement de la taille de l’échantillon, un nombre défini d’instances
n i nst est généré pour chaque nombre de tâches. La procédure de génération ainsi que les
trois métaheuristiques sont implémentées utilisant l’outil MATLAB qui est un environne-
ment émergeant pour les problèmes de modélisation et d’optimisation [W ONGA et L AI,
2011]. Les expériences sont exécutées sur un processeur i 7 avec 8 GB de RAM. Les ins-
tances complètes du problème traité avec toutes ses données sont disponibles sur le lien :
<http://lab.univ-batna2.dz/lap/index.php/component/content/article?id=31>.
Le Tableau 3.2 donne les bornes inférieures et supérieures des paramètres nécessaires
pour la procédure de génération.

TABLEAU 3.2 Valeurs des différents paramètres utilisées lors de la procédure de génération
des instances

Paramètre Borne inférieure Borne supérieure


pi 1 40
ωi 1 15
n i nst 40 40

Comme les performances des méthodes d’optimisation dépendent du choix adéquat


de leurs paramètres de configuration, nous effectuons quelques tests de sensibilité pour
les valeurs des paramètres. Ces tests sont achevés uniquement pour les instances de pe-
tite taille à cause des coûts de calcul. Heureusement, nous n’avons pas détecté une grande
différence dans la qualité des résultats. Dans le Tableau 3.3, nous listons les paramètres
principaux ainsi que leurs valeurs associées pour les trois métaheuristiques. Il est à no-
ter que ces paramètres ne sont pas changés à l’exception du cas où nous réalisons une
analyse de sensibilité en fonction d’un paramètre spécifique.

TABLEAU 3.3 Valeurs de configuration associées aux métaheuristiques à base de trajec-


toire

Paramètre Recherche tabou Recuit simulé Recherche kangourou


x0 Aléatoire Aléatoire Aléatoire
Nx GPIM
£p ¤ IM IMAPIM
TL n, 2n / /
TLUp n / /
Nt r n −1 n −1 n −1
− ( worlogst )− f (x best ))
f (x
T0 / /
(p 0 )
p0 / 0.8 /
IT / n /
r cool / 0.9 /
Jop / / 2-opt
I f st ab 7.5 × n 3 × l og (n!) 7.5 × n
Imax 15 × n 15 × n 15 × n

/ : Non applicable

D’une façon similaire à l’étude de Allahverdi et Al-Anzi [A LLAHVERDI et A L -A NZI,


2006], trois critère statistiques sont adoptés pour comparer les performances des mé-

95
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

thodes d’optimisation utilisées dans ce chapitre : la moyenne des erreurs relatives, l’écart
type des erreurs relatives et le pourcentage des meilleures solutions trouvées pour les 40
instances. Ces critères sont notés par Av g , St d et POB respectivement. L’erreur relative
est définie pour chaque métaheuristique dans le cas de petites instances (n ≤ 10) par :
µ ¡ ¢ ¡ ¢¶
f Mét aheur i st i que − f Opt i mal e
Er r eur = 100 × ¡ ¢ (3.14)
f Opt i mal e

et pour les moyennes et les grandes instances par :


µ ¡ ¢
f Mét aheur i st i que − f (Mei l l eur e)

Er r eur = 100 × (3.15)
f (Mei l l eur e)

iP
=n
µ ¶
avec f représente la fonction objectif Mag ωi ⊗ C̃i .
i =1
Dans le Tableau 3.4, les trois métaheuristiques à base de trajectoire sont exploitées
avec variation du nombre de tâches. Nous pouvons déduire que ces méthodes s’adaptent
bien à l’ensemble des instances car la moyenne des erreurs relatives obtenue pour 40 ins-
tances est inférieure à 1%, ce qui reflète de bonnes solutions proches de l’optimale. En
outre, la recherche kangourou donne les meilleures performances en fonction du pour-
centage des meilleures solutions obtenues, tandis que le recuit simulé est classé deuxième
avant la recherche tabou. La performance supérieure de la recherche kangourou est jus-
tifiée par l’efficacité de sa méthode de recherche locale à deux phases combinée avec un
opérateur 2-opt de saut, permettant un équilibre entre l’intensification et la diversifica-
tion dans l’espace de recherche.

TABLEAU 3.4 Variation des performances des métaheuristiques proposées en fonction du


nombre de tâches n pour Le f f = 0, ρ1 = 0.1 et ρ2 = 0.1

Paramètre Recherche tabou Recuit simulé Recherche kangourou


n Avg Std POB Avg Std POB Avg Std POB
07 0.000 0.000 100 0.032 0.138 92.5 0.000 0.000 100
08 0.042 0.202 82.5 0.057 0.213 90.0 0.000 0.000 100
09 0.114 0.462 87.5 0.058 0.254 90.0 0.056 0.350 95.0
10 0.058 0.143 55.0 0.094 0.233 52.5 0.037 0.233 67.5
15 0.105 0.113 20.0 0.158 0.531 35.0 0.002 0.013 97.5
20 0.108 0.097 07.5 0.097 0.229 27.5 0.125 0.262 75.0
25 0.268 0.592 17.5 0.187 0.491 17.5 0.369 1.218 67.5
30 0.378 0.673 02.5 0.219 0.396 17.5 0.070 0.219 80.0
35 0.196 0.449 12.5 0.215 0.555 25.0 0.238 0.454 62.5
40 0.332 0.595 20.0 0.359 0.950 25.0 0.492 1.032 55.0

La Figure 3.4 résume le temps CPU moyen (en seconde) de l’exécution des trois mé-
taheuristiques. Comme indiqué sur cette figure, les temps CPU moyens des recherches
tabou et kangourou sont prèsque superposés et donnent approximativement des résul-
tats identiques tandis que le recuit simulé montre une petite différence relativement aux
deux approches précédentes avec des grandes valeurs pour un nombre de tâches supé-
rieur à 25. Pour les valeurs inférieures à 15 tâches, il n’y a pas de différance remarquable
entre les temps CPU des trois métaheuristiques.

96
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

F IGURE 3.4 Variation du temps d’exécution moyen en fonction du nombre de tâches (a =


0, ρ1 = 0.1 et ρ2 = 0.1).

Le Tableau 3.5 reporte les variations des performances des métaheuristiques en fonc-
tion du coefficient d’apprentissage. Il est à noter dans ce cas que la recherche kangou-
rou dépasse les deux autres techniques en fonction de pourcentage des meilleures so-
lutions obtenues. Pour des petites valeurs du coefficient d’apprentissage, la majorité
des meilleures solutions est associée à cette méthode avec des valeurs très faibles de la
moyenne des erreurs relatives et l’écart type des erreurs relatives. En effet, le problème
d’ordonnancement considéré a l’allure de devenir plus facile à résoudre lorsque le coef-
ficient d’apprentissage est augmenté en valeur absolue résultant en une réduction signi-
ficative des durées opératoires floues des tâches. Pour cette raison, les performances des
trois métaheuristiques s’améliorent avec la valeur absolue du coefficient d’apprentissage.
Les performances de recherche tabou et le recuit simulé restent inférieures à la recherche
kangourou à cause de l’efficacité de la recherche locale hybride utilisée par cette dernière
métaheuristique.
Les Figures 3.5, 3.6 et 3.7 clarifient la variation de la moyenne des erreurs relatives
en fonction des graines aléatoires (ρ1 et ρ2 )pour les trois méthodes proposées avec n = 20
et Le f f = 0. Toutes les deux graines sont variées de 0.1 à 1 avec un pas de 0.1. Une ca-
ractéristique intéressante commune à toutes les courbes est reliée à la complexité de ré-
soudre les instances générées utilisant différentes configurations des graines peut être
observée. Les courbes de contour projetées sur le plan formé de ρ1 et ρ2 permettent de
détecter les valeurs élevées (en rouge) et les valeurs faibles (en bleu) de la moyenne des
erreurs relatives. Les configurations associées avec des valeurs élevées indiquent des ins-
tances difficiles tandis que celles associées avec des valeurs faibles indique les instances
faciles à résoudre. À partir de ces courbes, les instances difficiles sont situées en géné-

97
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

TABLEAU 3.5 Variation des performances des métaheuristiques proposées en fonction du


coefficient d’apprentissage Le f f pour ρ1 = 0.1 et ρ2 = 0.1

Paramètre Recherche tabou Recuit simulé Recherche kangourou


Le f f Avg Std POB Avg Std POB Avg Std POB
0.0 0.105 0.126 17.5 0.086 0.155 20.0 0.062 0.189 80.0
-0.2 0.102 0.103 10.0 0.154 0.245 17.5 0.139 0.344 82.5
-0.4 0.152 0.328 10.0 0.159 0.242 12.5 0.078 0.240 85.0
-0.6 0.079 0.096 22.5 0.151 0.218 22.5 0.242 0.655 70.0
-0.8 0.104 0.132 07.5 0.129 0.166 17.5 0.102 0.332 85.0
-1.0 0.215 0.902 15.0 0.139 0.283 12.5 0.093 0.294 77.5
-1.2 0.040 0.077 22.5 0.257 0.511 15.0 0.177 0.471 67.5
-1.4 0.134 0.346 35.0 0.242 0.353 10.0 0.069 0.142 62.5
-1.6 0.399 0.119 35.0 0.276 0.389 02.5 0.063 0.146 65.0
-1.8 0.254 0.036 30.0 0.189 0.192 05.0 0.115 0.570 70.0
-2.0 0.042 0.069 22.5 0.139 0.138 05.0 0.015 0.052 75.0
-2.2 0.041 0.061 12.5 0.145 0.224 05.0 0.012 0.042 87.5
-2.4 0.032 0.045 12.5 0.098 0.144 02.5 0.023 0.085 87.5
-2.6 0.046 0.069 05.0 0.115 0.156 07.5 0.002 0.007 95.0
-2.8 0.020 0.029 17.5 0.070 0.165 17.5 0.003 0.019 95.0
-3.0 0.034 0.049 07.5 0.066 0.110 02.5 0.000 0.001 95.0
-3.2 0.031 0.042 07.5 0.060 0.156 10.0 0.000 0.001 95.0
-3.4 0.029 0.042 02.5 0.040 0.062 07.5 0.000 0.000 100
-3.6 0.345 0.070 00.0 0.040 0.068 10.0 0.000 0.000 100
-3.8 0.286 0.053 02.5 0.079 0.203 10.0 0.000 0.000 100
-4.0 0.025 0.052 05.0 0.146 0.405 02.5 0.000 0.000 100

98
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

rale au voisinage des valeurs centrales de ρ1 et ρ2 . Tandis que les instances faciles sont
localisées aux petites valeurs de ρ2 . Cette dernière remarque est expliquée par le fait que
les valeurs faibles de la deuxième graine aléatoire mène à des dates de disponibilité très
serrées proches du zero comme indiqué dans la procédure de génération des instances.
Ce problème est connu dans le cas avec paramètres réels comme étant un problème de
complexité polynômiale.

F IGURE 3.5 Variation de la moyenne des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas de la recherche tabou.

Le même comportement concernant les instances difficiles et faciles peut être ob-
servé en fonction de l’écart type des erreurs relatives pour les métaheuristiques propo-
sées comme indiquée par les Figures 3.8, 3.9 et 3.10. Mais avec l’existence des régions
des deux types d’instances le long du plan de projection.
Pour une analyse plus fiable des performances de la recherche tabou et le recuit si-
mulé, nous conduisons un test d’hypothèse pour comparer ces deux méthodes. La re-
cherche kangourou n’est pas prise en compte car elle donne dans la majorité des cas les
meilleurs résultats. Mais avant d’entamer ce test, nous avons besoin de vérifier l’hypo-
thèse de normalité qui est primordiale dans plusieurs méthodes de test paramétrique
telles que t-test et F-test [L EHMANN et R OMANO, 2005]. Nous effectuons le test de Lil-
liefors sur l’échantillon formé par les erreurs relatives au Tableau 3.4 pour la recherche
tabou et le recuit simulé, ce qui donne deux échantillons chacune contient 400 observa-
tions. Les valeurs p des deux méthodes sont inférieures au niveau de signification (1%)
et l’hypothèse nulle de normalité est rejetée à 1% de niveau de signification. Alors, nous
concluons que les deux échantillons ne peuvent pas être considérés comme issus de la
même population avec distribution normale. Il est possible de valider ce résultat par un
diagramme de probabilité normale utilisant les données des deux échantillons comme re-
présenté dans la Figure 3.11, où une différence claire peut être observée entre l’ensemble

99
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

F IGURE 3.6 Variation de la moyenne des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas du recuit simulé.

des données et l’interpolation linéaire des ordres statistiques des échantillons des deux
métaheuristiques.
Comme l’hypothèse de normalité n’est pas satisfaite, nous proposons d’utiliser un
test d’hypothèse non paramétrique. La médiane est utilisée au lieu de la moyenne comme
paramètre statistique de comparaison et les deux hypothèses suivantes sont considérées :

H0 : La médiane des erreurs relatives de la recherche tabou = La médiane des er-


reurs relatives du recuit simulé (Hypothèse nulle)
H1 : La médiane des erreurs relatives de la recherche tabou 6= La médiane des erreurs
relatives du recuit simulé (Hypothèse alternative)

Donc, nous utilisons le test de la somme des rangs de Wilcoxon pour évaluer la si-
gnification statistique de l’hypothèse nulle H0 que les échantillons sont extraits des po-
pulations avec des médianes égales contre l’hypothèse alternative H1 que les médianes
sont différentes [G IBBONS et C HAKRABORTI, 2003]. La valeur calculée de p est trouvée
supérieure au niveau de signification (0.02 > 0.01), ce qui reflète que le test a échoué de
rejeter l’hypothèse nulle à un niveau de signification de 1%. Nous concluons de ce test
d’hypothèse que la recherche tabou et le recuit simulé sont statistiquement très proches
en termes de qualité de solutions.

100
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

F IGURE 3.7 Variation de la moyenne des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas de la recherche kangourou.

F IGURE 3.8 Variation de l’écart type des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas de la recherche tabou.

101
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

F IGURE 3.9 Variation de l’écart type des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas du recuit simulé.

F IGURE 3.10 Variation de l’écart type des erreurs relatives en fonction des valeurs des
graines aléatoires dans le cas de la recherche kangourou.

102
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

F IGURE 3.11 Représentation du diagramme de probabilité normale pour l’échantillon des


données dans le cas de la recherche tabou et le recuit simulé.

3.6 Conclusion

Dans ce chapitre, nous avons considéré un problème d’ordonnancement à une ma-


chine avec effet d’apprentissage à base de position et paramètres incertains. Nous avons
concentré sur deux aspects principaux notamment la proposition d’un algorithme poly-
nômial pour résoudre la version simplifiée du problème lorsque le concept d’agréabilité
floue est satisfait pour les poids. Le deuxième aspect est relatif au développement des mé-
taheuristiques à base de trajectoire (la recherche tabou, le recuit simulé et la recherche
kangourou) pour la résolution d’une version NP-difficile du problème lorsque des dates
de disponibilité différentes sont présentes et l’hypothèse d’agréabilité est omise. Des ex-
périmentations numériques intensives ont été conduites en fonction de plusieurs para-
mètres en plus de l’analyse statistique basée sur les tests d’hypothèse. Les résultats ont
montré que les métaheuristiques proposées ont des performances acceptables en termes
de la bonne qualité des solutions et le coût de calcul raisonnable. Mais quelques difficul-
tés ont été détectées pendant le choix des valeurs des paramètres de configuration.
Les approches de modélisation et de résolution concrétisées dans ce chapitre ont
constitué le point de départ à des contributions relatives à deux axes de recherche. Le
premier axe concerne le développement de modèles pour des fonctions objectifs dans le
cas où les nombres flous décrivant les paramètres incertains sont d’allure plus générale
notamment les intervalles flous à base de puissance. Le deuxième axe consiste à évaluer
les performances des approches d’optimisation multi-objectif en présence de différents
critères de domination. Ces deux aspects seront traités dans le dernier chapitre de cette
thèse.

103
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

3.7 Références
A BBASBANDY, S. et T. H AJJARI. 2009, «A new approach for ranking of trapezoidal fuzzy
numbers», Computers and Mathematics with Applications, vol. 57, no 3, p. 413–419. 79,
93

A HMADIZAR , F. et L. H OSSEINI. 2011, «Single-machine scheduling with a position-based


learning effect and fuzzy processing times», The International Journal of Advanced Ma-
nufacturing Technology, vol. 56, no 5, p. 693–698. 76

A HMADIZAR , F. et L. H OSSEINI. 2013, «Minimizing makespan in a single-machine sche-


duling problem with a learning effect and fuzzy processing times», The International
Journal of Advanced Manufacturing Technology, vol. 65, no 1, p. 581–587. 76

A L -T URKI , U., C. F EDJKI et A. A NDIJANI. 2001, «Tabu search for a class of single-machine
scheduling problems», Computers and Operations Research, vol. 28, no 12, p. 1223–
1230. 81

A LLAHVERDI , A. et F. A L -A NZI. 2006, «A pso and a tabu search heuristics for the assembly
scheduling problem of the two-stage distributed database application», Computers and
Operations Research, vol. 33, no 4, p. 1056–1080. 95

B ACHMAN , A. et A. J ANIAK. 2004, «Scheduling jobs with position-dependent processing


times», The Journal of the Operational Research Society, vol. 55, no 3, p. 257–264. 74

B ISKUP, D. 1999, «Single-machine scheduling with learning considerations», European


Journal of Operational Research, vol. 115, no 1, p. 173–178. 73

B ISKUP, D. 2008, «A state-of-the-art review on scheduling with learning effects», European


Journal of Operational Research, vol. 188, no 2, p. 315–329. 75

C HANAS , S. et A. K ASPERSKI. 2001, «Minimizing maximum lateness in a single machine


scheduling problem with fuzzy processing times and fuzzy due dates», Engineering Ap-
plications of Artificial Intelligence, vol. 14, no 3, p. 377–386. 75

C HANAS , S. et A. K ASPERSKI. 2004, «Possible and necessary optimality of solutions in the


single machine scheduling problem with fuzzy parameters», Fuzzy Sets and Systems,
vol. 142, no 3, p. 359–371. 76

D ONG , Y. 2003, «One machine fuzzy scheduling to minimize total weighted tardiness, ear-
liness, and recourse cost», International Journal of Smart Engineering System Design,
vol. 5, no 3, p. 135–147. 75

D UTA , L. 2006, Contribution à l’étude de la conduite des systemes de desassemblage, thèse


de doctorat, Université de Franche-Comte. 84

E REN , T. 2009, «Minimizing the total weighted completion time on a single machine sche-
duling with release dates and a learning effect», Applied Mathematics and Computa-
tion, vol. 208, no 2, p. 355–358. 74

F LEURY, G. 1993, Méthodes stochastiques et deterministes pour les problemes NP-difficiles,


thèse de doctorat, Université de Clermont Ferrand 2. 84

104
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

G HRAYEB , O. A. 2003, «A bi-criteria optimization : minimizing the integral value and


spread of the fuzzy makespan of job shop scheduling problems», Applied Soft Com-
puting, vol. 2/3F, p. 197–210. 94

G IBBONS , J. D. et S. C HAKRABORTI. 2003, Non parametric statistical inference, Marcel Dek-


ker Press. 100

G LOVER , F. 1989, «Tabu search-part i», ORSA Journal on Computing, vol. 1, no 3, p. 190–
206. 80

G LOVER , F. 1990, «Tabu search-part ii», ORSA Journal on Computing, vol. 2, no 1, p. 4–32.
80

G LOVER , F. et G. A. KOCHENBERGER. 2003, Handbook of metaheurstics, Kluwer Press. 73

G RAHAM , R. L., E. L. L AWLER, J. K. L ENSTRA et A. H. G. R INNOOY K AN. 1979, «Optimiza-


tion and approximation in deterministic sequencing and scheduling : a survey», Annals
of Discrete Mathematics, vol. 5, p. 287–326. 86

H ANSS , M. 2005, Applied fuzzy arithmetic an introduction with engineering applications,


Springer Press. 77

J AIN , R. 1976, «Decision-making in the presence of fuzzy variables», IEEE Transactions on


Systems Man and Cybernetics, vol. 6, no 10, p. 698–703. 79

J ANIAK , A. et R. RUDEK. 2010, «A note on a makespan minimization problem with a


multi-ability learning effect», Omega The International Journal of Management Science,
vol. 38, no 3-4, p. 213–217. 74

K ASPERSKI , A. et P. Z IEŁI ŃSKI. 2011, «Possibilistic minmax regret sequencing problems


with fuzzy parameters», IEEE Transactions on Fuzzy Systems, vol. 19, no 6, p. 1072–1082.
76

K IRKPATRICK , S., C. D. G ELATT et M. P. V ECCHI. 1983, «Optimization by simulated annea-


ling», Science, vol. 220, no 4598, p. 671–680. 82

K LIR , G. J. et B. Y UAN. 1995, Fuzzy sets and fuzzy logic theory and applications, Prentice
Hall Press. 77

KOÇ , E. 2010, The bees algorithm theory, improvements and applications, thèse de docto-
rat, Université de Wales. 86

K UO, W. H. et D. L. YANG. 2006, «Minimizing the total completion time in a single-


machine scheduling problem with a time-dependent learning effect», European Jour-
nal of Operational Research, vol. 174, no 7, p. 1184–1190. 74

L AI , P. J. et W. C. L EE. 2013, «Single-machine scheduling with learning and forgetting


effects», Applied Mathematical Modelling, vol. 37, no 6, p. 4509–4516. 74

L EE , C. Y., L. L EI et M. P INEDO. 1997, «Current trends in deterministic scheduling», An-


nals of Operations Research, vol. 70, no 0, p. 1–41. 80

L EHMANN , E. L. et J. P. R OMANO. 2005, Testing statistical hypotheses, Springer Press. 99

105
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

L ENSTRA , J. K., A. H. G. R INNOOY K AN et P. B RUCKER. 1977, «Complexity of machine sche-


duling problems», Annals of Discrete Mathematics, vol. 1, p. 343–362. 93

L I , J., K. S UN, D. X U et H. L I. 2010, «Single machine due date assignment scheduling


problem with customer service level in fuzzy environment», Applied Soft Computing,
vol. 10, no 3, p. 894–858. 76

L IAO, L. M. et C. J. L IAO. 1998, «Single machine scheduling problem with fuzzy due date
and processing time», Journal of the Chinese Institute of Engineers, vol. 21, no 2, p. 189–
196. 75

M ATARAZZO, B. et G. M UNDA. 2001, «New approaches for the comparison of l-r fuzzy
numbers : a theoretical and operational analysis», Fuzzy Sets and Systems, vol. 118, no 3,
p. 407–418. 78

M EILIJSON , I. et A. TAMIR. 1984, «Minimizing flow time on parallel identical processors


with variable unit processing time», Operations Research, vol. 32, no 2, p. 440–448. 73

M OSHEIOV, G. 2001, «Scheduling problems with a learning effect», European Journal of


Operational Research, vol. 132, no 3, p. 687–693. 74

N OURANI , Y. et B. A NDRESEN. 1989, «A comparison of simulated annealing cooling stra-


tegies», Journal of Physics A : Mathematical and General, vol. 31, no 41, p. 8373–8385.
84

Ö ZELKAN , E. C. et L. D UCKSTEIN. 1999, «Optimal fuzzy counterparts of scheduling rules»,


European Journal of Operational Research, vol. 113, no 3, p. 593–609. 79

P INEDO, M. L. 2012, Scheduling theory, algorithms, and systems, Springer Press. 73

P RADE , H. 1979, «Using fuzzy set theory in a scheduling problem : a case study», Fuzzy
Sets and Systems, vol. 2, no 2, p. 153–165. 75

R OSS , T. J. 2004, Fuzzy logic with engineering applications, Wiley Press. 77

RUDEK , R. 2013, «A note on proving the strong np-hardness of a scheduling problem with
position dependent job processing times», Optimization Letters, vol. 7, no 3, p. 613–616.
74

S AIDI M EHRABAD, M. et A. PAHLAVANI. 2009, «A fuzzy multi-objective programming for


scheduling of weighted jobs on a single machine», The International Journal of Advan-
ced Manufacturing Technology, vol. 45, no 1-2, p. 122–139. 94

S ALHI , S. 2002, «Defining tabu list size and aspiration criterion within tabu search me-
thods», Computers and Operations Research, vol. 29, no 1, p. 67–86. 82

S CHULTMANN , F., M. F RÖHLING et O. R ENTZ. 2006, «Fuzzy approach for production plan-
ning and detailed scheduling in paints manufacturing», International Journal of Pro-
duction Research, vol. 44, no 8, p. 1589–1612. 75

S IVANANDAM , S. N., S. S UMATHI et S. N. D EEPA. 2007, Introduction to fuzzy logic using


MATLAB, Springer Press. 77

S MITH , W. E. 1956, «Various optimizers for single stage production», Naval Research Lo-
gistics, vol. 3, no 1-2, p. 59–66. 87

106
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

VAN L AARHOVEN , P. J. M. et E. H. L. A ARTS. 1987, Simulated annealing : theory and appli-


cations, Springer Press. 83

WANG , C., D. WANG, W. H. I P et D. W. Y UEN. 2002, «The single machine ready time sche-
duling problem with fuzzy processing times», Fuzzy Sets and Systems, vol. 127, no 2, p.
117–129. 75

W ONGA , B. K. et V. S. L AI. 2011, «A survey of the application of fuzzy set theory in pro-
duction and operations management : 1998-2009», International Journal of Production
Economics, vol. 129, no 1, p. 157–168. 95

W OODS , J. R., R. M. S AYWELL et A. W. N YHUIS. 1992, «The learning curve and the cost of
heart transplantation», Health Services Research, vol. 27, no 2, p. 219–238. 73

W RIGHT, T. P. 1936, «Factors affecting the cost of airplanes», Journal of the Aeronautical
Sciences, vol. 3, no 4, p. 122–128. 73

W U , C. C., P. H. H SU, J. C. C HEN et N.-S. WANG. 2011, «Genetic algorithm for minimi-
zing the total weighted completion time scheduling problem with learning and release
times», Computers and Operations Research, vol. 38, no 7, p. 1025–1034. 75

W U , C. C. et W. C. L EE. 2005, «A single-machine group schedule with fuzzy setup and


processing times», Journal of Information and Optimization Sciences, vol. 26, no 3, p.
683–691. 76

W U , C. C. et W. C. L EE. 2008, «Single-machine scheduling problems with a learning ef-


fect», Applied Mathematical Modelling, vol. 32, no 7, p. 1191–1197. 74

W U , H. C. 2010, «Solving the fuzzy earliness and tardiness in scheduling problems by


using genetic algorithms», Expert Systems with Applications, vol. 37, no 7, p. 4860–4866.
76

YAGER , R. R. 1981, «A procedure for ordering fuzzy subsets of the unit interval», Informa-
tion Sciences, vol. 24, no 2, p. 143–161. 80

Y ELLE , L. E. 1979, «The learning curves : historical review and comprehensive survey»,
Decision Sciences, vol. 10, no 2, p. 302–328. 73

Y IN , Y., M. L IU et J. H AO. 2012, «Single-machine scheduling with job-position-dependent


learning and time-dependent deterioration», IEEE Transactions on Systems, Man, and
Cybernetics - Part A : Systems and Humans, vol. 42, no 1, p. 192–200. 74

Y IN , Y., W. H. W U et W. H. W U. 2014, «A branch-and-bound algorithm for a single


machine sequencing to minimize the total tardiness with arbitrary release dates and
position-dependent learning effects», Information Sciences, vol. 256, p. 91–108. 75, 94

Z ADEH , L. A. 1971, «Similarity relations and fuzzy orderings», Information Sciences, vol. 3,
no 2, p. 177–200. 78

Z HAO, C. L., Q. L. Z HANG et H. Y. TANG. 2004, «Machine scheduling problems with lear-
ning effects», Dynamics of Continuous, Discrete and Impulsive Systems, Series A : Ma-
thematical Analysis, vol. 11, no 5-6, p. 741–750. 87

107
Chapitre 3. Problèmes d’ordonnancement à une machine avec effet
d’apprentissage et paramètres incertains

108
Chapitre 4

Problème d’ordonnancement bi-objectif


à une machine avec effet d’apprentissage
et paramètres incertains

« Il n’est pas certain que tout soit


incertain »

Blaise Pascal

Sommaire
4.1 Introduction et état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.2 Présentation du cadre de modélisation floue . . . . . . . . . . . . . . . . . 116
4.2.1 Nombres flous . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.2.2 Mesures de possibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.3 Déscription du problème d’ordonnancement . . . . . . . . . . . . . . . . 121
4.4 Présentation des métaheuristiques multi-objectifs à base de population 127
4.4.1 Algorithme génétique élitiste de tri non dominé . . . . . . . . . . . . 128
4.4.2 Algorithme recherche coucou . . . . . . . . . . . . . . . . . . . . . . 130
4.4.3 Stratégies de tri non dominé . . . . . . . . . . . . . . . . . . . . . . . 135
4.5 Expérimentation numérique et résultats . . . . . . . . . . . . . . . . . . . 136
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.7 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

109
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

110
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

4.1 Introduction et état de l’art

Dans le but d’avoir un taux de production élevé, les stratégies d’ordonnancement ont
été le sujet d’une analyse condensée comme elles constituent la liaison entre les stocks
de la matière première, les outils de fabrication et la clientèle ciblée [P INEDO, 2009].
En effet, les problèmes d’ordonnancement ont déclenché pendant ces dernières années
un nombre colossal de travaux de recherche à cause de leur adaptabilité au traitement
mathématique. Les efforts initiaux dédiés à la résolution des problèmes d’ordonnance-
ment faciles ont élargi la vision sur des problèmes plus sophistiqués avec des critères et
contraintes plus sévères [G UPTA et K YPARISIS, 1987]. Le problème d’ordonnancement à
une machine a joué un rôle clé sur le niveau théorique que pratique pour les raisons sui-
vantes : abondance de cas réels avec une seule ressource, possibilité d’agrégation des ma-
chines multiples en une seule machine et facilitation de la compréhension des problèmes
plus compliqués à machines multiples [A L -T URKI et collab., 2001].
Traditionnellement, les problèmes d’ordonnancement à une machine ont été intro-
duits en pratique avec l’hypothèse de satisfaire un objectif unique. Mais sous la pression
des contraintes des marchés de nos jours, il est primordial de prendre des décisions à
multiples facettes, ce qui a stimulé les gestionnaires à utiliser plus qu’une seule mesure de
performance dans l’évaluation des ordonnancements dans un contexte plus vaste connu
sous le nom de problèmes d’ordonnancement multi-objectifs. Dans ce cas, il est très rare
qu’une configuration optimise à la fois tous les objectifs et pour cela, un compromis entre
les critères de performance devient inévitable. Comme résultat, plusieurs solutions opti-
males sont offertes aux gestionnaires pour un choix flexible dépendant de la situation
économique rencontrée [H OOGEVEEN, 2005]. Dans le modèle standard d’ordonnance-
ment à une machine, la classification la plus répondue est celle basée sur la considération
des dates échues dans la formulation de la fonction objectif. Dans la première classe, les
objectifs sont fonction des durées opératoires des tâches. La minimisation de ces critères
conduit à une meilleure utilisation des ressources de système. Par exemple, la minimisa-
tion de la somme pondérée des dates de fin est un problème classique résolu à l’optima-
lité en classant les tâches selon la règle WSPT. Le poids d’une tâche peut exprimer un coût
de maintien par unité de temps dans le stock. La deuxième classe des objectifs dépendant
des dates échues des tâches est perçue comme une mesure des coûts associés aux ser-
vices fournis aux clients. Par conséquent, en considérant la minimisation conjointe des
critères appartenant à des classes différentes, il sera plus raisonnable d’établir des outils
d’ordonnancement fiables.
Avec l’accroissement des marchés actuels aux niveaux national et international, la ma-
jorité des systèmes de production sont sujets à des hautes pressions pour réduire le dé-
lai de mise en oeuvre et pour respecter les délais spécifiés par les clients [L I et collab.,
2011]. Les transactions de ventes sont influées par la capacité du producteur à livrer la
marchandise au client à une date bien définie. Cette vision étroitement liée au paradigme
Juste À Temps (en anglais JIT) motive les gestionnaires à se concentrer sur des nouvelles
approches d’ordonnancement plus efficaces en termes de la manipulation des coûts re-
latifs à l’indemnisation des clients suite à la violation des dates échues. Une étude sur les
pratiques de fabrication a démontré que la satisfaction des dates échues en gardant un
niveau faible de stock est l’objectif le plus important ciblé par les entreprises [S INGH et
A HUJA, 2012]. Parmi les critères basés sur la date échue nous trouvons la somme pondérée
du nombre de tâches en retard qui est considérée une mesure flexible comme elle est uti-
lisée pour différencier les clients. La satisfaction des tâches en retard engendre des coûts
supplémentaires au niveau de l’entreprise à cause du payement des frais élevés pour les

111
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

employées hors les horaires de travail normaux. De plus, la productivité peut être réduite
en raison de la surexploitation des ouvriers pendant leurs jours de repos. Il a été démon-
tré par Karp que la minimisation de cette mesure est NP-difficile au sens ordinaire [K ARP,
1972]. Donc, ce problème est pseudo polynômial ce qui¡ permet¢ sa résolution par une
P
méthode de programmation dynamique en un temps O n p j ¡. Par contre, ¢ la version
non pondérée du problème peut être résolue à l’optimalité en O n × log (n) utilisant le
fameux algorithme de Moore-Hodgson [L AWLER et M OORE, 1969]. Malgré la simplicité
apparente de ce problème d’ordonnancement à une machine, il a été traité sous plu-
sieurs situations. Par exemple, Potts et Wassenhove ont relaxé la contrainte d’intégrité
à une formulation avec variables binaires et ont résolu¡ le problème
¢ de programmation
linéaire résultant par un algorithme de complexité O n × log (n) . La borne inférieure cal-
culée est adoptée dans une procédure de réduction pour élaborer une approche par sé-
paration et évaluation efficace même lorsque appliquée aux grandes instances [P OTTS
et VAN WASSENHOVE, 1988]. Dauzère-Pérès a étudié le cas général où les dates de dis-
ponibilité et différentes dates échues sont incluses. Une borne inférieure efficace basée
sur la relaxation de la formulation du programme linéaire mixte en nombres entiers du
problème a été proposée. L’auteur a proposé également une nouvelle heuristique et a
comparé ses performances avec la procédure de la borne inférieure où l’heuristique a
indiqué des meilleures performances en termes de qualité et temps de calcul [D AUZÈRE -
P ÉRÈS, 1995]. Dans [B RUCKER et KOVALYOV, 1996], la somme pondérée du nombre de
retards a été étudié par Brucker et Kovalyov sous l’hypothèse que la totalité des tâches
est partitionnée en lots. Les auteurs ont présenté un algorithme ¡ 3de
¢ programmation dy-
namique résolvant le problème avec poids égaux en temps O n . L’application de cet
algorithme au problème avec poids échelonnés donne un schéma d’approximation po-
lynômial pour le problème original. Dauzère-Pérès et Sevaux ont introduit la notion de
la séquence maître pour dériver une formulation originale de la programmation linéaire
mixte en nombres entiers. Ils ont donné un algorithme de relaxation lagrangienne per-
mettant d’obtenir les bornes supérieures et inférieures où les expériences numériques
ont montré que l’approche proposée est capable de résoudre le problème avec une taille
de 100 tâches [D AUZÈRE -P ÉRÈS et S EVAUX, 2003]. En outre, M’Hallah et Bulfine ont pro-
posé une heuristique ainsi qu’un algorithme exact basé sur la procédure de séparation et
évaluation avec les bornes obtenues par une représentation à base du problème de sac à
dos. Les expérimentations réalisées ont indiqué que toutes les deux approches résultent
en des performances très compétitives avec des instances allant jusqu’à 2500 tâches dans
un temps réduit [M’H ALLAH et B ULFIN, 2003]. Sevaux et Dauzère-Pérès ont conçu un
algorithme génétique où trois stratégies différentes pour l’évaluation de la fonction ob-
jectif des individus, quatre types d’opérateurs de croisement et trois types d’opérateurs
de mutation ont été employés pour obtenir la meilleure configuration de l’algorithme.
L’algorithme génétique obtenu est amélioré par application d’une recherche locale et ini-
tialisation de la population avec des solutions de bonne qualité [S EVAUX et D AUZÈRE -
P ÉRÈS, 2003]. Cheng et ses collègues ont étudié un modèle de faisabilité d’ordonnance-
ment multi-agent où la fonction objectif de chaque agent est de minimiser la somme pon-
dérée du nombre des tâches en retards. Ils ont montré que lorsque le nombre d’agents est
fixé, le problème peut être résolu dans un temps pseudo polynômial pour des poids en-
tiers et dans un temps polynômial pour des poids unitaires [C HENG et collab., 2006]. Le
travail de M’Hallah et Bulfine a montré que l’heuristique proposée est bonne et très rapide
pour les problèmes non pondérés. La méthode exacte proposée résout rapidement tous
les problèmes non pondérés non résolus au préalable. Elle permet également de résoudre
les grands problèmes exploités à nos jours. Leurs résultats ont prouvé que l’algorithme est

112
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

robuste en termes du type de problème ainsi que les niveaux de ses paramètres [M’H AL -
LAH et B ULFIN , 2007]. Shabtay et Steiner ont étudié des modèles d’ordonnancement bi-
critères avec des durées opératoires contrôlables convexes, coûts de consommation de
ressources et des dates échues affectées par les méthodes CON et SLK. Pour chaque mé-
thode d’affectation des dates échues, les auteurs ont fourni une analyse bi-critère. Le pre-
mier critère est de minimiser la somme pondérée du nombre de retards plus les coûts
d’affectation des dates échues et le deuxième critère est de minimiser la somme pon-
dérée des consommations des ressources [S HABTAY et S TEINER, 2011]. Dans le contexte
de la gestion des chaînes logistiques, Rasti-Barzoki et Hejazi ont étudié un modèle d’or-
donnancement qui considère à la fois l’affectation des dates échues, ordonnancement
de la production et livraison du produit. Le problème de minimiser la somme des coûts
de livraison en lots dans une chaîne d’approvisionnement est modélisé comme un pro-
gramme en nombre entier, une heuristique et une approche par séparation et évaluation
ont été présentées pour la résolution où les performances sont sensibles à quelques pa-
ramètres du problème, sa structure et sa taille [R ASTI -B ARZOKI et H EJAZI, 2013]. De plus,
Dauzère-Pérès et Mönch ont considéré une machine unique opérant en lots avec des fa-
milles de tâches incompatibles où deux formulations différentes à base de la program-
mation linéaire mixte en nombres entiers ont été développées. La première formulation
a comme inconvénient la nécessité d’introduire un coefficient M ayant une grande va-
leur (méthode du grand M). Les expérimentations ont montré que les deux formulations
sont capables de trouver des solutions proches de l’optimale en un temps raisonnable
pour les instances de petites et moyennes tailles mais le gap peut être aussi grand dans
le cas des instances de grande taille. La deuxième formulation est capable de trouver des
meilleures bornes inférieures en comparaison avec la première approche tandis que cette
dernière donne des meilleures bornes supérieures [D AUZÈRE -P ÉRÈS et M ÖNCH, 2013].
Malgré qu’un grand nombre de travaux cumulé concernant les problèmes d’ordonnan-
cement avec différentes contraintes est disponible, le nombre d’articles réservé à l’état
de l’art de minimisation de la somme pondérée du nombre de retards dans le cas des
paramètres réels est limité. Les lecteurs intéressés peuvent consulter ( [M UNDT et W ICH,
2007] et [A DAMU et A DEWUMI, 2014]). Une analyse vigilante de la structure interne des
systèmes de production permet de distinguer deux ressources de variabilité dans les don-
nées d’ordonnancement : variation déterministe et variation stochastique. La variation
déterministe est produite en générale à cause d’un effet ayant un comportement mo-
notone telle que le phénomène de vieillissement ou d’apprentissage. L’effet d’apprentis-
sage a été présenté pour la première fois par Wright qui a démontré que le coût unitaire
dans l’industrie d’avions décroît lorsque les firmes produisent plus d’unités ou acquirent
d’avantage d’expérience [W RIGHT, 1936]. Il est à mentionner qu’une littérature riche sur
les problèmes d’ordonnancement polynômiaux à une machine avec effet d’apprentissage
est disponible ( [Y IN et collab., 2012], [W U et L EE, 2008], [J ANIAK et RUDEK, 2010], [L AI et
L EE, 2011] et [WANG et collab., 2012]). En général, les papiers traitant les approches po-
lynômiales de ces problèmes partagent un aspect commun dans le sens de proposer une
nouvelle formule d’apprentissage et par la suite déterminer les conditions sous lesquelles
les règles d’optimalité conventionnelles restent valables. Le travail récent de Rudek a été
consacré au problème d’ordonnancement à une machine avec effet d’apprentissage basé
sur la somme des durées opératoires. L’auteur a prouvé que ce problème est fortement
NP-difficile en utilisant le problème de Partition et il a implémenté un algorithme par
séparation et évaluation pour traiter de manière optimale des instances modérées ayant
jusqu’à 25 tâches [RUDEK, 2017]. Quelques études relatives à la classification et la résolu-
tion des problèmes d’ordonnancement avec durées opératoires variables sont présentées

113
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

dans ( [A LIDAEE et W OMER, 1999] et [B ISKUP, 2008]).


Pour les variations stochastiques, quelques travaux ont été dédiés aux difficultés liées
à l’application des problèmes d’optimisation. Le débat est focalisé autour de quatre caté-
gories d’incertitudes :
• Les valeurs de la fonction objectif sont affectées par le bruit ;
• Les variables de conception /environnement peuvent être changées après le pro-
cessus d’optimisation ;
• L’approximation de la fonction objectif peut amener à des erreurs d’approximation
significatives ;
• L’optimum a un comportement dynamique ce qui nécessite un suivi continu en
fonction du temps.
Sous ces contraintes, des mesures supplémentaires doivent être allouées aux algo-
rithmes évolutionnaires dans le but de conserver un niveau satisfaisant de performance
[J IN et B RANKE, 2005]. D’autres alternatives sont utilisées pour capturer la variabilité des
données au lieu de l’utilisation des modèles déterministes. Les distributions de probabi-
lité ont été largement appliquées pour la prise en compte des incertitudes internes rela-
tives aux systèmes de production. Cependant, dans le cas d’absence d’enregistrement de
données dans le passée (historique de données) ou manque de données disponibles, les
gestionnaires échouent dans la dérivation d’une distribution de probabilité exacte [C AI
et collab., 2014]. Alors, la considération d’aspect flou dans les modèles d’ordonnancement
devient inévitable pour la décision. Il est remarquable que malgré plusieurs cas pratiques
ont été manipulés considérant l’effet d’apprentissage et formulations floues séparément,
moins d’efforts ont été alloués au traitement des problèmes de minimisation de la somme
pondérée du nombre de retards lorsque ces deux sources d’imprécision sont présentes.
Qian et Steiner ont introduit les effets d’apprentissage/vieillissement et durées opéra-
toires dépendantes du temps dans les problèmes d’ordonnancement à une machine avec
la considération d’affectation des dates échues. Ils ont montré par la réduction ¡ 3 ¢du pro-
blème à un problème d’affectation la possibilité de résolution optimale en O n [Q IAN
et S TEINER, 2013]. Dans [K ASPERSKI, 2005], le degré de retard d’une tâche est remplacé
par la possibilité de l’événement que la date fin d’exécution de cette tâche dépasse la date
échue données toutes les deux par des nombres flous. Par la réduction polynômiale des
problèmes d’ordonnancement flous résultant, l’auteur a montré que la somme pondérée
des possibilités de retard est NP-difficile. Il est à noter qu’aucune expérimentation numé-
rique n’a été conduite dans ce travail et tous les développements théoriques ont été éla-
borés dans le contexte d’un objectif unique. Kasperski et Ziełiński ont étendu l’approche
de regret minmax au cas flou. Ils ont supposé que chaque tâche a une durée opératoire
unitaire et date échue réelle, tandis que les poids des tâches sont¡ des paramètres incer-¢
tains. Il a été démontré que ce problème flou peut être résolu en O n min {d , n − d } log ε−1
par une recherche binaire dans le cas des dates échues égales. Autrement, un modèle de
programmation en nombre entier est fourni. Le ¡ 2nombre
¢ de tâches juste à temps dans une
séquence optimale peut être déterminé en O n par un algorithme glouton [K ASPERSKI
et Z IEŁI ŃSKI, 2011]. Bentrcia et ses collègues ont traité le problème d’ordonnancement
à une machine avec la somme pondérée actualisée des dates de fin d’exécution où ils
ont supposée que tous les paramètres sont décrits par des nombres flous trapézoïdaux.
Des algorithmes génétique et recherche par motifs ont été proposés pour l’évaluation de
degré d’optimalité d’un ordonnancement fixe. Le cas limite lorsque le facteur d’actualisa-
tion est réduit à des valeurs très faibles a été validé numériquement [B ENTRCIA et collab.,
2015]. Il est essentiel de souligner que la majorité des travaux cité ci-dessus sont basés

114
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

sur une vision unique d’incertitude dans le sens que l’incertitude des paramètres et l’ef-
fet d’apprentissage sont manipulés séparément. Malgré que nous sommes au courant de
l’existence de quelques études intégrant ces deux aspects dans le même contexte de mo-
délisation, ces contributions sont établies dans un cadre mono objectif, ce qui limite leur
application en pratique. Par exemple, Ahmadizar et Hosseini ont proposé un problème
d’ordonnancement à une machine avec la considération des durées opératoires floues et
effet d’apprentissage à base de position. Les valeurs affectées aux durées opératoires sont
supposées d’allure triangulaire. Comme l’objectif est de minimiser la somme des dates
de fin, la procédure de solution est basée sur l’extension de la règle SPT pour supporter
les durées opératoires incertaines [A HMADIZAR et H OSSEINI, 2011]. Les mêmes auteurs
ont étudié le problème d’ordonnancement à une machine avec effet d’apprentissage à
base de position et durées opératoires floues où l’objectif est de minimiser le makespan.
Deux algorithmes polynômiaux ont été développés pour ce problème en se basant sur la
programmation par contraintes stochastiques floues et une méthode de classement de
nombres flous. Les simulations numériques résultent en des performances équivalentes
[A HMADIZAR et H OSSEINI, 2013]. Dans [B ENTRCIA et M OUSS, 2015], les auteurs ont ex-
ploité l’effet d’apprentissage et les paramètres flous avec l’objectif de minimiser la somme
pondérée des dates de fin d’exécution des tâches. Dans ce contexte, ils ont généralisé la
règle de Smith au cas flou en redéfinissant le concept d’agréabilité ordinaire. En outre,
trois métaheuristiques à base de trajectoire ont été implémentées et appliquées pour ré-
soudre le cas avec dates de disponibilité floues différentes. Les tests statistiques non para-
métriques ont été adoptés dans la comparaison des performances des métaheuristiques
proposées. Aydilek et al ont considéré un système de fabrication à machine unique dans
le but de minimiser le nombre de tâches en retard pour lesquelles les durées opératoires
sont données dans certains intervalles pour exprimer l’incertitude. Sur la base d’une re-
lation de dominance globale, plusieurs alternatives de résolution ont été évaluées et les
expérimentations numériques ont révélé que l’algorithme Updated Sequence (US) est le
plus approprié par rapport aux autres versions [AYDILEK et collab., 2017].

Dans ce chapitre, nous conduisons une analyse comparative basée sur les perfor-
mances de deux métaheuristiques : l’algorithme génétique élitiste de tri non dominé et la
recherche coucou combinée avec une procédure de recherche locale. Le problème d’or-
donnancement est formulé comme un problème d’optimisation bi-objectif où les critères
de performances sont notés par la magnitude de la somme pondérée des dates de fin flous
et la somme pondérée des possibilités des retards des tâches. Même avec des données
réelles, ce problème a une importance cruciale car le premier objectif exprime la configu-
ration efficace des ressources internes du système de production et le deuxième objectif
reflète l’état de satisfaction du client envers la qualité de service délivré. Dans ce contexte,
nous considérons l’effet d’apprentissage ainsi que l’aspect flou au niveau des durées opé-
ratoires et dates échues dans le même modèle. À notre connaissance, ce problème est
introduit pour la première fois. Dans le but de générer les instances, nous proposons une
extension de la méthode conventionnelle pour le support des nombres flous. L’améliora-
tion de la recherche coucou par des procédures de recherche locale et vol de Lévy a été
utilisée pour garantir un compromis entre l’intensification et la diversification de la re-
cherche. Le reste de ce chapitre est organisé comme suit. Dans la Section 4.2, quelques
définitions formelles associées aux concepts de base des nombres flous et théorie de pos-
sibilité sont illustrées. La Section 4.3 est dédiée à la formulation du problème ainsi que sa
complexité intrinsèque. Nous décrivons dans la Section 4.4 les deux approches à base de
population utilisées dans ce chapitre. Nous présentons dans la Section 4.5 les expérimen-
tations numériques pour évaluer les performances des stratégies proposées et nous com-

115
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

parons leur signification statistique. La Section 4.6 résume les principales contributions
et énumère quelques recommandations potentielles pour des futures améliorations.

4.2 Présentation du cadre de modélisation floue


En se basant sur le fait que plusieurs situations réelles de la vie ne peuvent pas être
décrites par des relations mathématiques précises à cause de l’inclusion d’un type d’in-
formations qui ne sont pas nécessairement déterministes. La théorie de la logique floue a
été proposée pour remédier à la limitation de la vision classique [Z ADEH, 1965]. Il est es-
sentiel de savoir que les variations stochastiques ne sont pas la seule source d’incertitude
à prendre en compte. D’autres facteurs peuvent être considérés des générateurs d’incer-
titudes comme les procédures d’acquisition ou la perception humaine des données ma-
nipulées. Dans ce qui suit, quelques définitions de base et des propriétés caractérisant les
nombres flous ainsi que les mesures de possibilité sont présentées et expliquées.

4.2.1 Nombres flous


Le concept de nombre flou a émergé comme un type particulier des ensembles flous,
où il est considéré comme une généralisation des nombres réels. Cette représentation est
utile pour assurer la modélisation adéquate des paramètres pendant l’analyse des pro-
blèmes de gestion et d’engineering [K AHRAMAN et YAVUZ, 2010]. Les nombres flous sont
utilisés pour résoudre les problèmes pratiques de types différents à cause de la présence
de subjectivité et imprécision étroitement liées au processus de décision humaine. Une
définition formelle du nombre flou est donnée ci-dessous [D IAMOND et K LOEDEN, 1994].

Définition 4.1. Un nombre flou est un ensemble flou ũ : R → [0, 1] ayant les propriétés
suivantes :
i) ũ est normal, i.e. ∃x 0 ∈ R avec ũ (x 0 ) = 1 ;
ii) ũ est un ensemble flou convexe (i.e. ũ λx + (1 − λ) y ≥ min ũ (x) , ũ y ∀x, y ∈
¡ ¢ © ¡ ¢ª

R, ∀λ ∈ [0, 1]) ;
iii) ũ est semi continu supérieur sur R ;
iv) {x 0 ∈ R : ũ (x) > 0} est un ensemble compact, avec {} est la fermeture de l’ensemble.

À cause de la complexité de calcul élevée lorsque les problèmes manipulés sont de


taille réelle en particulier avec des paramètres flous, des représentations alternatives aug-
mentant l’efficacité mais sans affecter la capacité de généralisation en dehors des limites
tolérables sont à considérer. Souvent, il est plus commode d’utiliser les nombres flous du
type L-R pour la description des données floues [C HANAS, 2001].

Définition 4.2. Un nombre flou à est dit de type L-R si sa fonction d’appartenance a la
forme :
 ³ a−x ´
 L αÃ

 pour x ≤ a




µÃ (x) = 1 pour a ≤ x ≤ ā (4.1)




 ³ ´
 R x−ā

pour x ≥ ā
βÃ

avec L et R des fonctions continues décroissantes et satisfaisant à la condition L (0) = R (0) =

116
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

1. Les paramètres αà et βà , connus sous le nom de déviations gauche et droite de la fonction
d’appartenance, sont des nombres réels non négatifs.

Une forme spéciale de l’allure des fonctions L et R est donnée par la loi de puissance :
p
 © ª
 L (z) = max 0, 1 − z 1
(4.2)
R (z) = max 0, 1 − z p 2
 © ª

avec p 1 , p 2 ≥ 1.
Si p 1 = p 2 = 1, les fonctions deviennent linéaires et donnent les nombres flous trapé-
zoïdaux connus également sous le nom des intervalles flous. Cette définition est très
générale et permet la modélisation de plusieurs types d’information :

 (a, a, 0, 0)L−R ∀L, ∀R pour un nombr e r éel a
à = ¡ ¢ £ ¤
a, ā, 0, 0 ∀L, ∀R pour un i nt er v al l e r éel a, ā

L−R
Le principe d’extension introduit par Zadeh joue un rôle prépondérant dans la géné-
ralisation des applications définies sur R vers des applications définies sur des ensembles
flous F. Les opérations arithmétiques élémentaires dans le cas flou peuvent être déduites
des opérations classiques opérant sur des nombres réels [T ZAFESTAS et V ENETSANOPOU -
LOS , 1994].

Définition 4.3. Soit X le produit cartésien des espaces X 1 , X 2 ,..., X r et A1 , A2 ,..., Ar sont r
ensemble flous de X 1 , X¡ 2 ,...,
¢ ©X r respectivement.
ª Soit f une application de X sur l’espace Y, i.e.
y = f (x 1 , ..., x r ) et f −1 y = x ∈ X/ f (x) = y . Alors, le principe d’extension permet d’induire
des r ensembles flous Ai , un ensemble flou B de Y par f comme suit :

f −1 y 6= φ
 ¡ ¢ 

 sup min {A1 (x 1 ) , ..., Ar (x r )} si 

¡ ¢ 
 y= f (x 1 ,x 2 ,..,x r ) 

B y = ∀y ∈ Y (4.3)

 

f −1 y = φ
 ¡ ¢ 
0 si
 

Il est possible de généraliser les opérations unaires et binaires sur les nombres flous
en concentrant sur les cas particuliers r = 1 et r = 2. Soient M, N ∈ F (R) deux élements
de l’espace des nombres flous F et ◦ : R × R → R une opération binaire. Si nous notons
l’opération généralisée par ◦˜ , la relation M˜◦N represente un ensemble flou de R avec la
fonction d’appartenance :
 
si (◦)−1 (z) 6= φ 
© ¡ ¢ª

 sup min M (x) , N y 
 z=x◦y
 

(M˜◦N) (z) = ∀z ∈ R (4.4)

 

 0 si (◦)−1 (z) = φ
 

En appliquant cette formule, nous obtenons les expressions floues équivalentes à la


somme et la multiplication par un scalaire positif λ pour tous nombres flous de type L-R
à et B̃ :

à ⊕ B̃ = a, ā, αA , βA L−R ⊕ b, b̄, αB , βB L−R = a + b, ā + b̄, αA + αB , βA + βB L−R


¡ ¢ ¡ ¢ ¡ ¢

117
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

λ ⊗ Ã = λ ⊗ a, ā, αA , βA L−R = λ × a, λ × ā, λ × αA , λ × βA L−R


¡ ¢ ¡ ¢

Au contraire à la structure de l’ensemble des réels R pour lequel un ordre total existe,
il est très difficile de comparer des nombres flous représentés par des distributions de
possibilité car ils peuvent se chevaucher. Cependant, une alternative efficace consiste
en l’utilisation des fonctions de classement pour établir un ordre comme proposée dans
[J AIN, 1976]. Cette approche attache à chaque nombre flou un point sur la ligne réelle R,
ce qui rend la comparaison possible. Deux relations de dominance sont élaborées dépen-
damment de la localisation relative des nombres flous. La dominance forte caractérise
des nombres flous complètement distincts tandis que la dominance faible caractérise
des nombres flous chevauchés en utilisant les fonctions de classement. Une définition
formelle de la dominance faible est présenté ci-dessous [Ö ZELKAN et D UCKSTEIN, 1999].

Définition 4.4. Soient E : F → R une¡fonction


¢ ¡ de
¢ classement, Ã et B̃ deux nombres flous. On
dit que à domine faiblement
© ª B̃ si E à ≥ E B̃ , la dominance faible est notée par à ≥w B̃.
Dans ce cas, on a maxw Ã, B̃ = Ã.

En réponse aux limites des fonctions de classement existantes qui sont dans certains
cas en contradiction avec l’intuition humaine ou bien ne sont pas discriminantes, Aba-
sabandy et Hajjari ont proposé une nouvelle approche pour le classement des nombres
flous trapézoïdaux en se basant sur les déviations gauche et droite à une certaine coupe γ
du nombre flou trapézoïdal [A BBASBANDY et H AJJARI, 2009]. Le calcul de cette méthode
est détaillé dans la définition suivante.

Définition 4.5. La magnitude d’un nombre flou arbitraire à = a, ā, αà , βà L−R avec forme
¡ ¢
γ=1
paramétrique A γ , Ā γ est donnée par Mag à = 12 A γ + Ā γ + a + ā f γ d γ où
£ ¡ ¢ ¡ ¢¤ ¡ ¢ R ¡ ¡ ¢ ¡ ¢ ¢ ¡ ¢
γ=0
γ=1
f γ d γ = 12 .
R ¡ ¢
la fonction f est une fonction décroissante sur [0, 1] avec f (0) = 0, f (1) = 1 et
γ=0

Il est à noter que si f est égale à 1 (au sens des fonctions) et seulement les bornes des
coupes γ sont considérées, alors l’expression de la magnitude se réduit à la formule pro-
posée initialement par Yager [YAGER, 1981].
Comme la capacité des nombres flous plats (intervalles flous) ayant des fonctions
d’appartenance non linéaires à représenter les variables linguistiques est plus grande
[B OJADZIEV et B OJADZIEV, 1996], le Corollaire suivant donne l’expression explicite de la
magnitude d’un nombre flou plat avec p 1 = p 2 = 2 pour les fonctions L et R.

£ αà , βÃpL−R un nombre


¡ ¢
¡ ¢ à ¡= ¢¤a, ā,
Corollaire 4.1.£ Soit p flou¤ plat (intervall flou) avec forme
paramétrique A γ , Ā γ = a − αà ¡ 1¢ − γ,¡ā + βâ 1 −¡ γ i.e. allure parabolique. Donc, la
magnitude de à est définie par Mag à = 21 a + ā − 15 2
αà − βà .
¢

Démonstration.
En substituant les bornes de la forme paramétrique dans l’expression générale de la
Définition 4.5, nous obtenons :
γ=1
Mag à = 12 a − αà 1 − γ + ā + βà 1 − γ + a + ā f γ d γ
¡ ¢ R ¡ p p ¢ ¡ ¢
γ=0
Si nous considérons la forme simple de f ( f γ = γ) nous pouvons écrire :
¡ ¢

118
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

γ=1
Mag à = 12 2a + 2ā − αà − βà 1 − γ γd γ
¡ ¢ R ¡ ¡ ¢p ¢
γ=0
γ=1 ¢ γ=1
Mag à = 12 2a + 2ā γd γ − 12 αà − βà γ 1 − γ dγ
¡ ¢ R ¡ ¢ ¡ R ¡ p ¢
γ=0 γ=0
γ=1 µ 3 ¶¯γ=1
2(3γ+2)(1−γ) 2 ¯¯
Mag à = 12 2a + 2ā γd γ − 1
αà − βÃ
¡ ¢ R ¡ ¢ ¡ ¢
2
− 15
γ=0 γ=0
¯

Après quelques manipulations mathématiques, nous obtenons :

Mag à = 12 a + ā − 15
¢ 2 ¡
αà − βÃ
¡ ¢ ¡ ¢

4.2.2 Mesures de possibilité


La construction de la théorie de possibilité a été initiée par les travaux du professeur
Lotfi Zadeh ( [Z ADEH, 1968] et [Z ADEH, 1978]), où il a démontré que la théorie des en-
sembles flous peut jouer un rôle similaire à la théorie de mesure dans l’élaboration des
fondations des probabilités. Avec le développement accéléré de la théorie des ensembles
flous et en profitant de la structure topologique riche des nombres flous, les mesures de
possibilité sont devenues un concurrent compétitif aux notions classiques de probabilité.
Les mesures floues sont nécessaires pour l’introduction de plusieurs concepts d’analyse
mathématique tels que l’ordre ou la convergence des entités floues. Donc, une concep-
tualisation bien définie doit être donnée sur la base des ensembles flous [K LIR et Y UAN,
1995].

Définition 4.6. Soient X un ensemble universel et ξ une famille des sous ensembles de X
non vide, la mesure floue sur 〈X, ξ〉 est une fonction g : ξ → [0, 1] qui satisfait les conditions
suivantes :
i) g φ = 0 ∧ g (X) = 1 ;
¡ ¢

ii) ∀A, B ∈ ξ,(A ⊆ B) ⇒ g (A) ≤ g (B) ;


¡ ¢
µ ¶ µ µ ¶¶
∞ ∞
iii) {∀A1 , A2 , .. ∈ ξ/A1 ⊂ A2 ⊂ ...}, ∪ Ai ∈ ξ ⇒ lim g (Ai ) = g ∪ Ai ;
i =1 i →∞ i =1
µ ¶ µ µ ¶¶
∞ ∞
iv) {∀A1 , A2 , .. ∈ ξ/A1 ⊃ A2 ⊃ ...}, ∩ Ai ∈ ξ ⇒ lim g (Ai ) = g ∩ Ai .
i =1 i →∞ i =1

Définition 4.7. Soit Pos une ¶ floue sur 〈X, ξ〉. Alors, Pos est dite une mesure de possi-
µ mesure
bilité si et seulement si Pos ∪ Ak = sup Pos (Ak ) pour toute famille {Ak /k ∈ K} dans ξ telle
k∈K k∈K
que ∪ Ak ∈ ξ, où K est un ensemble d’indices arbitraires.
k∈K

Théorème 4.1. Toute mesure de possibilité Pos sur l’ensemble puissance fini P (X) est uni-
quement detrminée par une fonction de distribution de possibilité r : X → [0, 1] via la for-
mule Pos (A) = max r (x) pour tout A ∈ P (X).
x∈A

La mesure de possibilité est directement liée aux ensembles flous à travers les fonc-
tions de distribution de possibilité associées. L’événement "la variable Ξ prend la valeur
ξ dans un ensemble universel Σ" est donnée par l’équation Ξ = ξ. Une contrainte flexible
H est imposée sur Σ limitant ainsi les valeurs affectées à Ξ. L’assertion H(ξ) peut être in-
terprétée comme le degré de compatibilité de ξ avec la contrainte décrite par H. Mais

119
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

en incluant la proposition "Ξ est H", il sera plus approprié d’interpréter H(ξ) comme le
degré de possibilité que Ξ = ξ. Cette interprétation de la possibilité d’un événement est
en générale moins expressive en comparaison avec les probabilité mais utilisant moins
d’informations [D UBOIS et collab., 2004].

Définition 4.8. Soient H un ensemble flou sur Σ et la proposition "Ξ est H", la possibilité
r H (ξ) de Ξ = ξ est numériquement égale au degré H(ξ) pour lequel ξ appartient à H pour
tout ξ ∈ Σ. La mesure de possibilité associée Pos H est définie pour tout A ∈ P (Σ) par l’équa-
tion :

Pos H (A) = sup r H (ξ) (4.5)


ξ∈A

Comme une discrimination quantitative claire entre les nombres flous ne peut pas
être achevée dans certains cas (tels que l’intersection des parties croissantes ou décrois-
santes des fonctions d’appartenance) utilisant uniquement les opérateurs généralisés
m ãx et m i˜n, des approches plus efficaces peuvent être développées en se basant sur les
mesures de possibilité comme indiqué par les définitions suivantes [D UBOIS et P RADE,
1988].

Définition 4.9. Soient P et Q deux quantités floues. Pour déterminer si P est supérieur à
Q, la comparaison des deux ensembles P et ]Q, +∞] par la possibilité d’un évènement flou
au sens de µP , de l’évènement flou ]Q, +∞] est faite. Dans ce contexte, on obtient l’indice
fondamental de comparaison suivant :

³ ¤´
ΠP (]Q, +∞]) = sup min µP (u) , inf 1 − µQ (v) = sup inf min µP (u) , 1 − µQ (v)
£ ¡ £ ¤¢
(4.6)
u v≥u u v≥u

Si X et Y sont les variables associées avec les domaines controlés par µP et µQ respecti-
vement, alors cet indice peut être interprété comme la possibilité que les valeurs maxi-
males
¡ que¢ X peut prendre sont supérieures aux valeurs maximales que Y peut prendre
Pos X̄ > Ȳ . Le calcul explicite de la valeur de cet indice se réduit à trouver les cor-
données des points d’intersection des parties extrèmes droites des fonctions ³ d’apparte-
´
nances µP et µQ . Pour des nombres flous du type L-R donnés par P = p, p̄, αP , βP
³ ´ ³ ´ ³ ´ L−R
z−p̄ z−q̄
et Q = q, q̄, αQ , βQ , la résolution de l’équation f (z) = 1 − βP − βQ = 0 donne
L−R
∗ βQ βP +βQ p̄+βP q̄
z = βP +βQ
.

Corollaire 4.2. Pour des nombres flous trapézoïdaux ( L (z) = R (z) = max (0, 1 − z)), en sub-
stituant la valeur de z ∗ dans µQ , on obtient l’expression suivante pour le degré de possibilité
en fonction des valeurs des déviations et modales des nombres flous :

p̄ − q̄ + βP
µ µ ¶¶
¡ ¢
Pos X̄ > Ȳ = max 0, min 1, (4.7)
βP + βQ

Sans grande difficulté, il est possible d’étendre la formule précédente de possibilité (ob-
tenue pour le cas trapézoïdal) au cas où l’allure des fonctions d’appartenance est donnée
par un polynôme de deuxième degré (allure parabolique).

¡ Pour
Corollaire 4.3.
2
¢des nombres flous plats (intervalles flous) d’allure parabolique (L (z) =
R (z) = max 0, 1 − z ), l’expression du degré de possibilité en fonction des paramètres de

120
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

déviations gauche et droite ainsi que les paramètres modaux associés aux nombres flous est
comme suit :

p̄ + βP ≤ q̄
 ¡¡ ¢ ¢

 0 si




p̄ ≥ q̄ + βQ
¡ ¡ ¢¢
1 si





¡ ¢ 
Pos X̄ > Ȳ = (4.8)
 1 − z1 −p̄ 2 si ¡z ∈ ¡£p̄, p̄ + β ¤ ∩ £q̄, q̄ + β ¤¢¢
³ ´


 βP 1 P Q




 1 − z2 −p̄ 2 si ¡z ∈ ¡£p̄, p̄ + β ¤ ∩ £q̄, q̄ + β ¤¢¢

 ³ ´

βP 2 P Q

avec z 1 et z 2 représentent les solutions de l’équation du seconde ordre donnée par g (z) =
z−p̄ 2 z−q̄ 2
³ ´ ³ ´
1 − βP − βQ = 0.
Démonstration.
Comme les deux parties gauche et droite des fonctions d’appartenance ont une allure
parabolique, les cordonnées des points d’intersection des fonctions d’appartenance ne
sont que les racines de l’équation du deuxième ordre :
z−p̄ 2 z−q̄ 2
³ ´ ³ ´
g (z) = 1 − βP − βQ = 0. La résolution de cette équation utilisant la méthode
classique du discriminant permet d’avoir les expressions explicites des racines z 1 et z 2
comme indiqué ci-dessous :
  rn³ ´ o
2

 β2Q p̄+β2P q̄−βP βQ β2Q +β2P −(p̄−q̄ )
z1 = 

 
β2P +β2Q





  rn³ ´ o
2 2 2
βQ p̄+βP q̄+βP βQ β2Q +β2P −(p̄−q̄ )




 z2 =
  
β2P +β2Q

La procédure de développement est maintenant simplifiée en considérant les diffé-


rentes situations de la position des parties gauche et droite des courbes des fonctions
d’appartenance en plus des intervalles de validité des solutions obtenues. Avec quelques
manipulations mathématiques nous pouvons déduire que :

β
 ¡¡ ¢ ¢

 0 si p̄ + P ≤ q̄




p̄ ≥ q̄ + βQ
¡ ¡ ¢¢
1 si





¡ ¢ 
Pos X̄ > Ȳ =
z 1 −p̄ 2
³ ´
β β
¡ ¡£ ¤ £ ¤¢¢



 1 − β P
si z 1 ∈ p̄, p̄ + P ∩ q̄, q̄ + Q




 1 − z2 −p̄ 2 si ¡z ∈ ¡£p̄, p̄ + β ¤ ∩ £q̄, q̄ + β ¤¢¢

 ³ ´

βP 2 P Q

4.3 Déscription du problème d’ordonnancement


Le problème étudié dans ce chapitre peut être considéré comme une généralisation
du problème d’ordonnancement mono objectif de minimisation de la somme pondé-
rée du nombre des tâches en retard. Un objectif supplémentaire est pris en compte et

121
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

l’ensemble des tâches est à exécuter sur une ressource unique. Des contraintes addition-
nelles sur l’évaluation des deux fonctions objectifs sont incluses pendant la procédure
d’optimisation. La formulation du problème est élaborée en se basant sur les hypothèses
suivantes :

• La préemption des tâches n’est pas permise ;


• Seulement une tâche est traitée à la fois par la machine ;
• Les dates de disponibilité des tâches sont fixées au début de l’horizon du temps
t = 0;
• Les durées de configuration dépendantes des séquences et les relations de précé-
dences entre les tâches ne sont pas considérées ;
• Les durées opératoires ainsi que les dates échues de chaque tâche sont connues
d’une façon approximative ;
• Les deux types des coefficients de pénalité et le coefficient d’apprentissage sont
considérés comme des paramètres déterministes (valeurs entières pour les facteurs
de pénalité et valeurs réelles pour le coefficient d’apprentissage.)

Les notations suivantes sont utilisées pour décrire notre problème d’ordonnancement à
une machine avec paramètres incertains :

• n : Nombre de tâches ;
• p̃ i : Durée opératoire de tâche i (i = 1, 2, ..., n) ;
• C̃i : Date fin d’exécution de tâche i (i = 1, 2, ..., n) ;
• d˜i : Date échue de tâche i (i = 1, 2, ..., n) ;
• J : Ensemble de tâches avec Car d (J) = n ;
• ωi : Coefficient de pénalité de tâche i associé à la somme pondérée des possibilités
de retard ;
0
• ωi : Coefficient de pénalité de tâche i associé à la somme pondérée des dates de fin
d’exécution ;
• Le f f : Facteur d’apprentissage.

Comme la durée opératoire et la date échue d’une tâche i sont considérées comme
des paramètres flous, nous proposons de modéliser l’incertitude au niveau de ces para-
mètres utilisant des fonctions d’appartenance (fonctions L et R) d’allure parabolique. En
effet, les nombres flous plats ont été utilisés dans plusieurs problèmes pratiques pour la
modélisation convenable des paramètres incertains (voir par exemple [G UPTA et collab.,
2013] et [E BRAHIMNEJAD, 2016]). Par conséquent, la fonction d’appartenance générique
des durées opératoires floues est donnée par :
 ³ p −x ´2
i
1 − pour x ≤ p

αp̃ i

i







µp̃ i (x) = 1 pour p ≤ x ≤ p̄ i
i
(4.9)




 1 − x−p̄ i 2 pour x ≥ p̄

 ³ ´


βp̃ i i

et la fonction d’appartenance des dates échues floues est donnée par :

122
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

 µ ¶2
d i −x
pour x ≤ d i



 1 − αd˜
i






µd˜i (x) = 1 pour d i ≤ x ≤ d¯i (4.10)





 µ ¶2
d¯i
 1 − x− pour x ≥ d¯i



β˜ di

D’une façon équivalente, une notation plus compacte peut être³ obtenue comme ´ un
quadruplet (représentation L-R) pour les deux paramètres p̃ i = p , p̄ i , αp̃ i , βp̃ i et
³ ´ i L−R
d˜i = d i , d¯i , αd˜i , βd˜i . En pratique, la détermination exacte des valeurs de déviations
L−R
gauche/droite et la valeur modale nécessite l’intervention des experts [B UCKLEY, 2005].
Dans le cadre de notre problème d’ordonnancement bi-objectif, nous considérons que la
durée opératoire floue actuelle d’une tâche est affectée par la position de la tâche dans la
séquence selon le modèle d’apprentissage de Biskup donné dans le cas déterministe par
[B ISKUP, 1999] :

p iA = i Le f f × p i (4.11)

Utilisant le principe d’extension pour les durées opératoires floues nous pouvons écrire :

³ ´
p̃ iA = i Le f f ⊗ p̃ i = i Le f f × p̄ i , i Le f f × p , i Le f f × αp̃ i , i Le f f × βp̃ i (4.12)
i L−R

Avant de calculer les deux fonctions objectifs, nous avons besoin d’obtenir les expressions
des dates de fin floues pour une tâche fixe i dans l’ordonnancement. La date fin floue
i i
d’exécution est calculée par la formule C̃i = ⊕ p̃ Aj = ⊕ j Le f f ⊗ p̃ j . Dans la notation
P P
j =1 j =1
à !
i i i i
Le f f Le f f Le f f Le f f
× αp̃ j , × βp̃ j
P P P P
L-R, nous avons C̃i = j ×p , j × p̄ j , j j . En se
j =1 j j =1 j =1 j =1
L−R
basant sur la notation L-R de la date fin floue C̃i , il est possible de déduire la possibilité
de retard exprimant le degré de la réalisation de l’évènement "la tâche i est en retard"
comme suit :

123
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

 ÃÃ ! !
i i
j Le f f × p̄ j + j Le f f × βp̃ j ≤ d¯i
P P
0 si






 j =1 j =1




 Ã !
i

 ³ ´
j Le f f × p̄ j ≥ d¯i + βd˜i
 P


 1 si
j =1







¢  2
Pos C̃i > d˜i = i
¡ 
L
x 1 − j e f f ×p̄ j
P
 j =1
x 1 ∈ h 1 Le f f , p̃, d˜ , h̄ 1 Le f f , p̃, d˜
 ¡ £ ¡ ¢ ¡ ¢¤¢
1 −  Pi si

 
 
 L


 j e f f ×βp̃ j

 j =1





  i
2
 P Le f f


 x 2 − j × p̄ j
  j =1 ¡ £ ¡
˜ , h̄ 1 Le f f , p̃, d˜
¢ ¡ ¢¤¢
1 − si x ∈ h L , p̃, d
 

  i
P Le f f
 2 1 e f f
j

 ×βp̃ j
j =1
(4.13)

avec

h 1 Le f f , p̃, d˜ , h̄ 1 L ˜ =
£ ¡ ¢ ¡ ¢¤
e
Ã" f f , p̃, d # !
i i i h i
Le f f Le f f Le f f
× βp̃ j ∩ d¯i , d¯i + βd˜i
P P P
j × p̄ j , j × p̄ j + j
j =1 j =1 j =1
à ! à !2 à ! (à à !2 ! Ãà ! !2 ) 21
i Le f f i Le f f i L i L i L
β2˜ d¯i − j e f f ×βp̃ j βd˜ β2˜ + j e f f ×βp̃ j j e f f ×p̄ j −d¯i
P P P P P
j ×p̄ j + j ×βp̃ j −
di j =1 j =1 j =1 i di j =1 j =1
x1 = Ã !2
i Le f f
+β2˜
P
j ×βp̃ j
j =1 di

à ! à !2 à ! (à à !2 ! Ãà ! !2 ) 12
i L i L i L i L i L
β2˜ j ef f j ef f d¯i + j e f f ×βp̃ j βd˜ β2˜ + j ef f j ef f −d¯i
P P P P P
×p̄ j + ×βp̃ j ×βp̃ j − ×p̄ j
di j =1 j =1 j =1 i di j =1 j =1
x2 = Ã !2
i Le f f
+β2˜
P
j ×βp̃ j
j =1 di

Donc, la première fonction objectif est exprimée par la somme pondérée des possi-
iP
=n
bilités de retard des tâches dans l’ordonnancement ( ωi × Pos C̃i > d˜i ).
¡ ¢
i =1
Concernant la deuxième fonction objectif, la somme pondérée des dates de fin floues
d’exécution des tâches est exprimée par :
 Ã ! Ã ! 
n 0 i n 0 i
ω × j L e f f × p , ωi × j Le f f × p̄ j ,
P P P P
 i =1 i j i =1
 
n j =1 j =1 
P 0
ωi ⊗ C̃i = 
 
 
i =1
à ! à ! 
 n 0 i n 0 i 
Le f f Le f f
ωi × × αp̃ j , ωi × × βp̃ j
P P P P
j j
 
i =1 j =1 i =1 j =1
L−R
La formule finale de la deuxième fonction objectif exprimée par la magnitude de la
iP
=n 0
µ ¶
somme pondérée des dates de fin floues (Mag ωi ⊗ C̃i ) est donnée par :
i =1

124
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains
à à ! à !!
n n i n i
µ ¶
0 0 0
ωi ⊗ C̃i = 12 ωi × j Le f f × p ωi × j Le f f × p̄ j
P P P P P
Mag +
i =1 i =1 j =1 j i =1 j =1

à à ! à !!
n 0 i n 0 i
2
ωi × j Le f f × αp̃ j − ωi × j Le f f × βp̃ j
P P P P
− 15
i =1 j =1 i =1 j =1

Il est à mentionner que les coefficients de pénalité sont choisis de telle sorte que
0
ωi > ωi , ce qui permet de refléter l’hypothèse économique que le coût de retard de li-
vraison d’une unité d’un produit au client est souvent supérieure au coût par unité de
temps par unité de produit engendré lors de la prolongation du séjour de cette unité
au sein du système de production. Dans ce qui suit, nous présentons deux théorèmes
annonçant
¯ la¯complexité des problèmes ¯ d’ordonnancements
¯ mono¶ objectifs donnés par
¯iP
=n iP
=n 0
µ
1 ¯¯Le f f , p̃ i , d˜i ¯¯ ωi × Pos C̃i > d˜i et 1 ¯¯Le f f , p̃ i ¯¯Mag ωi ⊗ C̃i respectivement.
¯ ¡ ¢ ¯ ¯
i =1 i =1

¯ ¯
¯iP
=n
˜
Théorème 4.2. Le problème 1 ¯Le f f , p̃ i , d i ¯¯ ωi × Pos C̃i > d˜i est NP-difficile au sens
¯ ¡ ¢
¯
i =1
fort.

Démonstration.
En premier, nous avons besoin de reformuler notre problème d’optimisation sous forme
décisionnelle.
Instance : Un ensemble fini de tâches J = {1, ..., n}. Pour chaque tâche j ∈ J, une durée
opératoire floue, une date échue floue, un coefficient de pénalité réel et un facteur
d’apprentissage sont associés. Une valeur fixe B (borne supérieure) est donnée pour
exprimer la taille de la contrainte.
iP
=n
ωi × Pos C̃i > d˜i ≤ B ?
¡ ¢
Question : Existe t’il un ordonnancement pour J tel que
i =1
Il¯ est facile ¯ d’observer que la version décisionnelle du problème
¯iP
=n
1 ¯¯Le f f , p̃ i , d˜i ¯¯ ωi × Pos C̃i > d˜i appartient à la classe NP car un algorithme (ma-
¯ ¡ ¢
i =1
chine de Turing) non déterministe nécessite seulement de prévoir une permutation des
tâches et de tester dans un temps polynômial si la somme pondérée des possibilités de
retard ne dépasse pas la taille de la contrainte B. ¯ ¯
¯ ¯iP=n
Maintenant, nous démontrons que le problème d’ordonnancement 1 ¯¯Le f f ¯¯ Ui peut
¯ ¯ i =1
¯iP=n
être réduit polynômialement à notre problème 1 ¯¯Le f f , p̃ i , d˜i ¯¯ ωi × Pos C̃i > d˜i . Nous
¯ ¡ ¢

¯ ¯ i =1
¯ ¯iP
=n
rappelons qu’une instance de 1 ¯¯Le f f ¯¯ Ui consiste d’un ensemble de tâches J = {1, ..., n},
i =1
durée opératoire positives p i , dates échues positives d i et facteur d’apprentissage Le f f
commun à toutes les tâches i ∈ J. Le retard d’une tâche i est défini par :

 1 si Ci > d i
Ui =
0 si Ci ≤ d i

Alors, la fonction objectif dans ce problème est de déterminer


³ la séquence pour ´ la-
quelle le nombre de tâches en retard est minimal. Soit Π = n, p i =1,n , d i =1,n , Le f f une
¯ ¯
¯ ¯iP
=n
instance du problème 1 ¯Le f f ¯¯ Ui . Nous construisons l’instance correspondante
¯
i =1

125
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains
¯ ¯
0
³ ´ ¯iP
=n
= n, p̃ i =1,n , d˜i =1,n , ωi =1,n , Le f f du problème 1 ¯¯Le f f , p̃ i , d˜i ¯¯ ωi × Pos C̃i > d˜i
¯ ¡ ¢
Π
i =1
comme suit :
 ¡ ¢

 p̃ i = p i , p i , 0, 0




d˜i = (d i , d i , 0, 0)




 ω =1

i

Comme dans ce cas, les durés opératoires et les dates échues ¡ sont des para-
˜
¡ ¢ ¢
mètres réels, l’assertion suivante est vraie pour chaque tâche Pos C̃i > d i = Ui ⇒
iP
=n ¢ iP =n
µ ¶
ωi × Pos C̃i > d˜i =
¡
Ui . De cette implication, nous pouvons déduire que la
i =1 ¯i =1 ¯
¯ ¯iP=n
solution optimale de 1 ¯Le f f ¯¯ Ui pour l’instance Π est la même solution optimale de
¯
¯ ¯ i =1
¯iP
=n 0 0
1 ¯¯Le f f , p̃ i , d˜i ¯¯ ωi × Pos C̃i > d˜i pour Π . De plus, il est claire que l’instance Π peut
¯ ¡ ¢
i =1
être déduite de Π dans un temps d’ordre polynômial¯ O (n). Ceci¯ signifie qu’en implé-
¯iP
=n
mentant un algorithme polynômial au problème 1 ¯¯Le f f , p̃ i , d˜i ¯¯ ωi × Pos C̃i > d˜i ,
¯ ¡ ¢

¯ ¯ i =1
¯ ¯iP=n
nous serons capable de résoudre le problème 1 ¯¯Le f f ¯¯ Ui dans un temps polynômial
¯ ¯ i =1
¯ ¯iP=n
également. Le problème 1 ¯¯Le f f ¯¯ Ui est NP-difficile au sens fort comme prouvé
i =1 ¯ ¯
¯iP=n
dans [L IN, 2007], d’où notre problème 1 ¯Le f f , p̃ i , d i ¯¯ ωi × Pos C̃i > d˜i est fortement
˜
¯ ¡ ¢
¯
i =1
NP-difficile.
¡ ¢
Théorème 4.3. Si les tâches ont ³ des poids
´ agréables flous i.e. ∀ i , j ∈ J × J :
0 0
Mag p̃ j ≥ Mag p̃ i implique ωi ≥ ω j , alors pour la minimisation du problème
¡ ¡ ¢ ¡ ¢¢
¯ ¯
iP=n 0
µ ¶
ωi ⊗ C̃i , il suffit de classer les tâches dans l’ordre croissant du rapport
¯ ¯
1 ¯Le f f , p̃ i ¯Mag
¯ ¯
i =1
Mag (p̃ k )
0 pour k = 1, n
ωk

Démonstration.
La démonstration est basée sur la linéarité de la fonction magnitude (qui est vérifiée car
les coefficients de pénalité prennent des valeurs positives) et la procédure de permutation
des tâches comme détaillé pour un cas similaire dans [B ENTRCIA et M OUSS, 2015].

Malgré que le théorème précédent déclare que le problème peut être résolu dans
un temps d’ordre polynômial, mais dans le cas général lorsque ¯ l’hypothèse
¯ µ d’agréa-
iP
=n 0

ωi ⊗ C̃i
¯ ¯
bilité floue n’est pas satisfaite, la complexité du problème 1 ¯¯Le f f , p̃ i ¯¯Mag
i =1
reste ouverte comme c’est le cas pour le même problème avec donnés détermi-
nistes [M OSHIEOV, 2001]. À ce niveau de développement, il est possible de formu-
ler notre problème d’ordonnancement bi-objectif à une machine avec données incer-
taines et effet d’apprentissage basé sur la position, les deux fonctions objectifs sont
à minimiser. Donc, la notation à trois champs de notre problème est donnée par

126
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains
¯ ¯µ
¯ iP
=n iP
=n 0
µ ¶¶
˜ ˜
ωi × Pos C̃i > d i , Mag ωi ⊗ C̃i . Si l’approche de la somme pon-
¯ ¡ ¢
1 ¯Le f f , p̃ i , d i ¯
¯ ¯
i =1 i =1
dérée est utilisée pour élaborer une seule fonction objectif, l’analyse de la complexité sera
une mission facile à accomplir et la complexité de calcul dépendra principalement de la
complexité du problème le plus sophistiqué. Mais, quand les deux objectifs sont mani-
pulés individuellement dans le contexte d’une stratégie de classement non dominée, le
nombre des ordonnancements non dominés du front optimal peut croître d’une façon
exponentielle en fonction de la taille du problème. Le théorème suivant est très utile car il
relie la complexité des problèmes d’optimisations mono-objectifs aux problèmes multi-
objectifs [C HEN et B ULFIN, 1993].

Théorème 4.4. Soit 1 || γ1 et 1 || γ2 deux problèmes d’ordonnancement à une machine avec


les critères à minimiser γ1 et γ2 respectivement. Si le problème 1 || γ1 (ou 1 || γ2 ) est NP-
difficile, alors les problèmes d’ordonnancement à une machine¡ basés¢ sur les approches
γ 1 || γ1 , γ2 et somme pondé-
¡ ¢
de : critère primaire /secondaire 1 || /γ
1 2 , non domination
rée 1 || λ1 γ1 + λ2 γ2 sont tous des problèmes NP-difficiles.
¡ ¢

Sans restriction, ce théorème reste valide même avec l’introduction des contraintes du
deuxième champ dans la notation de Graham.

Corollaire
¯ 4.4.¯µ Le problème d’ordonnancement bi-objectif à une machine noté par
¯ iP
=n iP
=n 0
µ ¶¶
1 ¯¯Le f f , p̃ i , d˜i ¯¯ ωi × Pos C̃i > d˜i , Mag ωi ⊗ C̃i est NP-difficile au sens fort.
¯ ¡ ¢
i =1 i =1

Démonstration.
Ce Corollaire découle directement de l’application des Théorèmes 4.2 et 4.4.

4.4 Présentation des métaheuristiques multi-objectifs à


base de population
Les approches métaheuristiques peuvent être vues comme des outils de niveau abs-
trait ou génériques permettant l’obtention des solutions acceptables pour une large
gamme de problèmes NP-difficiles. Les propriétés suivantes sont communes à la majo-
rité des métaheuristiques : leurs principes sont inspirés des phénomènes naturels ; leurs
évolutions sont sujettes à des altérations stochastiques ; elles n’exploitent pas les informa-
tions relatives au gradient ou dérivées supérieures de la fonction objectif et finalement
elles contiennent des paramètres de configuration qui nécessitent un ajustement selon
le problème étudié dans le but d’avoir des bonnes performances [B OUSSAÏD et collab.,
2013].
Les métaheuristiques à base de population maintiennent plusieurs solutions can-
didates et essayent d’améliorer leurs qualités par l’utilisation de la théorie évo-
lutionnaire de Darwin ou en exploitant d’autres comportements sociaux de co-
opération. Dans cette section, nous étudions l’applicabilité de deux métaheuris-
tiques
¯ pour la ¯µ résolution du problème µd’ordonnancement bi-objectif à une machine
¯ iP
=n iP
=n 0
¶¶
1 ¯¯Le f f , p̃ i , d˜i ¯¯ ωi × Pos C̃i > d˜i , Mag ωi ⊗ C̃i . En particulier, nous focalisons
¯ ¡ ¢
i =1 i =1
les efforts sur la détermination de tous les ordonnancements non dominés par rapport
aux deux objectifs simultanément : la somme pondérée des possibilités de retard des
tâches et la somme pondérée des dates de fin floues d’exécution. La première métaheuris-
tique est le fameux algorithme génétique élitiste de tri non dominé tandis que la deuxième

127
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

est la recherche coucou combinée avec une procédure de recherche locale afin d’inten-
sifier la recherche autour des solutions rencontrées. Les deux approches cherchent à gé-
nérer toutes les solutions optimales dans le but de permettre aux décideurs d’établir un
compromis entre les objectifs considérés. Il est à mentionner que ces métaheuristiques
sont à base de population commençant avec des configurations initiales aléatoires ou ob-
tenues selon une heuristique et améliorent avec les itérations jusqu’à la vérification d’un
critère d’arrêt.

4.4.1 Algorithme génétique élitiste de tri non dominé


Originalement, le paradigme de la programmation génétique a été proposé par Hol-
land comme un outil d’optimisation mono-objectif, où un ensemble de solutions évolue
par la modification et/ou maintien des propriétés des individus utilisant les opérateurs
génétiques tels que la mutation, le croisement et la sélection. Pendant les générations
consécutives, les solutions de bonne qualité ont plus de chance d’être sélectionnées pour
contribuer à la progression de la population tandis que les solutions de qualité médiocre
sont éliminées. La qualité d’une solution spécifique peut être évaluée avec la fonction
finesse déduite à partir de la fonction objectif utilisant quelques règles [C OLEY, 1999].
Mais plusieurs applications de la vie quotidienne incluent des objectifs multiples ce qui
nécessite des approches d’optimisation plus élaborées pour l’évaluation de l’optimalité
des solutions. Dans le travail pionnier de Deb et ses collègues, l’extension de l’algorithme
génétique basé sur la non dominance a été proposée [D EB et collab., 2002]. La version
modifiée baptisée algorithme génétique élitiste de tri non dominé version 2 (en anglais
NSGA II) est caractérisée par une procédure de tri non dominé plus rapide, prise en consi-
dération de l’élitisme et l’élimination du paramètre de partage.
Dans le processus de cet algorithme génétique, une population d’individus (solu-
tions) est initialement distribuée aléatoirement le long de l’espace de recherche ou créée
selon une heuristique du problème traité. Après, la population initiale est triée selon
le degré de dominance en des fronts différents où le premier front est l’ensemble non
dominé dans la population courante. Chaque élément dans un front est dominé par les
éléments des fronts prédécesseurs et domine les éléments des fronts successeurs jusqu’à
l’atteinte du dernier front qui est dominé par tous les autres fronts. Afin d’établir un
ordre entre les éléments du même front, un critère supplémentaire doit être introduit.
Alors, deux attributs principaux sont affectés à chaque individu dans un front : le rang
(ou bien le niveau de non dominance) et la distance d’encombrement. Cette dernière
peut être considérée comme une mesure de proximité d’un individu de ces voisins,
ce qui signifie que les grandes valeurs de la distance d’encombrement résultent en
une meilleure diversité dans la population à travers l’espace de recherche. Ces deux
attributs permettent l’élaboration d’un ordre partiel connu sous le nom de l’opérateur de
comparaison d’encombrement et il est défini pour chaque pair de solution (s, t ) par :
¡¡ ¢ ¡¡ ¢ ¢¢ ³ ´
s r ang < t r ang ∨ s r ang = t r ang ∧ (s d i st ance > t d i st ance ) ⇒ s <n pop t

À ce niveau du développement, nous avons entre les mains tous les ingrédients pour
décrire l’exécution pas à pas de l’algorithme génétique multi-objectif adopté. En premier,
la population initiale est combinée avec la population des enfants de taille n pop créée
par application des opérateurs de sélection par tournoi binaire, recombinaison et muta-
tion. Dans ce cas, l’élitisme est assuré car les populations des parents et des enfants sont
supportées dans la même génération. Maintenant, la population des parents associée à

128
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

la prochaine génération est remplie des fronts non dominants dans l’ordre de leurs rang
jusqu’à dépasser la taille de la population n pop . Les éléments du front responsable de cet
excès sont sélectionnés dans l’ordre descendant de la distance d’encombrement jusqu’à
atteindre la taille exacte de la population. Donc, la prochaine population des parents est
employée pour la sélection, croisement et mutation pendant la création d’une population
des enfants de même taille. Ces étapes sont réitérées tant que le critère d’arrêt n’est pas
satisfait comme illustré sur le pseudo code suivant (Algorithme 4.1) [D EB, 2001].

Algorithm 4.1 Algorithme génétique élitiste de tri non dominé


DEBUT
Créer une population initiale des parents P0 aléatoirement ou selon une heuristique.
Classer la population des parents en des niveaux non dominés
Associer à chaque solution une finesse égale à son niveau de non dominance
Créer une population des enfants Q0 de taille n pop utilisant les opérateurs de sélection
par tournoi binaire, croisement et mutation
TANT QUE (Condition d’arrêt non satisfaite) FAIRE
Combiner les populations des parents et des enfants pour obtenir une population
Ri = Pi ∪ Qi de taille 2n pop
Effectuer un classement de non domination à Ri avec identification des différents
fronts F j
Initialiser la nouvelle population des parents Pi +1 ← φ
Initialiser le compteur j ← 1 ¡ ¢
TANT QUE (Car d (Pi +1 ) + Car d F j < n pop ) FAIRE
Affecter la distance d’encombrement aux solution dans le front F j
Mettre à jour la population des parents Pi +1 ← Pi +1 ∪ F j
Incrémenter le compteur j
FIN TANT QUE
Effectuer la procédure de tri à base de distance d’encombrement (<n pop , F j )
Inserer les solutions les plus dispersées dans la population Pi +1 utilisant les valeurs
de la distance d’encombrement du front classé F j
Créer la population des enfants Qi +1 de Pi +1 utilisant les opérateurs de sélection par
tournoi, croisement et mutation
FIN TANT QUE © ª
Retourner le meilleur front correspondant à l’ensemble des fonctions objectifs f i
FIN

Dans la majorité des problèmes d’optimisation continue, la configuration d’une ins-


tance est codée comme étant une suite finie de chaîne de caractères, ce qui résulte en un
temps gaspillé pour le codage et le décodage. Donc, pour notre problème nous adoptons
le codage de permutation qui permet la manipulation directe des paramètres de configu-
ration en plus de la représentation de l’ensemble des ordonnancements comme délivré
par le diagramme de Gantt. Nous devons aussi mentionner que quelques étapes de l’algo-
rithme génétique multi-objectif original sont modifiées pour bien s’adapter au contexte
de notre travail. Par exemple, notre stratégie de sélection est légèrement différente de celle
proposée dans la version originale. La sélection est basée sur un processus de sélection
par tournoi où n t our individus compétiteurs sont sélectionnés arbitrairement. Malgré que
la taille du tournoi dans l’algorithme est fixée à deux, nous la considérons comme variable
dans le but de tester les performances de l’algorithme en fonction du nombre de tâches n.
Les n t our individus sélectionnés sont triés selon l’opérateur de comparaison à base d’en-
combrement et les deux premiers individus sont sujets à un opérateur de croisement avec

129
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

une probabilité fixe pour l’obtention de deux descendants ajoutés à la population des en-
fants. La méthode de croisement utilisée dans ce travail est le croisement à deux points,
où deux positions sont générées aléatoirement et les génotypes localisés entre ces deux
points sont copiés d’un parent et la séquence est complétée par les génotypes de l’autre
parent. En inversant l’ordre de sélection des parents, il est possible d’avoir un deuxième
enfant dans le processus de croisement. Cette procédure est répétée jusqu’au remplissage
des positions dans la population des enfants. En ce qui concerne l’opérateur de mutation,
nous adoptons la mutation basée sur la permutation des tâches où deux positions dans
un ordonnancement sont choisies arbitrairement et les tâches associées sont interchan-
gées si la probabilité générée est égale ou dépasse le taux de mutation. La complexité de
l’approche NSGA II proposée en fonction du nombre de tâches n sous l’hypothèse que la
taille de la population et le nombre maximum d’itération dépend linéairement de n peut
être calculée comme suit en commençant par la phase d’initialisation :

• Création aléatoire de la population initiale des parents P0 : O n 3 ;


¡ ¢
¡ 3¢
• Tri de la population initiale des parents en des niveaux
¡ 2¢ de non dominance : O n
pour l’évaluation des fonctions objectifs et O n pour la procédure du tri rapide ;
• Affectation d’un niveau de non dominance à chaque solution : O (n) ;
¡ p ¢
• Création de la population des enfants Q0 : O n 2 n .

Pour la simplification, nous concentrons dans la boucle POUR principale sur la com-
plexité des instructions pour une itération comme illustré ci-dessous.

• Combinaison des populations des parents et des enfants : O (n) ;


¡ 3¢
• Le classement de non dominance de
¡ 2¢ la population combinée : O n pour l’évalua-
tion des fonctions objectifs et O n pour la procédure rapide de classement ;
• Exécution de la boucle intérieure TANT QUE : O n 3 ;
¡ ¢

• Exécution
¡ de la procédure
¢ de tri basé sur l’opérateur de comparaison d’encombre-
ment : O n × log n ;
• Inclusion des solutions les plus dispersées : O (n) ;
• Création de la nouvelle population des enfants : O n 3 .
¡ ¢

Donc, la complexité totale


¡ ¢ après la considération du nombre d’itérations (qui est de
l’ordre O (n)) devient O n 4 , ce qui exprime que la complexité totale de l’approche est
fortement gouvernée par les opérations de création des populations et de tri en des ni-
veaux de non dominance. Par conséquent, toute amélioration relativement au temps de
calcul doit procéder par la réduction de la complexité de ces sections.

4.4.2 Algorithme recherche coucou


En comparaison avec plusieurs métaheuristiques existantes, la recherche coucou est
relativement une méthode d’optimisation récente proposée par Yang et Deb ( [YANG et
D EB, 2009] et [YANG et D EB, 2010]). Les bases de cette méthode sont inspirées du com-
portement parasitaire de la femelle coucou qui imite pendant la ponte les propriétés des
oeufs appartenant aux nids d’autres espèces des oiseaux pour obtenir une probabilité de
reproduction plus élevée. Juste après leurs éclosion, les oisillons essayent par l’instinct

130
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

naturelle d’expulser les oeufs du oiseau hôte du nid en plus de simuler les sons des ois-
sillons hôtes afin d’augmenter leur part de la nourriture. Lorsque l’implémentation al-
gorithmique du comportement du coucou est appliquée à des problèmes d’optimisation
continue, l’utilisation de vol de Lévy au lieu d’un mouvement brownien pur mène à une
meilleure performance. Via l’utilisation de cette règle de transition, la diversification dans
les populations générées par la recherche coucou devient plus importante car la distribu-
tion des longeurs des pas est à queue lourde, et toute taille du pas est permise. La distance
totale de l’origine converge à une distribution stable après un grand nombre de pas. La
transition arbitraire utilisant le vol de Lévy entre deux états est décrite par l’expression
suivante [PAVLYUKEVICH, 2007] :

x ij +1 = x ij + κ ⊕ Lév y (s, σ) (4.14)

où κ represente un facteur d’échelle de la taille du pas choisi dépendamment du pro-


blème considéré et σ est un paramètre de controle ¡ Lchoisi
¢ dans l’intervalle ]1, 3[. Sous
plusieurs situations, l’utilisation d’une valeur de O 100 peut être un bon choix où L est
l’ordre charactéristique du problème. L’implémentation du vol de Lévy nécessite un algo-
rithme précis mais facile à utiliser pour approximer la distribution Lévy. La comparaison
donnée dans [S CALAS et L ECCARDI, 2005] a montré que l’algorithme de Mantegna est le
plus efficace. Cet algorithme s’exécute en trois phases pour générer la longueur du pas
définie par [M ANTEGNA, 1994] :

u
s= 1
(4.15)
|v| β

Les deux paramètres u et v sont supposés suivant une distribution de la loi normale :

 u = N 0, σu
2
 ¡ ¢

v = N 0, σ2v
 ¡ ¢

Les variances sont calculées selon les expressions suivantes :


 o1
Γ(1+β) sin(πβ/2) β
n
 σu =


Γ[(1+β)/2]β2(β−1)/2


σv = 1

avec Γ est la fonction Gamma.


Les étapes principales de l’algorithme standard de la recherche coucou sont résumées
sur l’Algorithme 4.2 [M OHAMAD et collab., 2014].
Mais cette représentation standard émergée initialement pour le cas continu ne
peut pas être appliquée directement dans le contexte de notre problème d’ordonnan-
cement à cause de la nature discrète de l’espace de solution en plus de l’existence des
objectifs multiples. Donc, plus d’efforts doivent être dédiés à l’adaptation adéquate
des composantes principales de la recherche coucou. Pour achever cette adaptation, le
concept du tri non dominé employé dans l’algorithme génétique multi-objectif (NSGA
II) est importé pour construire une version multi-objectif de la recherche coucou. En
outre, une nouvelle reformulation du vol de Lévy pour satisfaire les propriétés discrètes
des ordonnancements est recommandable. En se basant sur les travaux de ( [H ANOUN
et collab., 2014] et [B ALASUBBAREDDY et collab., 2015]), nous introduisons un mécanisme

131
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

Algorithm 4.2 Version originale de la recherche coucou


DEBUT
Générer une population initiale de n ni d nids hôtes.
TANT QUE (Condition d’arrêt non satisfaite) FAIRE
Sélectionner arbitrairement une solution coucou
Générer une solution en appliquant le vol de Lévy
Évaluer la qualité de la solution obtenue f i
Choisir un nid ( j ) arbitrairement de n ni d
SI ( f i < f j ) ALORS
Remplacer j par la nouvelle solution
FIN SI
Abondonner une fraction p a × n ni d des mauvais nids et générer des nouvelles solu-
tions
Préserver les nids avec meilleures qualités de solutions
Effectuer un classement pour obtenir la meilleure solution
FIN TANT QUE
Retourner la meilleure solution correspondante au minimum de la fonction objectif f
END

de séquence voisine au lieu du vol de Lévy continu. La stratégie de génération des


solutions voisines est mise à jour dynamiquement avec l’évolution des itérations. Pour
des petites valeurs de nombre d’itérations, des solutions aléatoires sont crées pour
constituer un type de diversification dans l’espace de recherche. Avec l’augmentation du
nombre d’itérations, les solutions voisines sont générées à partir de la meilleure solution
trouvée dans l’historique. Donc, il est possible de préserver un compromis entre la
diversification et l’intensification de la recherche, où le seuil de probabilité de génération
(Pt h ) dépendant du compteur d’itérations (i c ) est donné par :

ic
Pt h = (4.16)
Maxg ener at i on
L’ensemble des opérations utilisées pour générer une nouvelle solution à partir de
la meilleure solution dans la stratégie d’intensification est composée de trois modifica-
tions locales. L’opérateur d’insertion supprime une tâche de sa position originale et l’in-
sert dans une nouvelle position. L’opérateur de permutation a pour objectif d’obtenir une
nouvelle solution par l’échange des contenues de deux positions différentes. L’opérateur
de décalage décale circulairement l’ordre des tâches par un pas fixe à gauche ou à droite
selon la valeur aléatoire binaire générée. Plusieurs études ont prouvé que l’hybridation
d’une métaheuristique avec une procédure de recherche locale résulte en des avantages
tels que la convergence rapide ainsi qu’une meilleure qualité des solutions proches de
l’optimale [B LUM et collab., 2011]. Dans ce contexte, la recherche de voisinage variable est
adoptée dans l’intégration avec la recherche coucou. La recherche du voisinage variable
est une méthode de recherche locale stochastique basée sur l’alternance stochastique des
voisinages pendant la phase de recherche. Dans chaque étape, la recherche utilise cer-
tains opérateurs élémentaires pour la génération et l’exploitation du voisinage d’une so-
lution avec l’objectif de tomber sur une solution améliorée. Alors, le processus commence
avec la sélection d’un opérateur qui est abandonné et remplacé par un autre lorsque la
recherche échoue dans l’amélioration de la solution courante. La recherche s’arrête avec
l’identification d’une solution qui est localement optimale par rapport à tous les voisi-

132
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

nages générés [H ANSEN et M LADENOVI Ć, 2001].


Dans ce chapitre, notre recherche à voisinage variable est basée sur les mêmes opé-
rateurs utilisées dans le mécanisme de séquence voisine (insertion, permutation et dé-
calage). Ces opérateurs sont appliqués consécutivement à tous les individus de la popu-
lation courante avec l’espérance d’améliorer la qualité des mauvaises solutions. Lorsque
une solution de meilleure qualité est obtenue, la recherche à voisinage variable relance
la même procédure pour trouver une solution améliorée jusqu’à la satisfaction du critère
d’arrêt. Malgré
¡ 2 ¢que la taille totale de tous les voisinages associés aux opérateurs élémen-
taires est O n (la taille de voisinage par insertion est n (n − 1), la taille de voisinage de
permutation est n(n−1)
2
et la taille du voisinage de décalage est 1). Nous limitons la condi-
tion d’arrêt à n qui ne permet pas seulement de couvrir une sous partie du voisinage d’une
solution mais aussi de réduire la complexité de calcul en particulier que la totalité de la
population est testée. Les détails de la recherche à voisinage variable sont présentées dans
l’Algorithme 4.3 (Cet algorithme est une adaptation de la recherche à voisinage variable
présentée dans [H ANOUN et collab., 2014]).

Algorithm 4.3 Différentes phases de la formulation standard de la recherche à voisinage


variable adaptée à notre problème
DEBUT
Initialiser le compteur d’itérations (k ← 1)
Fixer le critère d’arrêt (St op ← n)
TANT QUE k ≤ St op FAIRE
Générer une nouvelle solution de la solution courante utilisant l’opérateur d’inser-
tion
SI (la nouvelle solution domine la solution courante) ALORS
Considérer la nouvelle solution comme solution courante
Initialiser le compteur d’itérations à zero (k ← 0)
SINON
Générer une nouvelle solution de la solution courante utilisant l’opérateur de per-
mutation
SI (la nouvelle solution domine la solution courante) ALORS
Considérer la nouvelle solution comme solution courante
Initialiser le compteur d’itérations à zero (k ← 0)
SINON
Générer une nouvelle solution de la solution courante utilisant l’opérateur de
décalage
SI (la nouvelle solution domine la solution courante) ALORS
Considérer la nouvelle solution comme solution courante
Initialiser le compteur d’itérations à zero (k ← 0)
FIN SI
FIN SI
FIN SI
Incrémenter le compteur d’itérations (k ← k + 1)
FIN TANT QUE
Retourner la meilleure solution trouvée
END

La formulation hybride de l’algorithme recherche coucou avec la nouvelle définition


du vol de Lévy et la recherche à voisinage variable est complète à ce niveau où le pseudo
code de cette version multi-objectif est illustré dans l’Algorithme 4.4.

133
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

Algorithm 4.4 Version multi-objectif hybride de la recherche coucou


DEBUT
Créer une population initiale P0 aléatoirement ou selon une heuristique.
Trier la population des parents en des niveaux de non domination
TANT QUE (Condition d’arrêt non satisfaite) FAIRE
Initialiser la population des enfants Qk ← Pk
POUR (i = 1 à n ni d ) FAIRE
Prendre un individu aléatoire x 1r and
Générer une nouvelle solution cuck en appliquant le vol de Lévy à la solution x 1r and

Prendre un autre individu aléatoire x 2r and


SI (x 2r and est dominée par cuck) ALORS
Affecter cuck à x 2r and (x 2r and ← cuck)
FIN SI
FIN POUR
Prendre un individu aléatoire x 3r and
Initialiser aléatoirement une fraction de la population des enfants de taille p a × n ni d
utilisant x 3r and comme graine initiale
Appliquer la recherche à voisinage variable à chaque solution de la population des
enfants Qk
Combiner les populations des parents et des enfants pour obtenir une population
Rk = Pk ∪ Qk de taille 2 × n ni d
Trier la population resultante en differents niveaux de non domination
Créer la population des parents prochaine Pk+1 en sélectionnant les meilleurs n ni d
solutions non dominées de Rk
FIN TANT QUE © ª
Retourner le meilleur front correspondant à l’ensemble des fonctions objectifs f j
END

134
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

Pour l’évaluation de la complexité totale de la recherche coucou hybride, nous éta-


blissons les résultats élémentaires suivantes :
• Création aléatoire de la population initiale des parents P0 : O n 3
¡ ¢

• Classement
¡ 3¢ de la population initiale des parents en des
¡ niveaux de non dominance :
2
¢
O n pour l’évaluation des fonctions objectifs et O n pour la procédure rapide
de classement

Pour des raisons de simplification, nous concentrons, dans la principale boucle TANT
QUE, sur la complexité des instructions pour une itération comme suit :
• Initialisation de la population des enfants Qk : O n 2 ;
¡ ¢

• Exécution
¡ 2¢ de la boucle POUR : O (n) pour le tirage d’un individu arbitraire x 1r and ,
O n pour la génération d’une nouvelle solution cuck par application ¡ 2du
¢ vol de
r and
Lévy, O (n) pour le tirage d’un deuxième individu arbitraire x 2 et O n pour le
test de non dominance ;
• Tirage du troisième individu arbitraire : O (n) ;
• Initialization aléatoire d’un pourcentage de taille p a ×n de la population
¡ 2 ¢ des enfants
r and
utilisant le troisième individu arbitraire x 3 comme graine : O n ;
¡ ¢
• Application de la recherche à voisinage variable : O n × g (n) ;
• Combinaison des populations des parents et des enfants : O (n) ;
¡ 3¢
• Classement non dominé de la population combinée : O n pour l’évaluation de la
fonction objectif et O n 2 pour la procédure de classement rapide ;
¡ ¢

• Création de la prochaine population des parents : O (n).


Si on note la complexité de la recherche à voisinage variable par g (n), la complexité
totale de l’approche¡ hybride proposée avec la considération du nombre de génération est
alors donnée par O n 4 + n 2 × g (n) . On peut noter que le nombre d’opérations necessaire
¢

pour la recherche à voisinage variable est dans le pire des cas de l’ordre de n!. De ce résul-
tat, nous pouvons déduire que la complexité de l’algorithme est basée sur les sections de
recherche à voisinage variable et le tri en niveaux de non dominance. Donc, toute amé-
lioration doit être focalisée sur la réduction de la complexité de ces deux méthodes.

4.4.3 Stratégies de tri non dominé


Dans cette sous section, nous décrivons formellement les propriétés de base des cri-
tères de dominance utilisés dans le contexte des approches algorithme génétique élitiste
de tri non dominé et recherche coucou. La règle de dominance de Pareto est un cri-
tère classique utilisé abondamment dans la littérature de l’optimisation multi-objectif.
Cependant, cette règle de dominance peut être dans certains cas non suffisante, ce qui
motive la proposition d’autres critères de dominance. Dugardin et al ont montré qu’un
algorithme génétique multiobjectif basé sur la dominance de Lorenz a des meilleures
performances en comparaison avec un algorithme génétique conventionnelle basé sur
la dominance de Pareto [D UGARDIN et collab., 2010]. Dans [M OGHADDAM et collab.,
2015], six métaheuristiques ont été proposées pour la résolution d’un problème d’or-
donnancement bi-objectif à une machine avec critère de rejet. L’utilisation de différents
schémas de dominance a permis de réduire considérablement le nombre de solutions
obtenues. Dans ce qui suit, nous présentons quelques définitions concernant les cri-
tères de Pareto et de Lorenz dans le cadre du problème d’optimisation multi-objectif

135
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

iP
=n 0
défini par π∗ = min f 1 (π) , f 2 (π) avec f 1 (π) = ωi (π) × Pos C̃i (π) > d˜i (π) , f 2 (π) =
¡ ¢ ¡ ¢
π∈Ω ¶ i =1
iP
=n
µ
Mag ωi (π) ⊗ C̃i (π) et Ω est l’ensemble des ordonnancements faisables π.
i =1
Définition 4.10. On dit que l’ordonnancement π1 domine l’ordonnancement π2 selon le
critère de dominance de Pareto si les inégalités suivantes sont satisfaites :

 ∀k ∈ {1, 2} f i (π1 ) ≤ f i (π2 )
(4.17)
∃k ∈ {1, 2} f i (π1 ) < f i (π2 )

Définition 4.11. On dit que l’ordonnancement π1 domine l’ordonnancement π2 selon le


critère de dominance de Lorenz si le vecteur Lorenz de l’ordonnancement π1 domine le vec-
teur Lorenz de l’ordonnancement π2 au sens µ du critère de Pareto,¶où le vecteur Lorenz de
¢ iP
=2
l’ordonnancement π est exprimé par L (π) = max f i (π) , f i (π) .
¡
i ∈{1,2} i =1

Donc, il est recommandé d’étudier l’influence du couplage entre différents critères de do-
minance sur les performances des approches multi-objectifs. En effet, cette combinaison
peut être un outil efficace pour guider la recherche vers des régions prometteuses ou bien
d’étendre les parties extrêmes des fronts non dominés, ce qui aide à croître la diversité
des solutions.

4.5 Expérimentation numérique et résultats


Dans le but d’évaluer l’efficacité des approches métaheuristiques proposées, des ex-
périmentations numériques sont conduites. Toutes les méthodes considérées sont pro-
grammées sous l’environnement MATLAB à cause des nombreuses facilitées offertes en
plus de son utilisation comme un outil de modélisation des applications industriels pen-
dant ces dernières années [W ONGA et L AI, 2011]. Les tests sont exécutés sur un processeur
i7 avec 8 GB de RAM sous système d’exploitation Windows 7. L’ensemble test contient des
problèmes avec nombre de tâches n ∈ {5, 6, 7, 8, 9, 10, 15, 20, 25, 30, 35, 40} avec un totale de
20 instances générées pour chaque taille. Alors, un nombre total de 12×20 = 240 instances
est obtenu. Une tâche est caractérisée par sa durée opératoire, coefficients de pénalité
associés à l’état de retard et à la date échue, où les nombres flous du type L-R sont utili-
sés pour modéliser l’incertitude au niveau de ces paramètres. Le facteur d’apprentissage
est supposé à valeurs réelles dans l’intervalle [−0.1, 0]. Dans ce travail, les instances de
test sont générées numériquement en se basant sur les règles élucidées dans les articles
[K IM, 1993] et [S AIDI M EHRABAD et PAHLAVANI, 2009]. La structure générale de la procé-
dure adoptée dans la génération des instances de taille fixe est gouvernée par les règles
suivantes :
i) Pour définir les durées opératoires floues p̃ j de la tâche j , p et p̄ j sont attribués des
h j i h i
valeurs entières des distributions uniformes discrètes a p̃ j , b p̃ j et p , b p̃ j respec-
j
tivement. Donc, αp̃ j et βp̃ j sont définies comme des entiers aléatoires dans l’inter-
· µ p +p̄ ¶¸
j
j
valle 1, 0.1 × 2
;
ii) Les coefficients de pénalité ω j , associés à la somme pondérée des possibilités de
retard
h sont
i générés comme des entiers positifs de la distribution uniforme discrète
aω j , bω j ;

136
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains
0
iii) Les coefficients de pénalité ω j , associés avec la somme pondérée des dates de fin
d’exécution, sont obtenus en multipliant ·par 10 les¸ nombres aléatoires générés à
partir de la distribution uniforme discrète a ω0 , b ω0 ;
j j

iv) En analogie avec les modèles d’ordonnancement déterministes, la gamme des dates
échues (notée par RDD) et le facteur d’étroitesse des dates échues (noté par TF) sont
introduits pour contrôler la difficulté à générer les problèmes où une valeur élevée
de RDD indique une large plage de dates échues, tandis qu’une faible valeur indique
une plage étroite de dates échues. Des valeurs de TF proche de 1 indique que les
dates échues sont serrées et des valeurs proche de 0 indique que les dates échues
sont lâches. Les valeurs des deux paramètres sont sélectionnées de l’intervalle [0, 1] ;
v) Pour la date échue floue d˜j de la tâche j , d j et d¯j sont affectés des valeurs entières
"Ã ! Ã ! #
n n
p × 1 − TF − RDD p̄ j × 1 − TF + RDD
P ¡ ¢ P ¡ ¢
de la distribution uniforme 2 , 2 et
j =1 j j =1
" Ã ! #
n
RDD
respectivement. Par la suite, αd˜j et βd˜j sont tirés aléa-
P ¡ ¢
dj, p̄ j × 1 − TF + 2
j =1
d j +d¯j
· µ ¶¸
toirement de l’intervalle 1, 0.2 × 2 .

Une description complète de toutes les instances ainsi que les données de configu-
rations utilisées dans ce travail peut être téléchargée sur le lien :<http://lab.univ-batna2.
dz/lap/index.php/component/content/article?id=31>.
Les valeurs affectées aux bornes inférieures et supérieures nécessaires comme des entrées
pendant la procédure de génération des instances sont illustrées sur le Tableau 4.1.

TABLEAU 4.1 Valeurs des différents paramètres nécessaires à la génération des instances

Paramètre Notation Borne inférieure Borne supérieure


Durée opératoire floue p̃ j 1 40
Pénalité sur la possibilité de retard ωj 1 15
0
Pénalité sur la date fin d’exécution ωj 1 15

Comme le front non dominé optimal est dans la plus part des cas inconnu à l’excep-
tion des problèmes de petites tailles pour lesquels le calcul par recherche exhaustive est
raisonnable, nous évaluons les performances des approches proposées à travers trois mé-
triques capables d’estimer les différents aspects des fronts approximés. Il est à noter que
ces métriques ne nécessitent pas en générale le calcul du front optimal. La première mé-
trique est le nombre d’ordonnancements (i.e. Cardinal) constituant le front produit par
un algorithme al g i et il est défini par :

f
n al g = Car d ( f r ont al g i ) (4.18)
i

La deuxième métrique proposée pour la première fois par Zitzler et ses collègues [Z ITZ -
LER et collab., 2003] est la proportion des ordonnancements trouvés par une méthode
d’optimisation al g i qui sont dominés par au moins un ordonnancement obtenu par une
autre méthode al g j . Cette métrique est indépendante de l’échelle dans le sens qu’elle
ne nécessite pas la normalisation des valeurs de la fonction objectif même si l’ordre de

137
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

grandeur des fonctions objectifs est relativement différent. La proportion des ordonnan-
cements dominés est exprimée par :

³n ¯ o´
Car d π2 ∈ f r ont al g j ¯ ∃π1 ∈ f r ont al g i : π1 ≥ π2
¯
R al g i −al g j = ³ ´ (4.19)
Car d f r ont al g j

La troisième métrique est la distance modifiée introduite initialement par Riise et éten-
due par Dugardin et ses collègues dans le but de supporter les valeurs qui partagent les
fronts comparés ( [R IISE, 2002] et [D UGARDIN et collab., 2010]). L’idée derière cette mé-
trique réside dans la mesure de la distance algébrique totale entre les solutions du front
al g i à leurs projections orthogonales sur le front de référence al g j . La normalisation est
achevée pour éviter la sensibilité à la variation du nombre de solutions. Donc, différentes
solutions sont connectées et la ligne est extrapolée pour former des demi droites conti-
nues pour permettre la projection des points localisés en dehors de l’étendu du front de
référence [L ACOMME et collab., 2006]. Cette métrique peut être formulée dans une nota-
tion normalisée comme suit :

³ ´
Car d f r ont al g j
P
dk
1 k=1
µal g i −al g j = ³ ´q
¢2 ¡ ¢2 (4.20)
Car d f r ont al g j
¡
f 1 max − f 1 min + f 2 max − f 2 min

avec d k est la distance entre un point du front généré par al g i et sa projection orthogo-
nale sur le front généré par al g j . Le reste des paramètres dans l’expression sont données
par :
 n o
π
¯


 f 1 min = min f 1 (π)¯ ∈ f r ont al g i ∪ f r ont al g j




 n o
¯ π ∈ f r ont al g ∪ f r ont al g
 ¯
f = max f (π)

1 max 1


 i j

 n o
π
¯
f = min f (π) ∈ f r ont ∪ f r ont

2 min 2 al g i al g j

 ¯






 n o
2 max = max f 2 (π) π ∈ f r ont al g i ∪ f r ont al g j

 f ¯
¯

Mais il existe quelques situations où la projection n’est pas possible à cause de la


position relative de la solution considérée. Par exemple, comme indiqué sur la Figure
4.1, la solution avec label B ne peut pas être projetée sur le front de référence. En effet,
soit (∆1,2 ) la droite reliant les points 1 et 2, (∆2,3 ) la droite reliant les points 2 et 3
respectivement. Les équations de ces droites sont données par :
y 2 −y 1
 ¡ ¢
 ∆1,2 : y = x2 −x1 (x − x 1 ) + y 1

 ¡∆ ¢ : y = y 3 −y 2
(x − x 2 ) + y 2

2,3 x 3 −x 2

Les droites orthogonales correspondantes sont notées par ∆⊥


¡ ¢ ¡ ⊥ ¢
1,2 et ∆2,3 où leurs
équations sont exprimées par :

138
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

x 2 −x 1
 ¡ ⊥ ¢
 ∆1,2 : y = − y 2 −y 1 (x − x 1 ) + y 1

 ¡∆⊥ ¢ : y = − x3 −x2 (x − x ) + y

2,3 y 3 −y 2 2 2

En se basantn¡ sur¢ ces équations,


³ on peut démontrer
´ ³ que les points appartenant
´o à
x 2 −x 1 x 3 −x 2
l’ensemble x, y ∈ R : − y 2 −y 1 (x − x 1 ) + y 1 < 0 ∧ − y 3 −y 2 (x − x 2 ) + y 2 < 0 ne peuvent
2

pas être projetés sur le front de référence (front non dominé 1). Une telle situation
peut dégrader considérablement l’efficacité de la métrique de la distance modifiée dans
l’évaluation des performances des approches d’optimisation multi-objectif. Selon nos
connaissances, aucune solution n’est fournie dans la littérature pour cette limitation et
pour cela nous proposons pour la solution avec label B de calculer la distance à la plus
proche solution du front de référence au lieu de la distance de projection. En effectuant
ce changement, nous espérons que le nombre de positionnements aberrants entre les
deux fronts peut être réduit considérablement.

F IGURE 4.1 Situations possibles de projection de deux fronts non dominés obtenus par
des métaheuristiques différentes.

Il est à mentionner que les deux directions doivent être considérées dans le calcul
de la proportion des ordonnancements dominés et la distance modifiée. Ceci peut être
expliqué par le fait que les deux métriques ne sont pas symétriques ni complémen-
taires, ce qui nécessite l’évaluation des performances des algorithmes avec la permuta-
tion de l’algorithme de référence chaque fois. À cause du nombre d’instances associées
à chaque configuration (20 instance pour chaque nombre fixe de tâches), les métriques
citées sont calculées sur la base de la moyenne des résultats issus de l’ensemble des
instances pour une configuration bien déterminée. Alors, les quantités moyennes
³ sui-
´
f
vantes n̄ al g , R̄ al g i −al g j et µ̄al g i −al g j sont utilisées pour l’évaluation avec al g i , al g j ∈
i

139
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains
© ª
Opt i mal , NSGA II, r echer che coucou et al g i 6= al g j . Cette notation permet de dif-
férencier entre ces approches : optimale (recherche exhaustive), recherche coucou et al-
gorithme génétique élitiste de tri non dominé sans oublier la non symétrie des métriques
considérées. Mais à cause du temps de calcul important consommé par une énumération
exhaustive, l’approche optimale n’est appliquée que pour les petites instances. À cause
de la dépendance des performances des méthodes d’optimisation du choix adéquat des
valeurs des paramètres de configurations, nous avons effectué quelques tests pour dé-
terminer une configuration appropriée en termes des performances. Cette procédure de
test est achevée uniquement pour les petites instances dû au coût de calcul lourd. Dans
le Tableau 4.2, nous résumons les principaux paramètres ainsi que les valeurs associées
aux métaheuristiques proposées. Ces valeurs sont retenues fixes à l’exception lorsque une
analyse de sensibilité est conduite. En ce qui concerne le nombre de générations, nous
fixons la valeur pour notre algorithme génétique multi-objectif à 10 × n et le temps enre-
gistré (en secondes) pour ce nombre d’itérations est alloué à l’exécution de la recherche
coucou pour que la comparaison soit légale entre ces deux approches.

TABLEAU 4.2 Valeurs des paramètres de configuration associées aux métaheuristiques


proposées.

Paramètre Algorithme génétique élitiste Recherche coucou


de tri non dominé
Type de croisement Croisement à deux points /
Probabilité de croisement 0.8 /
Type de mutation Permutation arbitraire /
Probabilité de mutation 0.1 /
Taille de la population 2×n 2×n
Nombre de générations 10 × n ≡ secondes
Stratégie de sélection Sélection
¡ppar
¢ tournoi /
Taille du tournoi Round n /
Probabilité d’acceptation / 0.5

/ : Non applicable

Dans les Tableaux 4.3, 4.4 et 4.5, nous résumons les résultats de simulation obte-
nus par l’algorithme génétique multi-objectif et la recherche coucou dans l’espace de
domination de Pareto. Il est à mentionner que les valeurs moyennes des cardinaux des
meilleurs fronts non dominés pour les vingt instances sont calculées par une méthode
d’énumération complète uniquement pour les configurations de petites tailles (5, 6 et 7
tâches) à cause des coûts de calcul. Nous observons que l’approche hybride (recherche
coucou/recherche à voisinage variable) est plus efficace dans l’obtention des solutions
optimales en comparaison avec l’algorithme génétique, qui donne des résultats légère-
ment inférieurs à la valeur moyenne des cardinaux optimaux. Pour un nombre de tâches
supérieure à 10, la valeur moyenne des cardinaux des fronts non dominés générés par la
recherche coucou est considérablement réduite en comparaison avec l’algorithme géné-
tique. La moyenne des proportions des ordonnancements trouvés par la recherche cou-
cou et dominés par ceux de l’algorithme génétique croît de zéro pour les petites instances
pour atteindre une valeur de l’ordre de 30% pour un nombre de tâches égale à 40. En
ce qui concerne la moyenne des distances modifiées normalisées, elle est toujours posi-
tive lorsque le front optimal est considéré comme référence car les solutions optimales
ne sont jamais dominées. Nous observons également que cette mesure n’est pas signi-

140
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

ficative lorsque elle est calculée pour la recherche coucou comparativement aux solu-
tions optimales, ce qui confirme que les fronts obtenus sont très proches l’un de l’autre.
Pour un nombre de tâches égale ou supérieur à dix, la moyenne des distances modifiées
normalisées µ̄cuck−nsg a exprimant la position relative du meilleur front obtenu par la re-
cherche coucou par rapport au meilleur front obtenu par l’algorithme génétique est né-
gative. Cette remarque indique que les fronts de la recherche coucou sont généralement
situés au dessous des fronts de l’algorithme génétique multi-objectif, ce qui confirme la
performance supérieure (d’une manière globale) de l’approche coucou hybride. Pour un
nombre de tâches inférieur à 10, nous remarquons que les deux moyennes des distances
modifiées normalisées (µ̄cuck−nsg a et µ̄nsg a−cuck ) sont positives car dans certains cas les
fronts coucou de certaines instances sont meilleures que les fronts de NSGAII et c’est
l’inverse pour les instances restantes. Sous cette situation, la moyenne des distances mo-
difiées normalisées ne reflète pas d’une façon précise la position relative des vingt ins-
tances associées à une configuration, ce qui implique la consultation de la métrique de la
moyenne des proportions des ordonnancements dominés et la valeur moyenne des car-
dinaux des meilleurs fronts pour avoir une interprétation plus réaliste.

TABLEAU 4.3 Variation des performances (la moyenne des cardinaux des fronts générés)
des approches proposées en fonction du nombre de tâches avec règle de dominance de
Pareto (Le f f = 0, TF = 0.5 et RDD = 0.5).

f f f
n n̄ opt n̄ cuck n̄ nsg a
5 3.85 3.75 3.6
6 4.7 4.55 4.25
7 5.25 4.85 4.85
8 / 7.15 6.7
9 / 7.25 6.75
10 / 9.7 9.3
15 / 15 17.85
20 / 19.5 27.4
25 / 24.15 36.4
30 / 22.7 46.15
35 / 25.7 54.7
40 / 27.45 63.85

/ : Non applicable

Le Tableau 4.6 présente les variations des performances des deux algorithmes en
fonction de la gamme et du facteur d’étroitesse gouvernant la génération des dates échues
floues pour un nombre fixe de tâches (20 tâches). Ce tableau montre que la recherche
coucou donne un nombre réduit des solutions non dominées dans la majorité des cas
à l’exception de la configuration TF = 1 et RDD = 0.2. En outre, la recherche coucou est
considérablement plus performante en terme de la moyenne des proportions des ordon-
nancements dominés qui varie entre 0% à 16% tandis qu’il varie de 20% à 52% pour la
moyenne des proportions des solutions de l’algorithme génétique dominées au moins
par une solution de la recherche coucou. Pour la métrique de la moyenne des distances
modifiées normalisées, dans la majorité des cas de µ̄cuck−nsg a , nous avons des valeurs né-
gatives indiquant que la plupart des fronts de la recherche coucou sont localisés au des-
sous ou très proches des fronts obtenus par l’algorithme génétique. Alors, nous pouvons
conclure que l’approche hybride de la recherche coucou est (globalement) plus robuste

141
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

TABLEAU 4.4 Variation des performances (la moyenne des proportions des ordonnance-
ments dominés) des approches proposées en fonction du nombre de tâches avec règle de
dominance de Pareto (Le f f = 0, TF = 0.5 et RDD = 0.5).

n R̄cuck−opt R̄nsg a−opt R̄cuck−nsg a R̄nsg a−cuck


5 0 417×10−4 0 417×10−4
6 0 125×10−4 0 125×10−4
7 0 825×10−4 0 825×10−4
8 / / 0 147×10−3
9 / / 38 × 10−4 229×10−3
10 / / 45 × 10−4 25 × 10−2
15 / / 487×10−4 33 × 10−2
20 / / 959×10−4 424×10−3
25 / / 171×10−3 427×10−3
30 / / 227×10−3 345×10−3
35 / / 296×10−3 321×10−3
40 / / 296×10−3 302×10−3

/ : Non applicable

TABLEAU 4.5 Variation des performances (la moyenne des distances modifiées normali-
sées) des approches proposées en fonction du nombre de tâches avec règle de dominance
de Pareto (Le f f = 0, TF = 0.5 et RDD = 0.5).

n µ̄cuck−opt µ̄nsg a−opt µ̄cuck−nsg a µ̄nsg a−cuck


5 0 33×10−4 65 × 10−4 27 × 10−4
6 0 2 × 10−6 192 × 10−4 2 × 10−6
7 0 7 × 10−4 83 × 10−4 20 × 10−4
8 / / 59 × 10−4 146×10−4
9 / / 115 × 10−4 20 × 10−4
10 / / −16×10−4 36 × 10−4
15 / / −6 × 10−4 24 × 10−4
20 / / −5 × 10−4 15 × 10−4
25 / / −3 × 10−4 10 × 10−4
30 / / −7 × 10−4 10 × 10−4
35 / / −3 × 10−4 3 × 10−4
40 / / −8 × 10−4 2 × 10−4

/ : Non applicable

142
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

envers les variations de la gamme et le facteur d’étroitesse des dates échues des tâches.

TABLEAU 4.6 Variation des performances des approches proposées en fonction de la


gamme et du facteur d’étroitesse avec règle de dominance de Pareto (Le f f = 0 et n = 20).

f f
TF RDD n̄ cuck n̄ nsg a R̄cuck−nsg a R̄nsg a−cuck µ̄cuck−nsg a µ̄nsg a−cuck
0.2 18.30 21.35 0.11 0.30 −15 × 10−4 30 × 10−4
0.2 0.6 8.80 13.70 0.14 0.24 −4 × 10−4 20 × 10−4
1 5.20 7.25 0.04 0.28 −376×10−4 408 × 10−4
0.2 20.45 24.35 0.09 0.42 −11 × 10−4 13 × 10−4
0.6 0.6 20.90 25.55 0.11 0.47 −10 × 10−4 25 × 10−4
1 17.95 25.15 0.16 0.31 56 × 10−4 12 × 10−4
0.2 4.55 3.75 0 0.20 68 × 10−4 92 × 10−4
1 0.6 14.5 15.15 0.02 0.43 57 × 10−4 26 × 10−4
1 17.75 22.6 0.07 0.52 −10 × 10−4 19 × 10−4

Pour étudier l’influence du facteur d’apprentissage Le f f sur les métriques de perfor-


mance des deux approches d’optimisation, nous considérons la configuration avec un
nombre de tâches égale à dix où TF et RDD sont les deux égales à 0.5 (voir Tableau 4.7).
Les expériences numériques montrent clairement que la valeur moyenne des nombres de
solutions non dominées est approximativement les mêmes pour les deux approches, ce
qui peut être justifié par le petit nombre de tâches considérées dans ce cas. Par contre,
la moyenne des proportions attachée aux solutions coucou dominées est très petite en
comparaison avec celle attachée aux solutions de l’algorithme génétique où celle de la
recherche coucou varie de 0% à 6% tandis que celle de l’algorithme génétique change de
16% à 24% comme indiqué sur le tableau. De plus, nous observons que la recherche cou-
cou est légèrement meilleure en fonction de la moyenne des distances modifiées norma-
lisées pour les grandes valeurs du facteur d’apprentissage. Pour les cas des petites valeurs,
la moyenne des distances modifiées normalisées devient positive même avec la modifi-
cation du front de référence. Nous interprétons cette tendance par le fait que les fronts
générés par l’algorithme génétique et la recherche coucou ne se chevauchent pas réguliè-
rement, ce qui résulte en des valeurs de déviations alternées.
Dans la Figure 4.2, les ordonnancements non dominés obtenus par les approches al-
gorithme génétique et recherche coucou pour une instance de 20 tâches sont représentés
dans l’espace des fonctions objectifs. Nous observons que dans la majorité des cas, les or-
donnancements générés par la recherche coucou dominent ceux générés par l’algorithme
génétique. De plus, la combinaison des différentes règles de dominance permet aux algo-
rithmes d’optimisation proposés de guider la recherche vers des zones plus intéressantes
afin d’élarger la couverture des ordonnancements à travers le front de non domination.
Par conséquent, une telle combinaison permet d’aboutir à une estimation meilleure des
ordonnancements du front de non dominance.
Les métriques de performance des approches proposées avec considération simul-
tanée des critères de dominances Pareto et Lorenz sont illustrées sur les Tableaux 4.8,
4.9 et 4.10 pour les différentes tailles du problème. La valeur moyenne des cardinaux
des meilleurs fronts obtenus par l’algorithme génétique et recherche coucou devient plus
grande dû à la combinaison des ordonnancements selon les deux critères de dominance.
Par conséquent, la taille de ces fronts approche la taille des fronts optimaux pour les ins-
tances de petites tailles. Notons que la moyenne des proportions des ordonnancements

143
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

TABLEAU 4.7 Variation des performances des approches proposées en fonction du coeffi-
cient d’apprentissage avec règle de dominance de Pareto (n = 10, TF = 0.5 et RDD = 0.5).

f f
Le f f n̄ cuck n̄ nsg a R̄cuck−nsg a R̄nsg a−cuck µ̄cuck−nsg a µ̄nsg a−cuck
0 9.7 9.3 45 × 10−4 2495 × 10−4 −16 × 10−4 36 × 10−4
-0.01 12.8 13.5 697 × 10−4 1177 × 10−4 76 × 10−4 11 × 10−4
-0.02 12.95 13.15 483 × 10−4 2040 × 10−4 −3 × 10−6 23 × 10−4
-0.03 13.15 14.25 328 × 10−4 1767 × 10−4 13 × 10−4 57 × 10−4
-0.04 13.1 13 567 × 10−4 1914 × 10−4 8 × 10−4 14 × 10−4
-0.05 13 13.65 305 × 10−4 1565 × 10−4 109 × 10−4 17 × 10−4
-0.06 13.10 12.8 543 × 10−4 1762 × 10−4 44 × 10−4 2 × 10−4
-0.07 12.8 13.15 334 × 10−4 1945 × 10−4 11 × 10−4 21 × 10−4
-0.08 12.55 13.05 654 × 10−4 1657 × 10−4 193 × 10−4 14 × 10−4
-0.09 11.75 11.85 253 × 10−4 2075 × 10−4 276 × 10−4 16 × 10−4
-0.1 12.35 12.45 295 × 10−4 2167 × 10−4 186 × 10−4 43 × 10−4

F IGURE 4.2 Représentation des meilleurs fronts obtenus par les deux approches avec
considération simultanée des règles de dominance Pareto et Lorenz (L’instance numero
17 de la configuration n=20).

dominés dans le cas de la recherche coucou est considérablement réduite de même pour
le cas de l’algorithme génétique multi-objectif pour lequel cette mesure est légèrement
améliorée en comparaison avec l’application unique du critère de Pareto comme donné
sur les Tableaux 4.3, 4.4 et 4.5. Cette remarque confirme l’avantage de l’utilisation
conjointe de différents types de règles de dominance avec les mécanismes d’intensifi-

144
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

cation de recherche dans les méthodes d’optimisation multi-objectif. Pour la métrique


de la distance modifiée normalisée, les valeurs moyennes calculées pour les douze confi-
gurations décèlent la difficulté de déduire une conclusion car on a une alternance des
signes positifs et négatifs ce qui rend les résultats globaux de cette mesure très difficiles à
interpréter ou non conclusifs.

TABLEAU 4.8 Variation des performances (la moyenne des cardinaux des fronts générés)
des approches proposées en fonction du nombre de tâches avec considération simulta-
née des règles de dominance de Pareto et Lorenz (Le f f = 0, TF = 0.5 et RDD = 0.5).

f f f
n n̄ opt n̄ cuck n̄ nsg a
5 3.85 3.8 3.6
6 4.7 4.55 4.25
7 5.25 5 4.85
8 / 7.3 6.75
9 / 7.25 6.8
10 / 10.10 9.5
15 / 16.7 18.15
20 / 22.7 29.35
25 / 26.8 38.4
30 / 26.35 49.7
35 / 28.7 57.35
40 / 30.85 66.95

/ : Non applicable

En se concentrant uniquement sur les valeurs moyennes des métriques de perfor-


mance pendant la comparaison, la différence entre le comportement des métaheu-
ristiques proposées ne peut pas être détectée effectivement. Dans le but de remédier
tel obstacle, le test d’hypothèse peut être utilisé pour inférer quelques conclusions
concernant une population à travers l’examination d’un échantillon défini. Une stratégie
largement utilisée pour la comparaison des performances des approches d’optimi-
sation consiste en le comptage de nombre des cas pour lesquels une méthode de
référence est la gagnante [D ERRAC et collab., 2011]. Dans ce contexte, nous consi-
dérons l’échantillon formé par l’intégration de toutes les instances utilisées dans
les expérimentations du Tableau 4.3, ce qui donne un totale de 240 instances. Si la
performance de la recherche coucou proposée est égale à celle de l’algorithme gé-
nétique, nous attendons d’avoir approximativement la moitié des instances gagnée
par la première approche et la moitié gagnée par la deuxième. Autrement, un dé-
calage sera détecté dans le nombre de victoires au profit de l’algorithme ayant une
meilleure performance. Donc, nous pouvons distinguer trois cas ¢comme suit. La re-
cherche coucou est la gagnante dans le cas de µcuck−nsg a < 0 ∧ µnsg a−cuck > 0 ,
¡¡ ¡ ¢¢

l’algorithme génétique élitiste de¢¢ tri non dominé est le gagnant dans le cas de
µcuck−nsg µ
¡¡ ¢ ¡
¡¡ a > 0 ∧ nsg¢a−cuck < 0 et l’équivalence des deux
¢ ¡ algorithmes ¢¢ dans le
cas de µcuck−nsg a ≤ 0 ∧ µnsg a−cuck ≤ 0 ∨ µcuck−nsg a ≥ 0 ∧ µnsg a−cuck ≥ 0 . Nous
¡ ¢¢ ¡¡

notons la victoire de la recherche coucou par +1, la victoire de l’algorithme génétique


élitiste de tri non
¡¡ dominé par ¢-1 ¡et la situation neutre
¢¢ ¡¡ par 0. Il est ࢠmentionner que le
cas neutre i.e µcuck−nsg a ≤ 0 ∧ µnsg a−cuck ≤ 0 ∨ µcuck−nsg a ≥ 0 ∧ µnsg a−cuck ≥ 0
¡ ¢¢

n’est pas compté mais partitionné d’une façon équitable entre les deux algorithmes
considérés [F ONG et collab., 2003]. Le test des signes est adopté pour évaluer l’hypothèse

145
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

TABLEAU 4.9 Variation des performances (la moyenne des proportions des ordonnance-
ments dominés) des approches proposées en fonction du nombre de tâches avec consi-
dération simultanée des règles de dominance de Pareto et Lorenz (Le f f = 0, TF = 0.5 et
RDD = 0.5).

n R̄cuck−opt R̄nsg a−opt R̄cuck−nsg a R̄nsg a−cuck


5 0 417×10−4 0 417 × 10−4
6 0 125×10−4 0 125 × 10−4
7 0 825×10−4 0 825 × 10−4
8 / / 0 104 × 10−3
9 / / 38 × 10−4 182 × 10−3
10 / / 45 × 10−4 195 × 10−3
15 / / 417 × 10−4 278 × 10−3
20 / / 828 × 10−4 394 × 10−3
25 / / 156 × 10−3 406 × 10−3
30 / / 195 × 10−3 346 × 10−3
35 / / 267 × 10−3 326 × 10−3
40 / / 263 × 10−3 298 × 10−3

/ : Non applicable

TABLEAU 4.10 Variation des performances (la moyenne des distances modifiées norma-
lisées) des approches proposées en fonction du nombre de tâches avec considération si-
multanée des règles de dominance de Pareto et Lorenz (Le f f = 0, TF = 0.5 et RDD = 0.5).

n µ̄cuck−opt µ̄nsg a−opt µ̄cuck−nsg a µ̄nsg a−cuck


5 0 61×10−4 65 × 10−4 33 × 10−4
6 0 2 × 10−6 192×10−4 2 × 10−6
7 0 6 × 10−4 85 × 10−4 8 × 10−4
8 / / 61 × 10−4 141×10−4
9 / / 128×10−4 12 × 10−4
10 / / −5 × 10−4 20 × 10−4
15 / / −4 × 10−4 12 × 10−4
20 / / −3 × 10−4 12 × 10−4
25 / / −2 × 10−4 7 × 10−4
30 / / −3 × 10−4 7 × 10−4
35 / / −3 × 10−4 3 × 10−4
40 / / −1 × 10−4 2 × 10−4

/ : Non applicable

146
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

nulle que la médiane des valeurs gagnantes est égale à zéro contre l’hypothèse alternative
que la médiane des valeurs gagnantes est supérieure à zéro. Les hypothèses nulle et
alternative sont définies comme suit :

 H0 : La méd i ane d e nombr e d es vi c t oi r es d e l a r echer che coucou = 0

H1 : La méd i ane d e nombr e d es vi c t oi r es d e l a r echer che coucou > 0


À cause de la taille de notre échantillon (240), il est possible d’utiliser une approxi-
mation normale pour la distribution de probabilité binomiale dans la détermination
de la région du rejet du test des signes [WACKERLY et collab., 2008]. Comme les valeurs
faibles de p constituent une évidence forte contre l’hypothèse nulle, le test rejette l’hy-
pothèse nulle en faveur de l’hypothèse alternative à un niveau de signification de 1% car
la valeur-p obtenue est inférieure au niveau de signification (1.3327 × 10−9 < 1%). Donc,
il est très probable que la mesure de performance de l’approche recherche coucou en
fonction de la distance modifiée normalisée soit supérieure à la mesure de performance
de l’algorithme génétique multi-objectif.

4.6 Conclusion

Dans ce chapitre, nous avons abordé deux objectifs notamment la modélisation et


la résolution d’un nouveau problème d’ordonnancement bi-objectif à une machine avec
effet d’apprentissage à base de position. Dues aux contraintes des environnements de
nos jours, l’imprécision des données a été considérée pendant les procédures de modé-
lisation et d’optimisation à travers l’introduction de la théorie de possibilité. Alors, nous
avons développé des formulations généralisées pour la somme pondérée des dates de fin
d’exécution ainsi que la somme pondérée des possibilités des retards des tâches, adoptées
comme des fonctions objectifs. Des cas particuliers du problème résultant ont été analy-
sés et il a été prouvé que la version générale est NP-difficile au sens fort. Dans le but de
résoudre ce problème, nous avons proposé deux métaheuristiques comme outils de réso-
lution. La première approche est la fameuse approche d’algorithme génétique élitiste de
tri non dominé avec quelques modifications pour l’adapter aux spécificités du problème
étudié. L’algorithme génétique a été adopté comme méthode benchmark pour évaluer les
performances de la recherche coucou combinée avec une recherche à voisinage variable.
La recherche coucou hybride proposée a réussi à trouver un nombre réduit des solutions
non dominées meilleures que celles obtenues par l’algorithme génétique multi-objectif.
Dans le but d’améliorer la qualité des solutions obtenues, les solutions délivrées par des
schémas de dominance différentes (Pareto et Lorenz) ont été combinées dans le même
ensemble et les mesures de performance ont été recalculées. Cette intégration a confirmé
qu’une efficacité améliorée peut être atteinte en comparaison avec un processus d’opti-
misation basé uniquement sur une règle de dominance.
Finalement, nous pensons que la pertinence des méthodologies menées dans cette
recherche peut solliciter des futures contributions. Ceci permettra par la suite de mettre
clairement en relief l’efficacité de la théorie floue pour la description des quantités incer-
taines ou vagues dans le cadre de stratégies d’ordonnancement.

147
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

4.7 Références
A BBASBANDY, S. et T. H AJJARI. 2009, «A new approach for ranking of trapezoidal fuzzy
numbers», Computers and Mathematics with Applications, vol. 57, no 3, p. 413–419. 118

A DAMU , M. O. et A. O. A DEWUMI. 2014, «A survey of single machine scheduling to mini-


mize weighted number of tardy jobs», Journal of Industrial and Management Optimi-
zation, vol. 10, no 1, p. 219–241. 113

A HMADIZAR , F. et L. H OSSEINI. 2011, «Single-machine scheduling with a position-based


learning effect and fuzzy processing times», International Journal of Advanced Manu-
facturing Technology, vol. 56, no 5, p. 693–698. 115

A HMADIZAR , F. et L. H OSSEINI. 2013, «Minimizing makespan in a single-machine schedu-


ling problem with a learning effect and fuzzy processing times», International Journal
of Advanced Manufacturing Technology, vol. 65, no 1, p. 581–587. 115

A L -T URKI , U., C. F EDJKI et A. A NDIJANI. 2001, «Tabu search for a class of single-machine
scheduling problems», Computers and Operations Research, vol. 28, no 12, p. 1223–
1230. 111

A LIDAEE , B. et N. K. W OMER. 1999, «Scheduling with time dependent processing times :


Review and extensions», The Journal of the Operational Research Society, vol. 50, no 7,
p. 711–720. 114

AYDILEK , A., H. AYDILEK et A. A LLAHVERDI. 2017, «Algorithms for minimizing the number
of tardy jobs for reducing production cost with uncertain processing times», Applied
Mathematical Modelling, vol. 45, p. 982–996. 115

B ALASUBBAREDDY, M., S. S IVANAGARAJU et C. V. S URESH. 2015, «Multi-objective optimi-


zation in the presence of practical constraints using non-dominated sorting hybrid cu-
ckoo search algorithm», Engineering Science and Technology, an International Journal,
vol. 18, no 4, p. 603–615. 131

B ENTRCIA , T. et L.-H. M OUSS. 2015, Fuzzy Modeling of the Single Machine Schedu-
ling Problems including the Learning Effect,, chap. 14, in Talbi, E-G. and Yalaoui, F.
and Amodeo, L. (eds.), Metaheuristics for Production Systems, Series : Operations Re-
search/Computer Science Interfaces Series, Springer. 115, 126

B ENTRCIA , T., L.-H. M OUSS, N.-K. M OUSS, F. YALAOUI et L. B ENYOUCEF. 2015, «Evalua-
tion of optimality in the fuzzy single machine scheduling problem including discoun-
ted costs», International Journal of Advanced Manufacturing Technology, vol. 80, no 5,
p. 1369–1385. 114

B ISKUP, D. 1999, «Single-machine scheduling with learning considerations», European


Journal of Operational Research, vol. 115, no 1, p. 173–178. 123

B ISKUP, D. 2008, «A state-of-the-art review on scheduling with learning effects», European


Journal of Operational Research, vol. 188, no 2, p. 315–329. 114

B LUM , C., J. P UCHINGER, G. R. R AIDL et A. R OLI. 2011, «Hybrid metaheuristics in combi-


natorial optimization : A survey», Applied Soft Computing, vol. 11, no 6, p. 4135–4151.
132

148
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

B OJADZIEV, G. et M. B OJADZIEV. 1996, Fuzzy Sets, Fuzzy Logic, Applications, World Scien-
tific. 118

B OUSSAÏD, I., J. L EPAGNOT et P. S IARRY. 2013, «A survey on optimization metaheuristics»,


Information Sciences, vol. 237, p. 82–117. 127

B RUCKER , P. et M. Y. KOVALYOV. 1996, «Single machine batch scheduling to minimize the


weighted number of late jobs», Mathematical Methods of Operations Research, vol. 43,
no 1, p. 1–8. 112

B UCKLEY, J. J. 2005, Fuzzy Probabilities, New Approach and Applications, Springer Press.
123

C AI , X. Q., X. W U et X. Z HOU. 2014, Optimal Stochastic Scheduling, Springer Press. 114

C HANAS , S. 2001, «On the interval approximation of a fuzzy number», Fuzzy Sets and Sys-
tems, vol. 122, no 2, p. 353–356. 116

C HEN , C.-L. et R. L. B ULFIN. 1993, «Complexity of single machine, multi-criteria sche-


duling problems», European Journal of Operational Research, vol. 70, no 1, p. 115–125.
127

C HENG , T. C. E., C. T. N G et J. J. Y UAN. 2006, «Multi-agent scheduling on a single machine


to minimize total weighted number of tardy jobs», Theoretical Computer Science, vol.
362, no 1-3, p. 273–281. 112

C OLEY, D. A. 1999, An Introduction to Genetic Algorithms for Scientists and Engineers,


World Scientific. 128

D AUZÈRE -P ÉRÈS , S. 1995, «Minimizing late jobs in the general one machine scheduling
problem», European Journal of Operational Research, vol. 81, no 1, p. 134–142. 112

D AUZÈRE -P ÉRÈS , S. et L. M ÖNCH. 2013, «Scheduling jobs on a single batch processing


machine with incompatible job families and weighted number of tardy jobs objective»,
Computers and Operations Research, vol. 40, no 5, p. 1224–1233. 113

D AUZÈRE -P ÉRÈS , S. et M. S EVAUX. 2003, «Using lagrangean relaxation to minimize the


weighted number of late jobs on a single machine», Naval Research Logistics, vol. 50,
no 3, p. 273–288. 112

D EB , K. 2001, Multi-Objective Optimization using Evolutionary Algorithms, Wiley. 129

D EB , K., A. P RATAP, S. A GARWAL et T. M EYARIVAN. 2002, «A fast and elitist multiobjective


genetic algorithm : Nsga-ii», IEEE Transactions on Evolutionary Computation, vol. 6,
no 2, p. 182–197. 128

D ERRAC , J., S. G ARCÍA, D. M OLINA et F. H ERRERA. 2011, «A practical tutorial on the use
of nonparametric statistical tests as a methodology for comparing evolutionary and
swarm intelligence algorithms», Swarm and Evolutionary Computation, vol. 1, no 1, p.
3–18. 145

D IAMOND, P. et P. K LOEDEN. 1994, Metric Spaces of Fuzzy Sets : Theory and Applications,
World Scienific Press. 116

149
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

D UBOIS , D., L. F OULLOY, G. M AURIS et H. P RADE. 2004, «Probability-possibility trans-


formations, triangular fuzzy sets, and probabilistic inequalities», Reliable Computing,
vol. 10, no 4, p. 273–297. 120

D UBOIS , D. et H. P RADE. 1988, Possibility theory an approach to computerized processing


of uncertainty, Plenum Press. 120

D UGARDIN , F., F. YALAOUI et L. A MODEO. 2010, «New multi-objective method to solve


reentrant hybrid flow shop scheduling problem», European Journal of Operational Re-
search, vol. 203, no 1, p. 22–31. 135, 138

E BRAHIMNEJAD, A. 2016, «A new method for solving fuzzy transportation problem with lr
flat fuzzy numbers», Information Sciences, vol. 357, p. 108–124. 122

F ONG , D. Y. T., C. W. K WAN, K. F. L AM et K. S. L. L AM. 2003, «Use of the sign test for the
median in the presence of ties», The American Statistician, vol. 57, no 4, p. 237–240. 145

G UPTA , A., A. K UMAR et M. S HARMA. 2013, «Applications of fuzzy linear programming


with generalized lr flat fuzzy parameters», Fuzzy Information and Engineering, vol. 5,
no 4, p. 475–492. 122

G UPTA , S. K. et J. K YPARISIS. 1987, «Single machine scheduling research», Omega Inter-


national Journal of Management Sciences, vol. 15, no 3, p. 207–227. 111

H ANOUN , S., D. C REIGHTON et S. N AHAVANDI. 2014, «A hybrid cuckoo search and variable
neighborhood descent for single and multiobjective scheduling problems», Internatio-
nal Journal of Advanced Manufacturing Technology, vol. 75, no 9, p. 1501–1516. 131,
133

H ANSEN , P. et N. M LADENOVI Ć. 2001, «Variable neighborhood search : Principles and ap-
plications», European Journal of Operational Research, vol. 130, no 3, p. 449–467. 133

H OOGEVEEN , H. 2005, «Multicriteria scheduling», European Journal of Operational Re-


search, vol. 167, no 3, p. 592–623. 111

J AIN , R. 1976, «Decision-making in the presence of fuzzy variables», IEEE Transactions on


Systems Man and Cybernetics, vol. 6, no 10, p. 698–703. 118

J ANIAK , A. et R. RUDEK. 2010, «A note on a makespan minimization problem with a


multi-ability learning effect», Omega The International Journal of Management Science,
vol. 38, no 3-4, p. 213–217. 113

J IN , Y. et J. B RANKE. 2005, «Evolutionary optimization in uncertain environments - a sur-


vey», IEEE Transactions on Evolutionary Computation, vol. 9, no 3, p. 303–317. 114

K AHRAMAN , C. et M. YAVUZ. 2010, Production Engineering and Management under Fuz-


ziness, Springer Press. 116

K ARP, R. M. 1972, Reducibility among combinatorial problems,, in R. E. Miller and J. W.


Thatcher and J. D. Bohlinger (eds.), Complexity of Computer Computations, Plenum
Press. 112

K ASPERSKI , A. 2005, «A possibilstic approach to sequencing problems with fuzzy parame-


ters», Fuzzy Sets and Systems, vol. 150, no 1, p. 77–86. 114

150
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

K ASPERSKI , A. et P. Z IEŁI ŃSKI. 2011, «Possibilistic minmax regret sequencing problems


with fuzzy parameters», IEEE Transactions on Fuzzy Systems, vol. 19, no 6, p. 1072–1082.
114

K IM , Y. D. 1993, «A new branch and bound algorithm for minimizing mean tardiness in
two-machine flowshops», Computers and Operations Research, vol. 20, no 4, p. 391–401.
136

K LIR , G. et B. Y UAN. 1995, Fuzzy Sets and Fuzzy Logic : Theory and Applications, Prentice
Hall Press. 119

L ACOMME , P., C. P RINS et M. S EVAUX. 2006, «A genetic algorithm for a bi-objective ca-
pacitated arc routing problem», Computers and Operations Research, vol. 33, no 12, p.
3473–3493. 138

L AI , P.-J. et W.-C. L EE. 2011, «Single-machine scheduling with general sum-of-


processing-time-based and position-based learning effects», Omega The International
Journal of Management Science, vol. 39, no 5, p. 467–471. 113

L AWLER , E. L. et J. M. M OORE. 1969, «A functional equation and its application to resource


allocation and sequencing problems», Management Science, vol. 16, no 1, p. 77–84. 112

L I , J., X. Y UAN, E. S. L EE et D. X U. 2011, «Setting due dates to minimize the total weighted
possibilistic mean value of the weighted earliness-tardiness costs on a single machine»,
Computers and Mathematics with Applications, vol. 62, no 1, p. 4126–4139. 111

L IN , B. M. T. 2007, «Complexity results for single-machine scheduling with positional


learning effects», Journal of the Operational Research Society, vol. 58, no 8, p. 1099–1102.
126

M ANTEGNA , R. 1994, «Fast, accurate algorithm for numerical simulation of lévy stable
stochastic processes», Physical Review E, vol. 49, no 5, p. 4677–4683. 131

M’H ALLAH , R. et R. L. B ULFIN. 2003, «Minimizing the weighted number of tardy jobs on
a single machine», European Journal of Operational Research, vol. 145, no 1, p. 45–56.
112

M’H ALLAH , R. et R. L. B ULFIN. 2007, «Minimizing the weighted number of tardy jobs on a
single machine with release dates», European Journal of Operational Research, vol. 176,
no 2, p. 727–744. 113

M OGHADDAM , A., F. YALAOUI et L. A MODEO. 2015, «Efficient meta-heuristics based on


various dominance criteria for asingle-machine bi-criteria scheduling problem with re-
jection», Journal of Manufacturing Systems, vol. 34, p. 12–22. 135

M OHAMAD, A. B., A. M. Z AIN et N. E. N. B AZIN. 2014, «Cuckoo search algorithm for opti-
mization problems - a literature review and its applications», Applied Artificial Intelli-
gence : An International Journal, vol. 28, no 5, p. 419–448. 131

M OSHIEOV, G. 2001, «Scheduling problems with a learning effect», European Journal of


Operational Research, vol. 132, no 3, p. 687–693. 126

M UNDT, A. et T. W ICH. 2007, Single Machine Scheduling with Tardiness Involved Objec-
tives : A Survey, mémoire de maîtrise, Université de Linköpings, Sweden. 113

151
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

Ö ZELKAN , E. C. et L. D UCKSTEIN. 1999, «Optimal fuzzy counterparts of scheduling rules»,


European Journal of Operational Research, vol. 113, no 3, p. 593–609. 118

PAVLYUKEVICH , I. 2007, «Lévy flights, non-local search and simulated annealing», Journal
of Computational Physics, vol. 226, no 1, p. 1830–1844. 131

P INEDO, M. L. 2009, Planning and Scheduling in Manufacturing and Services, Springer


Press. 111

P OTTS , C. N. et L. N. VAN WASSENHOVE. 1988, «Algorithms for scheduling a single ma-


chine to minimize the weighted number of late jobs», Management Science, vol. 34,
no 7, p. 843–858. 112

Q IAN , J. et G. S TEINER. 2013, «Fast algorithms for scheduling with learning effects and
time-dependent processing times on a single machine», European Journal of Operatio-
nal Research, vol. 225, no 3, p. 547–551. 114

R ASTI -B ARZOKI , M. et S. R. H EJAZI. 2013, «Minimizing the weighted number of tardy jobs
with due date assignment and capacity-constrained deliveries for multiple customers
in supply chains», European Journal of Operational Research, vol. 228, no 2, p. 345–357.
113

R IISE , A. 2002, «Comparing genetic algorithms and tabu search for multi-objective op-
timization», dans International Federation of Operational Research Studies Conference
IFORS, Edinburhg, UK. 138

RUDEK , R. 2017, «The single machine total weighted completion time scheduling problem
with the sum-of-processing time based models : Strongly np-hard», Applied Mathema-
tical Modelling, vol. 50, p. 314–332. 113

S AIDI M EHRABAD, M. et A. PAHLAVANI. 2009, «A fuzzy multi-objective programming for


scheduling of weighted jobs on a single machine», The International Journal of Advan-
ced Manufacturing Technology, vol. 45, no 1-2, p. 122–139. 136

S CALAS , E. et M. L ECCARDI. 2005, «Comparison of three algorithms for lèvy noise gene-
ration», dans Fifth EUROMECH Nonlinear Dynamics Conference, Eindhoven, The Ne-
therlands. 131

S EVAUX , M. et S. D AUZÈRE -P ÉRÈS. 2003, «Genetic algorithms to minimize the weighted


number of late jobs on a single machine», European Journal of Operational Research,
vol. 151, no 2, p. 296–306. 112

S HABTAY, D. et G. S TEINER. 2011, «A bicriteria approach to minimize the total weighted


number of tardy jobs with convex controllable processing times and assignable due
dates», Journal of Scheduling, vol. 14, no 5, p. 455–469. 113

S INGH , G. et I. S. A HUJA. 2012, «Just-in-time manufacturing : literature review and direc-


tions», International Journal of Business Continuity and Risk Management, vol. 3, no 1,
p. 57–98. 111

T ZAFESTAS , S. et A. V ENETSANOPOULOS. 1994, Fuzzy Reasoning in Information, Decision


and Control Systems, Kluwer Press. 117

152
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

WACKERLY, D. D., W. M ENDENHALL et R. L. S CHEAFFER. 2008, Mathematical Statistics with


Applications, Brooks/Cole Cengage Learning Press. 147

WANG , J.-B., Y.-B. W U et P. J I. 2012, «Erratum : A revision of some single-machine and


m-machine flowshop scheduling problems with learning considerations», Information
Sciences, vol. 190, p. 227–232. 113

W ONGA , B. K. et V. S. L AI. 2011, «A survey of the application of fuzzy set theory in pro-
duction and operations management : 1998-2009», International Journal of Production
Economics, vol. 129, no 1, p. 157–168. 136

W RIGHT, T. P. 1936, «Factors affecting the cost of airplanes», Journal of the Aeronautical
Sciences, vol. 3, no 4, p. 122–128. 113

W U , C.-C. et W.-C. L EE. 2008, «Single-machine scheduling problems with a learning ef-
fect», Applied Mathematical Modelling, vol. 32, no 7, p. 1191–1197. 113

YAGER , R. R. 1981, «A procedure for ordering fuzzy subsets of the unit interval», Informa-
tion Sciences, vol. 24, no 2, p. 143–161. 118

YANG , X. S. et S. D EB. 2009, «Cuckoo search via lévy flights», dans World congress on na-
ture and biologically inspired computing, Coimbatore, India. 130

YANG , X. S. et S. D EB. 2010, «Engineering optimisation by cuckoo search», International


Journal of Mathematical Modelling and Numerical Optimisation, vol. 1, no 4, p. 330–
343. 130

Y IN , Y., M. L IU, J. H AO et M. Z HOU. 2012, «Single-machine scheduling with job-position-


dependent learning and time-dependent deterioration», IEEE Transactions on Systems,
Man, and Cybernetics-Part A : Systems and Humans, vol. 42, no 1, p. 192–200. 113

Z ADEH , L. A. 1965, «Fuzzy sets», Information and Control, vol. 8, no 3, p. 338–353. 116

Z ADEH , L. A. 1968, «Probability measures of fuzzy events», Journal of Mathematical Ana-


lysis and Applications, vol. 23, no 2, p. 421–427. 119

Z ADEH , L. A. 1978, «Fuzzy sets as a basis for a theory of possibility», Fuzzy Sets and Sys-
tems, vol. 1, p. 3–28. 119

Z ITZLER , E., L. T HIELE, M. L AUMANNS, C. M. F ONSECA et V. G. DA F ONSECA. 2003, «Per-


formance assessment of multiobjective optimizers : an analysis and review», IEEE Tran-
sactions on Evolutionary Computation, vol. 7, no 2, p. 117–132. 137

153
Chapitre 4. Problème d’ordonnancement bi-objectif à une machine avec effet
d’apprentissage et paramètres incertains

154
Conclusion générale

« Sometimes life hits you in the


head with a brick. Don’t lose faith »

Steve Jobs

155
Conclusion générale

156
Conclusion générale

Synthèse
Au cours de cette thèse, la recherche bibliographique réalisée relativement aux pro-
blèmes d’ordonnancement à une machine a permis de déceler le gap significatif exis-
tant entre les développements théoriques et les recommandations pratiques notamment
en termes du traitement de certaines contraintes. En effet, les approches d’ordonnance-
ment étant souvent élaborées sur une base déterministe pour laquelle l’imprécision des
données due à des facteurs internes/externes est ignorée ou pas prise convenablement
en compte. Par conséquent, une solution optimale au sens classique peut s’avérer inva-
lide ou obsolète suite à la présence des sources d’incertitudes dans l’environnement. Le
contexte de la thèse s’est donc naturellement focalisé sur le support des paramètres in-
certains au sein des approches d’ordonnancement pendant les phases de modélisation
ainsi que de résolution.
Les travaux effectués dans cette thèse ont permis, du point de vue mathématique,
non seulement de revisiter quelques opérations arithmétiques définies sur l’espace des
nombres flous mais aussi d’apporter des extensions intéressantes au niveau des pro-
priétés structurelles de ces nombres. Nos contributions liées à l’ordonnancement sont
localisées au croisement de deux champs thématiques. Le premier fait le point sur la
modélisation des problèmes d’ordonnancement à une machine dans l’incertain en in-
tégrant d’autres contraintes alors que le deuxième champ concerne le developpement
d’outils d’optimisation et l’évaluation de leurs performances. Dans le premier champ,
nous avons représenté les paramètres d’ordonnancement (durées opératoires, dates
d’échéance,...etc.) par des nombres flous ayant une allure bien spécifique et nous avons
considéré la notion d’optimalité selon plusieurs interprétations : notion d’optimalité gra-
duelle pour un ordonnancement fixe, notion d’optimalité ordinaire dans le cadre d’un
problème d’optimisation combinatoire mono-objectif et notion d’optimalité ordinaire
dans le cadre d’un problème d’optimisation combinatoire multi-objectif. Les résultats is-
sus de l’analyse de complexité basée sur ces concepts d’optimalité nous ont permis de
démontrer que malgré l’obtention de quelques problèmes d’ordonnancement ayant une
complexité polynômiale, la résolution des modèles résultants sans hypothèses simplifica-
trices sur les paramètres d’ordonnancement est loin d’être un but trivial. Dans le second
champ de recherche englobant les outils d’optimisation et leurs caractéristiques, nous
avons développé suivant cet axe plusieurs approches de résolution en particulier des mé-
taheuristiques à base de trajectoire et de population, qui ont fait preuve dans le domaine
d’ordonnancement. Nous avons consolidé l’efficacité de ces algorithmes en proposant
des schémas d’intégration divers où la motivation vient du constat que l’hybridation entre
différentes approches d’optimisation peut conduire à une amélioration de la qualité des
solutions obtenues. En particulier, nous avons étudié l’utilité d’adopter un algorithme
génétique comme phase optionnelle dans la recherche par motifs. De plus, nous avons
proposé des versions multi-objectives des approches algorithme génétique et recherche
coucou destinées aux problèmes d’optimisation discrets avec analyse de l’influence de
deux critères de dominance. Finalement, nous avons approuvé ces approches de réso-
lution à travers des tests statistiques mettant en évidence une validation plus fine des
résultats en comparaison avec les déductions grossières basées sur les valeurs moyennes
des mesures de performance.
L’exploitation des modèles et des approches proposés nous a permis d’aboutir aux
remarques générales suivantes :

• La possibilité de préserver la validité de la règle de Smith pondérée sous paramètres


incertains si la linéarité de la fonction de classement des nombres flous est assurée ;

157
Conclusion générale

• La possibilité de préserver la validité de la règle de Smith pondérée sous paramètres


incertains et effet d’apprentissage si la linéarité de la fonction de classement et
l’agréabilité floue des poids sont vérifiées ;
• L’aspect NP-difficile au sens fort d’un problème d’ordonnancement à une machine
avec paramètres incertains découle directement de cet aspect pour le problème
d’ordonnancement associé avec paramètres réels dû à la possibilité d’élaboration
d’une transformation polynômiale entre les instances des classes des deux pro-
blèmes ;
• La nécessité d’entreprendre des améliorations au niveau des mesures de perfor-
mance utilisées dans le cadre des approches d’optimisation comme ces mesures
souffrent d’inconsistances sous certaines situations ou offrent des estimations gros-
sières.
Il est à souligner que les idées implémentées dans cette thèse s’appliquent sans grande
difficulté à d’autres variantes des problèmes d’ordonnancement à une machine telles que
le cas avec des temps de préparation incertains. La résolution de tel problème passe par
les mêmes étapes abordées dans notre étude en adoptant les extensions floues des opé-
rations arithmétiques.

Perspectives
Après l’analyse des problèmes d’ordonnancement à une machine avec paramètres in-
certains et l’adoption de la théorie de possibilité pour la modélisation d’aspects incer-
tains, nous estimons que les résultats obtenus peuvent donner naissance à de futures
perspectives concernant les problèmes d’ordonnancement flous. Comme la présence des
périodes d’indisponibilité de la machine due par exemple à une défaillance n’est pas évo-
quée dans cette thèse, il serait très intéressant de considérer ce type de contraintes plus en
détail via l’utilisation de la théorie des probabilités floues. Une autre ouverture de ce tra-
vail peut être l’exploitation des méthodes exactes pour les problèmes d’ordonnancement
flous, ce qui nécessite la reformulation des notions associées afin de justifier l’efficacité
des approches métaheuristiques proposées. Enfin, un dernier axe de recherche concerne
la généralisation des idées implémentées pour les systèmes de production de type flow-
shop, job-shop et pourquoi pas aller même vers le cas open-shop.

158
Résumé

Les systèmes de production actuels sont soumis à une forte pression de l’environ-
nement. Cette situation peut conduire à l’altération des stratégies conventionnelles
d’ordonnancement. En effet, plusieurs paramètres et contraintes relatifs aux tâches
nécessitent une reformulation à la base d’outils adéquats. C’est dans ce contexte que
s’inscrit ce travail de thèse dans lequel nous proposons plusieurs approches intégrées
pour la modélisation du problème d’ordonnancement à une machine avec prise en
compte simultanément d’une variété de sources d’incertitude. En outre, nous analysons
la complexité des formulations résultantes et nous implémentons des règles d’optimalité
globale ainsi que des métaheuristiques pour élaborer des solutions exactes ou appro-
chées. L’évaluation des métriques de performance atteste l’efficacité des approches de
résolution proposées.

Mots clefs : Ordonnancement à une machine, théorie floue, règle d’optimalité et


méthodes d’optimisation

Abstract

Current production systems are subject to a strong pressure from their environ-
ments. Such situation can lead to the alteration of conventional scheduling strategies.
Indeed, several parameters and constraints relative to scheduled tasks require a re-
formulation on the basis of adequate tools. In this framework, we propose several
integrated approaches for modeling the problem of single machine scheduling with
simultaneous consideration of a variety of sources of uncertainty. In addition, we analyze
the complexity of the resulting formulations and implement global optimality rules in
addition to metaheuristics in order to obtain exact or approximate solutions. The perfor-
mance metrics evaluation validates the effeciency of the proposed resolution approaches.

Keywords : Single machine scheduling, fuzzy theory, optimality rules and optimiza-
tion methods

Vous aimerez peut-être aussi