■ OUVRAGES SCIENTIFIQUES
OSI3
C e recueil donne un aperçu des méthodes d’optimisation de formes et de
leurs applications en sciences de l’ingénieur, en mettant l’accent sur
quelques contributions récentes de l’IFSTTAR, du CEREMA et du CSTB. Les
applications présentées concernent des thématiques physiques autour des
matériaux et structures ainsi que des thématiques en traitement d’images
numériques. Au fil de cet ouvrage, nous mettons en évidence certains liens
Optimisation de formes
et similitudes qui existent entre des problématiques au premier abord très
différentes. Cet ouvrage a été rédigé avec un souci pédagogique constant en sciences de l’ingénieur
pour être accessible au lecteur non spécialiste.
Méthodes et applications
T his collective book aims at presenting some general methods used in
shape optimization together with relevant applications in engineering
Optimisation de formes en sciences de l’ingénieur
science. Special emphasis is put on recent research results achieved by
IFSTTAR, CEREMA and CSTB in the field. The applications presented cover
material sciences, structural design, and numerical images processing.
There exist some deep connections between those seemingly far apart
applications, as will be shown throughout the book. This book has been
intended to be accessible to non-specialist readers wanting to learn about
shape optimization.
Michaël PEIGNEY est ingénieur en chef des Ponts, Eaux et Forêts et chercheur
au laboratoire Navier. Il enseigne à l’École Polytechnique, à l’École des Ponts
ParisTech et à l’ENSTA. Ses thèmes de recherche concernent la mécanique des
solides, notamment le développement de méthodes numériques en mécanique non
linéaire, les approches multi-échelles et l’étude des transformations de phase.
sous la direction de Michaël PEIGNEY
Ouvrages scientifiques
Illustration de la couverture : résultats d’un calcul numérique d’optimisation
de formes pour un pont bidimensionnel (Source IFSTTAR)
ISBN : 978-2-85782-743-6
ISSN : 2558-3018
Réf : OSI3
Novembre 2018
LES COLLECTIONS DE L’IFSTTAR
Sous la direction de
Michaël PEIGNEY
Optimisation de formes en
sciences de l’ingénieur
Méthodes et applications
Optimisation de formes en sciences de l’ingénieur
Cet ouvrage a été préparé dans la cadre de l’opération de recherche MATEOPT (Matériaux
et Énergie pour l’Optimisation des structures de génie civil), 2010-2014. Une partie des
travaux présentés s’inscrit dans le projet européen QUIESST (Quietening the Environment
for sustainable Surface Transport), 2008-2012.
Cet ouvrage a bénéficié de la relecture croisée de Pierre Charbonnier, Christophe
Heinkelé, Michaël Peigney et Jean-Philippe Tarel. Le coordinateur remercie Pierre Argoul
et Frédéric Bourquin pour leurs avis sur la pertinence et la qualité de cet ouvrage.
Les auteurs remercient également Corinne Brusque pour sa relecture attentive et ses
remarques, ainsi que Daniel Bourbotte et Jorge Mariano pour leur travail sur la mise en
forme et l’édition de cet ouvrage.
Ont participé à la rédaction de cet ouvrage :
Laurent Caraffa (IFSTTAR), Pierre Charbonnier (CEREMA), Jérôme Defrance (CSTB),
Christophe Heinkelé (CEREMA), Thomas Leissing (CSTB), Mathias Paget (IFSTTAR),
Michaël Peigney (IFSTTAR), Jean-Philippe Tarel (IFSTTAR)
Comment citer cet ouvrage :
Peigney M. (dir.) Optimisation de formes en sciences de l’ingénieur. Marne-la-
Vallée : Ifsttar, 2018. Ouvrages Scientifiques, OSI3 . 175 pages. ISBN 978-2-
85782-744-3.
Comment citer une partie de cet ouvrage :
Auteur(s) de l’ouvrage. Titre du chapitre. in Peigney M. (dir.). Optimisation de
formes en sciences de l’ingénieur. Marne-la-Vallée : Ifsttar, 2018. Ouvrages
Scientifiques, OSI3 . Pagination première page–dernière page.
Institut français des sciences et technologies des transports, de l’aménagement et des réseaux - Ifsttar
14-20 boulevard Newton - Cité Descartes - Champs-sur-Marne - 77447 Marne-la-Vallée cedex 2
[Link]
Les collections de l’Ifsttar - ouvrages scientifiques - Réf : OSI3
ISBN 978-2-85782-744-3- ISSN 2558-3018
Novembre 2018
Cet ouvrage est mis à disposition selon les termes de la Licence Creative
Commons Attribution - Pas d’Utilisation commerciale - Pas de Modifications
4.0 International. Les termes de cette licence sont accessibles à l’adresse
[Link]
LES COLLECTIONS DE L’IFSTTAR
2
Sommaire
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Chapitre 1. Méthodes de dimensionnement robuste en conception de
structures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2. Problème de dimensionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3. L’optimisation topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4. Prise en compte des incertitudes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5. Étude d’un problème de dimensionnement robuste en milieu continu 27
1.6. Illustration numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.7. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.8. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Chapitre 2. Optimisation d’un écran antibruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.1. Éléments de contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2. Outils numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3. Indicateurs de performance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4. Optimisation intrinsèque d’un écran antibruit . . . . . . . . . . . . . . . . . . . . . . . . 56
2.5. Optimisation globale de murs antibruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.6. Les outils obtenus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.7. Vers une nouvelle méthode de conception environnementale de
murs antibruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.8. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Chapitre 3. Microstructures dans les matériaux à changement de phase . 69
3.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3
Optimisation de formes en sciences de l’ingénieur
3.2. Modélisation du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.3. Lien avec l’optimisation de formes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.4. Enveloppe convexe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.5. Application à la transformation cubique-orthorombique . . . . . . . . . . . . . 81
3.6. Microstructures laminées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.7. Problèmes à 4 phases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.8. Bornes inférieures non convexes sur W . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.9. Transformations cubiques-monocliniques . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.10. Conclusion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
[Link] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Chapitre 4. Optimisation globale pour les contours actifs . . . . . . . . . . . . . . . . . . . 103
4.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.2. Les contours actifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.3. Optimisation globale par recherche de chemin minimal . . . . . . . . . . . . . 113
4.4. Optimisation globale pour les contours actifs région . . . . . . . . . . . . . . . . 120
4.5. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.6. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Chapitre 5. Optimisation de fonctions pseudo-booléennes . . . . . . . . . . . . . . . . . 137
5.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
5.2. Optimisation de fonctions pseudo-booléennes . . . . . . . . . . . . . . . . . . . . . . 140
5.3. Extension au cas multi-labels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
5.4. Exemples d’utilisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.5. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
5.6. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . 164
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Liste des figures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
Liste des tables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Fiche bibliographique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Publication data form. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
LES COLLECTIONS DE L’IFSTTAR
4
Présentation du coordinateur de l’ouvrage
Diplômé de l’École Polytechnique et docteur en
mécanique, Michaël Peigney est Ingénieur en
Chef des Ponts, Eaux et Forêts, et chercheur
au laboratoire Navier (École des Ponts Paris
Tech, IFSTTAR, CNRS), Université Paris-Est.
Il enseigne à l’École Polytechnique, à l’École
des Ponts Paris Tech ainsi qu’à l’ENSTA (École
Nationale Supérieure des Techniques Avancées).
Titulaire de l’habilitation à diriger des recherches, il
mène une partie de ses travaux en collaboration avec
des partenaires industriels. Ses thèmes de recherche
concernent la mécanique des solides, notamment
le développement de méthodes numériques en mécanique non linéaire, les
approches multi-échelles, les phénomènes de transformation de phase, et
l’étude des matériaux intelligents.
LES COLLECTIONS DE L’IFSTTAR
5
Introduction
L’exemple le plus souvent cité lorsqu’il s’agit de décrire ce qu’est l’optimisation
de formes est issu de la mythologie gréco-romaine. Il se rapporte à la fondation
de Carthage, aux environs de l’an 814 avant notre ère. Après le meurtre de son
mari, la reine Didon s’enfuit en Tunisie, où elle demande une terre d’asile aux
autochtones. Par dérision, ceux-ci lui attribuent « autant de terrain qu’elle pourrait
en faire tenir dans une peau de bœuf ». Après réflexion, elle découpe la peau en
fines lanières et les assemble pour former une cordelette. Le problème qui se
pose à elle est alors d’entourer à l’aide de cette cordelette un territoire aussi
vaste que possible.
En termes plus mathématiques, il s’agit, à périmètre donné, de déterminer
la surface fermée d’aire maximale. La solution de ce problème, aussi appelé
inégalité iso-périmétrique, est connue depuis l’antiquité : c’est le disque. Cet
exemple académique met en évidence trois ingrédients qui caractérisent un
problème d’optimisation de forme : un modèle décrivant la nature de la géométrie
cherchée (courbe fermée dans l’exemple mentionné), une fonction critère à
optimiser (ici, l’aire) et la présence d’éventuelles contraintes sur la géométrie,
définissant un ensemble de solutions admissibles (périmètre fixé).
La bulle de savon est un autre exemple classique d’optimisation de formes. Dans
ce cas, la forme de la bulle de savon est la solution d’un problème de surface
minimale.
La forme de la bulle de savon est la solution d’un problème de surface minimale
(crédit photo : Pierre Charbonnier)
La notion de forme ou de structure optimale est naturellement très présente dans
notre environnement. Dans le domaine du minéral, par exemple, elle permet
d’expliquer la constitution de certains arrangements cristallins. En biologie, les
lois de la physique constituent un déterminant important dans le développement
LES COLLECTIONS DE L’IFSTTAR
7
Optimisation de formes en sciences de l’ingénieur
des organismes vivants (T HOMPSON, 1992), complémentaires aux mécanismes
de sélection naturelle.
De tout temps, l’être humain a cherché à optimiser la forme des objets
qu’il fabrique afin de leur donner de meilleures propriétés mécaniques,
aérodynamiques, acoustiques, ou simplement pour minimiser leur coût de
fabrication. Ce type d’activité a connu un essor très important, notamment au
XXe siècle, en lien avec les progrès de la technique et l’essor, plus récent,
de l’informatique et du calcul scientifique intensif. Les besoins de l’industrie
(automobile, aéronautique, électrotechnique, militaire, etc.) et du génie civil
ont généré un grand nombre d’applications. En parallèle, la disponibilité de
moyens de calcul de plus en plus performants a permis l’introduction de
techniques de plus en plus efficaces. La montée en puissance des moyens de
traitement numériques de données a également mis en évidence de nouvelles
problématiques de recherche : les techniques d’optimisation de forme sont
aujourd’hui très utilisées pour résoudre des problèmes inverses en reconstruction
d’images numériques (contrôle non destructif, imagerie médicale), et plus
généralement, dans les domaines de la vision artificielle et de la reconnaissance
des formes.
L’optimisation de formes définit une discipline mathématique à part entière. En
effet, les problèmes mathématiques qui se posent (existence d’une solution,
conditions d’optimalité, propriétés géométriques ou qualitatives des solutions)
sont souvent loin d’être triviaux. Ainsi, la première démonstration rigoureuse
de l’inégalité iso-périmétrique dans le plan n’a été proposée qu’en 1841 par le
mathématicien suisse Jakob Steiner. Et encore : elle s’est avérée incomplète
car elle n’était pas accompagnée d’une preuve de l’existence de la solution, et
n’a finalement été complétée qu’à la fin du XIXe siècle. De nos jours, certains
problèmes liés à la recherche de surfaces minimales à volume fixé demeurent
toujours non résolus (par exemple les surfaces de Willmore).
Un aspect primordial de l’optimisation de formes est celui du calcul, effectif
ou approché, des solutions. Dans l’exemple du problème de la reine Didon, la
solution peut être obtenue de manière théorique, mais ce n’est généralement
pas le cas dans les applications traitées et l’on doit avoir recours au calcul
numérique. L’algorithme constitue donc le quatrième ingrédient de l’optimisation
de forme. Le plus souvent, il s’agit de faire évoluer une forme initiale de
manière à l’améliorer, au sens du critère optimisé. Cela n’est pas toujours simple,
du fait du caractère mal posé des problèmes rencontrés, et de la présence
fréquente d’optima locaux. De ce point de vue, les problèmes d’optimisation
peuvent se classer en trois catégories, par ordre de difficulté croissante. Dans
le cas le plus simple, les formes, ou les structures, sont paramètrées à
l’aide d’un petit nombre de variables. L’approche paramétrique a l’avantage de
réduire l’espace de recherche, mais elle limite également l’espace des solutions
admissibles. Un grand nombre d’algorithmes, déterministes ou stochastiques,
peuvent être employés. Certains d’entre eux reproduisent des mécanismes
naturels, physiques ou biologiques : on parle de méta-heuristiques (S IARRY,
2014). Dans une seconde approche, dite géométrique, on fait évoluer les
LES COLLECTIONS DE L’IFSTTAR
8
Introduction
frontières discrétisées de l’objet, sans toutefois autoriser de modifications de
topologie. Plus générique, elle est cependant limitée à l’obtention d’optimums
locaux. De plus, son implantation numérique nécessite de remettre à jour
périodiquement la représentation (le plus souvent, un maillage) utilisée pour
la discrétisation et un raffinement du maillage ne conduit pas forcément à la
convergence. Enfin, la troisième catégorie est celle de l’optimisation topologique.
Permettant l’introduction de trous aussi bien que la fusion de composantes
connexes, elle n’impose donc aucune restriction sur la forme optimale. Les
techniques comme les lignes de niveaux (O SHER et S ETHIAN, 1988), le gradient
topologique (S OKOLOWSKI et Z OCHOWSKI, 1999) ou encore les méthodes
d’homogénéisation (KOHN et al., 1986a ; KOHN et al., 1986b) appartiennent à
cette catégorie.
L’objectif de cet ouvrage n’est pas de développer les mathématiques de
l’optimisation de forme, ni de décrire de manière approfondie l’ensemble des
techniques d’optimisation associées. Pour cela, le lecteur pourra se référer à
des ouvrage tels que (S OKOLOWSKI et Z OLÉSIO, 1992 ; D ELFOUR et al., 2001 ;
H ENROT et al., 2005 ; A LLAIRE, 2007 ; N OVOTNY et al., 2012) pour les aspects
mathématiques et (O SHER et F EDKIW, 2003 ; S IARRY, 2014 ; B ENDSØE et al.,
2003) en ce qui concerne les méthodes numériques.
Notre propos est ici de donner un aperçu de ces méthodes et de leurs
applications pour les sciences de l’ingénieur, en mettant l’accent sur quelques
contributions récentes de l’IFSTTAR, du CEREMA et du CSTB. Cet ouvrage se
veut autosuffisant et accessible au lecteur non spécialiste de l’optimisation de
formes.
Le chapitre 1 propose une présentation des méthodes d’homogénéisation et de
leur application à la conception de structures mécaniques. L’auteur s’intéresse
notamment à leur mise en œuvre en présence d’incertitudes sur les propriétés
intrinsèques des matériaux.
Le chapitre 2 est également consacré à un problème d’optimisation de structure.
Il s’agit ici d’écrans antibruit, dont les caractéristiques sont déterminées par
une approche paramétrique mettant en œuvre une technique d’optimisation
métaheuristique.
Le chapitre 3, nous permet de montrer comment l’étude du comportement des
alliages à mémoire de forme est liée à la théorie de l’optimisation de formes, ce
qui permet d’estimer les différentes microstructures susceptibles de se former
lors des transformations de phase solide/solide sous l’effet de sollicitations
thermo-mécaniques.
Le chapitre 4 s’intéresse à l’utilisation de modèles déformables pour la
segmentation d’images numériques. En d’autres termes, il s’agit d’optimiser des
formes mathématiques pour capturer des objets ou des structures d’intérêt dans
des images. Les auteurs dressent un état de l’art des méthodes d’optimisation
récentes permettant d’atteindre l’optimum global dans certaines situations.
LES COLLECTIONS DE L’IFSTTAR
9
Optimisation de formes en sciences de l’ingénieur
Enfin, le chapitre 5 est consacré à la reconstruction 3D par stéréovision. L’objectif
est ici d’estimer, à partir d’images numériques, la description tridimensionnelle
d’objets ou de scènes, sous forme d’une carte de profondeur. Les données et les
critères optimisés étant discrets, le formalisme employé est celui des graphes,
conduisant à des algorithmes d’optimisation rapides et souvent globaux.
Bibliographie
Grégoire Allaire. « Introduction à l’optimisation de formes ». In : Conception
optimale de structures. Tome 58. Mathématiques & applications. Springer,
2007, pages 1-20. DOI : 10.1007/978-3-540-36856-4_1.
Martin Bendsøe et Ole Sigmund. Topology Optimization : Theory, Methods and
Applications. Springer, 2003.
Michel C. Delfour et Jean-Paul Zolésio. Shape and geometries : analysis,
differential calculus and optimization. Advances in design and control. SIAM,
2001.
Antoine Henrot et Michel Pierre. Variation et optimisation de formes : Une
analyse géométrique. Mathématiques et Applications. Springer, 2005.
Robert V. Kohn et Gilbert Strang. « Optimal design and relaxation of variational
problems, I,II ». In : Communications on Pure and Applied Mathematics 39
(1986), pages 113-182.
Robert V. Kohn et Gilbert Strang. « Optimal design and relaxation of variational
problems, III ». In : Communications on Pure and Applied Mathematics 39
(1986), pages 353-377.
Antonio A. Novotny et Jan Sokoowski. Topological Derivatives in Shape
Optimization. Interaction of Mechanics and Mathematics. Springer, 2012.
Stanley Osher et Ronald Fedkiw. Level Set Methods and Dynamic Implicit
Surfaces. New York : Springer-Verlag, 2003.
Stanley Osher et J.A. Sethian. « Fronts propagating with curvature-dependant
speed : algorithms based on Hamilton-Jacobi formulations ». In : Journal of
Computational Physics 79.1 (nov. 1988), pages 12-49.
Patrick Siarry. Métaheuristiques : Recuits simulé, recherche avec tabous,
recherche à voisinages variables, méthodes GRASP, algorithmes
évolutionnaires, fourmis artificielles, essaims particulaires et autres méthodes
d’optimisation. Algorithmes. Eyrolles, 2014.
Jan Sokolowski et Antoni Zochowski. « On the topological derivative in shape
optimization ». In : SIAM Journal on Control and Optimization 37 (1999),
pages 1251-1272.
Jan Sokolowski et Jean-Paul Zolésio. Introduction to shape optimization :
shape sensitivity analysis. Tome 16. Springer Series in Computational
Mathematics. Berlin, Heidelberg, New York : Springer Verlag, juil. 1992.
D’Arcy Wentworth Thompson. On Growth and Form. Cambridge paperbacks.
Cambridge University Press, 1992.
LES COLLECTIONS DE L’IFSTTAR
10
Chapitre 1
Méthodes de
dimensionnement robuste en
conception de structures
Michaël PEIGNEY 1
Résumé – Nous nous intéressons dans ce chapitre à deux problèmes
types en conception de structures mécaniques.
Le premier problème est celui de l’optimisation topologique : à quantité de
matière donnée, il s’agit de déterminer la forme optimale de la structure de
façon à minimiser une fonction objectif (par exemple la souplesse).
Le second problème, moins étudié, est celui du dimensionnement robuste :
pour une géométrie donnée, il s’agit de vérifier qu’une fonction critère (par
exemple un critère de résistance) reste satisfait en présence d’incertitudes
sur les paramètres des matériaux (ou sur le chargement).
Ce chapitre vise à mettre en évidence le lien entre ces deux problèmes,
de nature différente au premier abord. En particulier, dans les deux
cas surgissent des difficultés liées à l’absence de maximum global et la
multiplicité de maxima locaux. On montre comment les idées et méthodes
développées dans le cadre de l’optimisation topologique peuvent être
mises à profit pour étudier le problème de dimensionnement robuste.
1. IFSTTAR
LES COLLECTIONS DE L’IFSTTAR
11
Optimisation de formes en sciences de l’ingénieur
1.1. Introduction
La conception de structures mécaniques (ponts pour citer un exemple en génie
civil) met en jeu différentes classes de paramètres : paramètres géométriques
reliés à la forme de la structure, paramètres des matériaux, paramètres reliés
au chargement appliqué. Dans un problème de dimensionnement, certains
paramètres (ceux reliés au chargement par exemple) sont supposés fixés, et il
s’agit de déterminer les paramètres restants (matériau et géométrie par exemple),
de façon à atteindre un certain niveau de performance spécifié dans le cahier
des charges (par exemple, la contrainte en chaque point de la structure doit
rester inférieure à un certain seuil fixé par la réglementation). Dans certains
cas, la performance de la solution obtenue est très sensible aux variations des
paramètres : une faible variation de certains paramètres (géométrie, matériau
ou chargement) entraîne une dégradation significative de la performance, qui
peut alors ne plus atteindre le niveau requis. Cette situation pose problème
dès lors que les paramètres sont mal maîtrisés. De telles incertitudes peuvent
affecter aussi bien les paramètres de géométrie, de matériau ou de chargement.
Par exemple, les tolérances dans les procédés de fabrication sont à l’origine
d’incertitudes sur les dimensions exactes de la structure. Une méconnaissance
partielle du comportement du matériau ou une fluctuation spatiale de nature
aléatoire sont parfois à prendre en compte. Le chargement est également soumis
à des fluctuations qui ne sont pas entièrement contrôlées. Cet état de fait est à
l’origine du concept de dimensionnement robuste, consistant à déterminer une
solution dont la performance est peu sensible aux fluctuations des paramètres.
Pour préciser cette définition, il est nécessaire de préciser la façon dont sont
modélisées les fluctuations des dits paramètres. À cet égard, les approches
probabilistes (ou stochastiques), consistant à décrire les fluctuations par des
lois de probabilités, sont parmi les plus répandues (L EMAIRE, 2010). Dans un tel
cadre, l’objectif de dimensionnement robuste consiste par exemple à garantir que
la probabilité d’atteindre la performance ciblée est supérieure à un certain seuil
prédéfini (proche de 1). D’autres approches sont envisageables. Par exemple,
la théorie du calcul à la rupture - dont la pertinence pour le génie civil n’est
plus à prouver - peut être interprétée comme une méthode de dimensionnement
robuste (l’incertitude pris en compte affecte dans ce cas les propriétés matériaux)
(S ALENÇON, 1983). Une approche intermédiaire, dont la dénomination ne fait
pas encore l’unanimité, consiste à décrire les incertitudes par le biais de bornes
sur les paramètres (E LISHAKOFF et al., 2010). Cette approche (rencontrée dans
la littérature sous différentes appellations comme par exemple, «performance
garantie» a essentiellement été utilisée sur des structures à nombre fini de degrés
de liberté. L’extension au milieu continu, peu étudiée, fait l’objet de ce chapitre.
Un objectif est de mettre en évidence les liens avec l’optimisation topologique
en conception de structures. Les méthodes et connaissances développées
dans ce cadre peuvent alors être mises à profit pour aborder le problème de
dimensionnement robuste en milieu continu.
Ce chapitre est organisé comme suit : après une formalisation du problème de
dimensionnement, une présentation de l’optimisation topologique en conception
LES COLLECTIONS DE L’IFSTTAR
12
Méthodes de dimensionnement robuste en conception de structures
de structures est proposée. Les deux principales méthodes (méthodes
d’homogénéisation et méthode SIMP) sont décrites, illustrées et comparées sur
quelques exemples. La prise en compte des incertitudes est abordée quant à
elle en 1.4. L’approche du dimensionnement robuste (au sens d’une performance
garantie) est appliqué au problème de référence d’une poutre hétérogène en
flexion. Cette étude, à la fois analytique et numérique, permet de faire le lien
avec l’optimisation topologique.
1.2. Problème de dimensionnement
1.2.1. Formulation générale
Considérons une structure occupant un domaine Ω ⊂ R3 , soumise à un
chargement représenté par des forces surfaciques λT d0 appliquées sur une partie
ΓT ⊂ ∂Ω de la surface, des déplacements λud0 imposés sur ∂Ω−ΓU , et des forces
volumiques λf d0 (figure 1.1). Les fonctions T d0 , ud0 , f d0 sont données et λ > 0 est
un paramètre de chargement.
Figure 1.1.
Chargement mécanique pour le problème de dimensionnement
Pour simplifier la présentation, on suppose que le matériau est élastique linéaire,
i.e . obéit localement à la loi de comportement
σ(x) = L(x) : e(x) (1.1)
où σ(x) est le tenseur des contraintes au point x, e(x) est le tenseur des
déformations et L(x) est le tenseur d’élasticité. Ici et dans la suite, la notation « : »
désigne le produit doublement
P3 contracté. En représentation matricielle, la relation
(1.1) s’écrit σij = k,l=1 Lijkl ekl . Sous l’hypothèse des petites perturbations, la
LES COLLECTIONS DE L’IFSTTAR
13
Optimisation de formes en sciences de l’ingénieur
déformation e(x) est reliée au champ de déplacement u(x) par
1
e(x) = (∇u + ∇T u). (1.2)
2
Le champ de déplacement vérifie d’autre part la condition aux limites
u = λud0 sur Γu . (1.3)
À l’équilibre, le champ de contraintes σ vérifie
div σ + λf d0 = 0 dans Ω, σ.n = λT d0 sur ΓT . (1.4)
Pour une répartition de matériau L(x) donnée, le problème d’élasticité linéaire
formé par les équations (1.1-1.4) admet une solution unique en contraintes et en
déformations. Cette solution dépend linéairement du paramètre de chargement
λ. On note σ 0 la solution en contraintes du problème (1.1-1.4) correspondant à
λ = 1.
Dans un problème de dimensionnement, il est en général nécessaire de vérifier
que le champ σ obtenu respecte localement un critère lié à la résistance du
matériau. Un tel critère est exprimé sous la forme g(σ) 6 0 où g est une fonction
scalaire. Un exemple de critère est exposé dans le paragraphe suivant.
1.2.2. Exemple d’un critère à la rupture
Pour les matériaux métalliques, un critère couramment utilisé est celui de Von
Mises, donné par r
3 0
g(σ) = σ : σ 0 − σY (1.5)
2
où σ 0 = σ − 13 (tr σ)I est le déviateur de σ et σY un paramètre caractéristique du
matériau (contrainte maximale en traction). L’inégalité g(σ) 6 0 doit être satisfaite
en tout point. La condition exprimant la tenue de la structure peut donc se réécrire
sous la forme
G(Ω, L) 6 0 (1.6)
où l’on a posé
G(Ω, L) = sup g(σ). (1.7)
x∈Ω
Le scalaire G(Ω, L) dépend de Ω et L, mais aussi du paramètre de chargement
λ. Plus précisément, à (Ω, L) donnés, la condition (1.6) est satisfaite pour tout
λ 6 λmax où λmax (éventuellement nul) s’interprète comme le chargement
maximum que peut supporter la structure. Il est possible d’expliciter le
chargement λmax si l’on suppose que σY prend la même valeur en tout point :
étant donné que la solution du problème (1.1-1.4) dépend linéairement de λ, on
a g(σ) = λf (σ 0 ) − σY où r
3 0
f (σ) = σ : σ0 (1.8)
2
LES COLLECTIONS DE L’IFSTTAR
14
Méthodes de dimensionnement robuste en conception de structures
et σ 0 correspond aux champs de contrainte solution de (1.1-1.4) pour λ = 1. Par
conséquent
G(Ω, L) = λF (Ω, L) − σY
où l’on a posé
F (Ω, L) = sup f (σ 0 ). (1.9)
x∈Ω
La condition (1.6) est donc vérifiée pour tout λ 6 λmax avec
σY
λmax = . (1.10)
F (Ω, L)
1.2.3. Optimisation en dimensionnement
Dans une démarche d’optimisation, le concepteur joue sur le matériau et/ou la
géométrie de façon à minimiser une fonction objectif (par exemple le coût ou le
volume de la structure), tout en vérifiant la condition (1.6). Le problème à résoudre
prend ainsi la forme générique
inf J(Ω, L) (1.11)
(Ω, L) ∈ Σ
G(Ω,L)60
où J est la fonction objectif et Σ désigne une classe de valeurs admissibles
(choisie à l’avance) sur laquelle s’effectue l’optimisation.
Nous pouvons distinguer différentes classes de problèmes selon la dimension de
Σ. Si l’ensemble Σ est de dimension finie, on parle d’optimisation paramétrique.
Si l’ensemble Σ est de dimension infinie, on parle d’optimisation géométrique ou
topologique, selon que les changements de topologie (création de trous) sont pris
en compte ou non.
1.2.4. Un exemple d’optimisation géométrique
Afin d’illustrer ces considérations par un exemple concret, étudions le
dimensionnement d’une poutre en flexion pure. Le matériau constitutif est
supposé homogène, élastique linéaire isotrope de module d’Young E. En
considérant un repère orthonormal (ux , uy , uz ) où ux est selon l’axe de la poutre,
le champ de contraintes σ est donné R par σ = −(M/I)yux ⊗ ux où M est le
moment de flexion appliqué et I = S y 2 dS est le moment d’inertie selon uy . Le
critère de Von Mises donne alors f (σ) = |M y/I| et donc F (Ω, E) = M (supS y)/I.
Pour une géométrie donnée, la relation (1.10) donne le chargement maximal que
la structure peut supporter. En l’occurrence la valeur maximale M max du moment
est donnée par M max = IσY /(supS y).
Le matériau constitutif étant donné, supposons qu’on cherche à minimiser la
section, en se restreignant dans un premier temps à l’ensemble Σ formé par les
sections rectangulaires ([−h, h] × [−H, H]). On a alors supS y = h et I = 2Hh3 /3,
donc M max = (2/3)σY Hh2 . Si la poutre est conçue pour supporter un moment
LES COLLECTIONS DE L’IFSTTAR
15
Optimisation de formes en sciences de l’ingénieur
M donné, il faut que les paramètres H et h soient tels que
2
M> σY Hh2 .
3
À h donné, la surface de la section est minimale pour H = 3M/(2σY h2 ).
On s’est restreint ici à des sections rectangulaires, paramétrées par 2 scalaires.
Des formes plus complexes, paramétrées par n scalaires, peuvent être
considérées de la même façon. Nous pouvons ainsi utiliser par exemple des
splines fermées, c’est à dire des courbes Γ : [0, 1] 7→ R2 polynomiales par
morceaux et telles que que Γ(0) = Γ(1) (voir par exemple (C HRISTENSEN et al.,
2009) pour plus de détails sur cette approche). Le problème (1.11) se traduit
alors par un problème d’optimisation (sous contraintes) dans Rn . Le cas extrême
de cette démarche consiste à considérer toutes les courbes fermées possibles :
il s’agit de l’optimisation géométrique (S OKOLOWSKI et al., 1992). L’ensemble Σ
correspondant, de dimension infinie, est par exemple
Σ = {Γ ∈ C 1 ([0, 1], R2 )|Γ(0) = Γ(1)}.
D’autres choix sont possibles en changeant la régularité (ici C 1 ) imposée aux
courbes Γ. Notons que les sections considérées sont nécessairement pleines
(connexes). Nous pouvons éventuellement considérer une section perforée (non
connexe) en rajoutant une deuxième (ou plus) courbe dans le paramétrage pour
décrire la géométrie d’un (ou plus) trou intérieur.
Ce type d’approche ne permet pas la création ou la suppression de trous
au cours de l’optimisation : leur nombre en est fixé à l’avance via le nombre
de courbes utilisées dans la paramétrisation. Cette propriété reflète le fait
que l’optimisation géométrique n’autorise pas le changement de topologie. Les
méthodes d’optimisation dite topologique, présentées dans la suite, permettent
de tels changements.
1.3. L’optimisation topologique
Le principe de l’optimisation topologique est de considérer l’ensemble de tous les
domaines possibles (inclus dans un domaine de référence Ω0 ), sans restriction de
régularité spatiale ou de connexité. Pour un tenseur l’élasticité L fixé, l’ensemble
Σ est ainsi pris sous la forme
Σ = {(L, Ω)|Ω ⊂ Ω0 }. (1.12)
Soit χ la fonction caractéristique du domaine Ω, définie par χ(x) = 1 si x ∈ Ω, et
χ(x) = 0 sinon. L’ensemble Σ peut être réécrit sous la forme
Σ = {(L(x) = χ(x)L, Ω0 )|χ : Ω0 7→ {0, 1}}. (1.13)
LES COLLECTIONS DE L’IFSTTAR
16
Méthodes de dimensionnement robuste en conception de structures
Dans l’écriture (1.12), le domaine Ω est variable, et L est fixe. À l’inverse, dans
l’écriture (1.13), le domaine Ω0 est fixe, et le champ de modules élastiques
est variable et inhomogène. Le problème géométrique d’optimisation de forme
est ainsi converti en un problème de répartition optimale de matière dans un
domaine fixe. Il ne s’agit pas uniquement d’un jeu de réécriture formelle :
l’interprétation du problème d’optimisation topologique comme un problème de
distribution de matière s’avère fructueuse, permettant notamment d’utiliser la
théorie de l’homogénéisation de matériaux et structures hétérogènes.
Ce type d’approche pour l’optimisation topologique est bien maîtrisée dans le cas
où Z
1
J(Ω, L) = σ(x) : L−1 (x) : σ(x)dx (1.14)
Ω0 2
et la condition de résistance G(Ω, L) 6 0 est remplacée par une contrainte de la
forme Z
χ(x)dx = c|Ω0 | (1.15)
Ω0
avec 0 < c 6 1 donné. La contrainte (1.15) exprime le fait que le volume de
la structure est fixé (et égal à c|Ω0 |). La fonction J définie par (1.14) est la
complaisance (compliance en anglais) de la structure et en mesure la souplesse
vis-à-vis du chargement considéré. Le problème (1.11) se réécrit alors
min J(Ω, L) (1.16)
R (χ,L)∈Σ
χ=c|Ω0 |
Ω0
où
Σ = {(χ, L(x))|L(x) = χ(x)L; χ : Ω0 7→ {0, 1}}.
Ce problème consiste à chercher la structure de volume c|Ω0 | qui soit la plus
rigide possible pour le chargement considéré.
En général, le problème (1.16) n’a pas de solution : les suites minimisantes
χn présentent des oscillations à une longueur caractéristique ln tendant vers 0
(quand n → +∞) et ne convergent pas (au sens classique) vers une distribution
optimale. Ceci correspond physiquement à la formation de microstructures à
une échelle infiniment fine : ce phénomène est en tout point similaire à ce qui
est présenté au chapitre 3 sur l’étude de microstructures optimales dans les
matériaux à transformation de phase.
Ces considérations incitent à remplacer (1.16) par une formulation relaxée de la
forme
min J(Ω, L) (1.17)
R(χ, L) ∈ Σ
χ=c|Ω0 |
Ω0
où
Σ = {(ρ, L(x))|L(x) ∈ Λ(ρ(x)); χ : Ω0 7→ [0, 1]}
LES COLLECTIONS DE L’IFSTTAR
17
Optimisation de formes en sciences de l’ingénieur
et Λ désigne l’ensemble des tenseurs d’élasticité compatibles avec une densité
ρ(x). La variable ρ(x) est à valeurs dans l’intervalle [0, 1] et s’interprète comme
une densité locale de matière. Toute la difficulté réside ainsi dans la construction
de l’ensemble Λ. Deux principales méthodes ont été proposées à ce sujet :
la méthode SIMP (Solid Isotropic Material with Penalization) et la méthode
d’homogénéisation. Ces deux méthodes sont brièvement exposées dans la suite.
On pourra se référer respectivement aux ouvrages d’Allaire (A LLAIRE, 2002),
et de Bendsøe et Sigmund (B ENDSØE et al., 2003) pour une présentation plus
détaillée.
1.3.1. La méthode d’homogénéisation
[Link]. Formulation
L’idée principale de la méthode d’homogénéisation est de considérer l’ensemble
Λ(ρ) formé par les tenseurs d’élasticité effective de tous les matériaux composites
ayant une densité ρ. Par matériau composite on entend ici un matériau obtenu
par micro-perforation du milieu initial de module L. Définissons l’ensemble Λ(ρ)
de façon plus précise : soit Ω̃ un domaine de référence, de volume unitaire.
La microstructure d’un composite de densité R ρ est définie par une fonction
caractéristique χ̃ : Ω̃ 7→ {0, 1} telle que Ω̃ χ̃ = ρ. Pour toute déformation ē
donnée, le problème d’élasticité linéaire défini par
u = ē.x
sur ∂ Ω̃,
div σ = 0 dans Ω̃,
σ(x) = χ̃(x)L : e(x) dans Ω̃,
admet une solution unique, qui dépend linéairement de ē.
Il existe donc un opérateur L(χ̃) tel que, pour tout ē
Z
σ(x)dx = L(χ̃) : ē.
Ω̃
Cet opérateur L(χ̃) s’interprète comme le tenseur d’élasticité effectif du matériau
composite associé à la microstructure χ̃. L’ensemble Λ(ρ) est alors défini par
Z
Λ(ρ) = {L(χ̃)|χ̃ : Ω̃ 7→ {0, 1}; χ̃ = ρ}. (1.18)
Ω̃
Avec ce choix de Λ(ρ), on peut alors montrer que le problème (1.17) admet
une solution. Une difficulté notable est que, dans le cas général, on ne dispose
pas de l’expression explicite de l’ensemble défini par (1.18). Dans le cas de
la minimisation de la complaisance, il est montré cependant qu’on peut, sans
perte de généralité, remplacer (1.18) par le sous-ensemble explicite associé aux
microstructures laminées (une présentation des microstructures laminées est
donnée au chapitre 3).
LES COLLECTIONS DE L’IFSTTAR
18
Méthodes de dimensionnement robuste en conception de structures
[Link]. Exemple
Considérons un problème bidimensionnel inspiré de la conception d’un pont
(figure 1.2). On cherche à optimiser la forme d’un pont permettant de franchir
une distance l0 = 1.6 et supportant un chargement représenté par une force
linéique f = −ēy appliquée en y = 0.5, |x| 6 1 (toutes les forces et longueurs
sont exprimées sous forme adimensionnelle). Le volume occupé par le pont est
fixé à 0.25. On utilise la méthode d’homogénéisation pour chercher la forme de
rigidité maximale vis-à-vis du chargement considéré. Pour ce faire, le domaine
Ω0 est choisi égal au rectangle −1 6 x 6 1, 0 6 y 6 1. Les conditions aux limites
sont de type encastrement (déplacement nul) en 0.8 6 |x| 6 1, y = 0, et de type
surface libre sur le reste de ∂Ω0 .
Figure 1.2.
Recherche d’un pont optimal. Positionnement du problème
Le problème relaxé (1.17) est résolu à l’aide d’une discrétisation spatiale par
éléments finis, couplé à un algorithme de minimisation alternée (voir par exemple
(A LLAIRE et PANTZ, 2006) pour plus de détails).
La figure 1.3 montre la carte de densités ρ(x) solution du problème relaxé (1.17).
Pour réaliser en pratique la distribution de matière représentée figure 1.3, il faut
imaginer une distribution de matériau composite (laminés), dont la microstructure
évolue de façon continue en fonction de la position.
Il est clair qu’une telle structure est difficile à réaliser en pratique. C’est pourquoi,
en vue d’obtenir une forme facilement réalisable en pratique, un post-traitement
est appliqué à la solution ρ(x) du problème relaxé, de façon à filtrer les densités
intermédiaires et construire une distribution ρ̃ à valeurs dans {0, 1}.
LES COLLECTIONS DE L’IFSTTAR
19
Optimisation de formes en sciences de l’ingénieur
Figure 1.3.
Recherche d’un pont optimal. Solution relaxée ρ obtenue par la méthode
d’homogénéisation
La figure 1.4 montre la carte de densités ρ̃ obtenue après filtrage. Ces résultats
numériques ont été obtenus sous Freefem++ (P IRONNEAU et al., 2009), en
utilisant la démarche exposée dans (A LLAIRE et PANTZ, 2006).
Figure 1.4.
Recherche d’un pont optimal. Solution ρ̃ obtenue par homogénéisation, après
filtrage
Il est important de souligner que ce filtrage dégrade nécessairement la solution :
la complaisance associée à la distribution ρ̃ est égale à 21,5, alors que la
complaisance associée à la distribution ρ est égale à 18,4. De plus, la solution
obtenue après filtrage est non unique et dépend notamment du maillage utilisé.
LES COLLECTIONS DE L’IFSTTAR
20
Méthodes de dimensionnement robuste en conception de structures
1.3.2. La méthode SIMP
[Link]. Formulation
Dans la méthode SIMP, l’ensemble Λ(ρ) est choisi égal à
Λ(ρ) = {ρp L}, (1.19)
où p > 1 est un exposant arbitraire.
La relation L(x) = χ(x)L du problème original est ainsi remplacée par
L(x) = ρp (x)L, (1.20)
où p est typiquement choisi assez grand pour pénaliser les densités
intermédiaires (c’est-à-dire différentes de 0 et 1). Dans son esprit, cette approche
est voisine de certaines techniques de pénalisation utilisées dans d’autres
problèmes de mécanique non-différentiable (comme par exemple l’approche
de Oden-Martins (O DEN et al., 1985) en mécanique du contact). Malgré son
caractère différentiable, la résolution du problème (1.17) obtenue par la méthode
SIMP présente certaines difficultés notables.
La principale est que, sans précaution supplémentaire, le problème (1.17) n’a
pas de solution optimale : comme pour (1.16), les suites minimisantes présentent
des oscillations à l’échelle d’une longueur caractéristique qui devient infiniment
fine. Il est nécessaire d’introduire une échelle de longueur (choisie arbitrairement)
dans le problème, ce qui exclue la formation de microstructures. Différentes
techniques sont possibles pour introduire cette échelle de longueur. Une solution
est d’imposer une condition de régularité aux fonctions ρ(x) qui apparaissent
dans (1.17), de la forme Z
ρ2 + k∇ρk2 dx 6 l, (1.21)
Ω0
où l est une constante donnée. Dans le cas tridimensionnel, on peut alors montrer
l’existence de solution au problème (1.17) si p < 3.
[Link]. Exemple
Considérons l’exemple bidimensionnel d’une poutre console encastrée sur son
extrémité gauche (figure 1.5).
Le domaine Ω0 est défini par 0 6 x 6 1, 0 6 y 6 3/4. Le chargement est constitué
de deux forces ponctuelles (égales et orientées selon uy ), appliquées en (1/8, 1)
et (5/8, 1). Pour ces conditions aux limites, on cherche la forme optimale Ω ⊂ Ω0
maximisant la rigidité, sous la contrainte |Ω| = c|Ω0 |. On choisit dans la suite
c = 0.58.
La figure 1.6 montre les résultats obtenus par la méthode SIMP, après filtrage. Les
deux champs ρ(x) représentées correspondent aux solutions obtenues partant
de deux états initiaux différents. Ceci illustre la multiplicité des optima locaux au
problème. Ces résultats numériques ont été obtenus à l’aide du logiciel (gratuit)
Topopt (A AGE et al., 2013).
LES COLLECTIONS DE L’IFSTTAR
21
Optimisation de formes en sciences de l’ingénieur
Figure 1.5.
Optimisation d’une poutre console
Figure 1.6.
Solutions obtenues par la méthode SIMP, pour deux états initiaux différents.
Maillage à 4586 éléments
Figure 1.7.
Solutions obtenues par la méthode d’homogénéisation, avant (gauche) et après
(droite) filtrage. Maillage à 4586 éléments
LES COLLECTIONS DE L’IFSTTAR
22
Méthodes de dimensionnement robuste en conception de structures
Figure 1.8.
Solutions obtenues par la méthode d’homogénéisation, avant (gauche) et après
(droite) filtrage. Maillage à 8201 éléments
Figure 1.9.
Solutions obtenues par la méthode d’homogénéisation, avant (gauche) et après
(droite) filtrage. Maillage à 12913 éléments
1.3.3. Synthèse sur les méthodes d’optimisation topologique
Les deux approches présentées reposent sur des philosophies différentes :
alors que la méthode SIMP est essentiellement guidée par des arguments
mathématiques de régularisation, la méthode d’homogénéisation repose sur une
interprétation plus physique en termes de matériaux composites.
Dans certains cas, comme le problème de la poutre console, les deux méthodes
donnent des résultats similaires. À ce sujet, on pourra comparer la figure 1.6
(méthode SIMP) avec la figure 1.7, qui montre les résultats obtenus avec la
méthode d’homogénéisation (les maillages utilisés dans les deux calculs sont
similaires).
On peut se demander s’il existe un lien entre les deux méthodes, et plus
particulièrement si la méthode SIMP peut être interprétée dans le cadre de
l’homogénéisation. La question est alors de savoir s’il existe un matériau
composite de densité ρ dont le tenseur d’élasticité effectif est égal à ρp L.
La réponse est négative dans le cas général. Cependant, dans le cas où L
est isotrope (de module d’Young E et de coefficient de Poisson ν0 ), il est
montré (B ENDSØE et al., 1999) qu’une telle microstructure existe dans le cas
bidimensionnel si
2 4
p > max{ , } (1.22)
1 − ν0 1 + ν0
LES COLLECTIONS DE L’IFSTTAR
23
Optimisation de formes en sciences de l’ingénieur
et dans le cas tridimensionnel si
1 − ν0 3 1 − ν0
p > max{15 , }. (1.23)
7 − 5ν0 2 1 − 2ν0
En termes de mise en oeuvre, la méthode SIMP paraît plus simple à première
vue car l’ensemble Λ(ρ) est alors réduit à un singleton. Cette apparente simplicité
doit être nuancée par le fait que, pour garantir l’existence d’une solution dans la
méthode SIMP, il est nécessaire d’implémenter une condition supplémentaire de
régularité (par exemple la condition (1.21)), ce qui n’est pas nécessaire dans la
méthode d’homogénéisation. L’un dans l’autre, la mise en oeuvre des approches
présente une complexité similaire.
Listons quelques remarques d’ensemble, valable pour les deux méthodes :
Implémentation numérique : Le problème (1.17) est généralement discrétisé
en espace (par une méthode éléments finis) et résolu de façon itérative. Les
problèmes obtenus sont de grande taille et relativement coûteux en temps de
calcul ; l’inconnue principale est un champ défini sur Ω0 et à chaque itération, il
faut recalculer la matrice de rigidité du système.
Existence de solution optimale : Le problème relaxé (1.17) fourni par la
méthode d’homogénéisation admet toujours une solution. Ce n’est le cas pour
la méthode SIMP que lorsque l’exposant p est suffisamment petit. Soulignons
que, pour les deux méthodes, ces résultats d’existence sont étroitement liées
au choix de J comme complaisance du système et ne s’étendent pas de façon
systématique à d’autres choix de fonction J (ni à la prise en compte d’autres
contraintes gα ).
Multiplicité de minima locaux : L’existence d’un minimum global au problème
relaxé (1.17) n’exclue pas la présence de minima locaux. Tant pour la méthode
SIMP que pour la méthode d’homogénéisation, on constate en pratique que les
minima locaux sont nombreux. Ceci se manifeste par une forte dépendance de la
solution obtenue par rapport à l’état initial (utilisé pour démarrer la minimisation).
Il est en général difficile de garantir que la solution obtenue corresponde à un
optimum global et non à un optimum seulement local.
Dépendance au maillage : Ce point est illustré sur les figures 1.7 à 1.9 qui,
pour le problème de la poutre console, montrent les résultats obtenus par la
méthode d’homogénéisation avec trois maillages de raffinement croissant. Sur
chacune de ces figures, on représente à gauche le champ de densité ρ(x)
solution du problème relaxé avant filtrage, et à droite le champ obtenu après
filtrage. On observe que la solution du problème relaxé semble converger quand
le maillage se raffine. Il n’en va pas de même pour les solutions filtrées ;
raffiner le maillage modifie sensiblement les détails de la structure obtenue, sans
convergence apparente. Un même constat s’applique pour la méthode SIMP.
Cette dépendance de la solution au maillage est liée à la multiplicité de minima
locaux évoquée précédemment.
LES COLLECTIONS DE L’IFSTTAR
24
Méthodes de dimensionnement robuste en conception de structures
Prise en compte de critère local sur σ : Pour le dimensionnement de structures,
il est souvent important de tenir compte d’un critère local sur σ (exprimant
la condition de résistance du matériau), comme on l’a expliqué en début de
ce chapitre. Un tel critère rend les difficultés (déjà substantielles) du problème
d’optimisation topologique encore plus aiguës. Le critère de résistance étant
une fonction locale de σ, il se traduit numériquement par un grand nombre de
contraintes à respecter et rend donc le problème encore plus coûteux en temps
de calcul. De plus, la présence d’une critère de résistance tend à multiplier les
minima locaux et à bloquer les changements de topologie (i.e, en 2D, le nombre
de trous) dans la minimisation. Afin d’illustrer ce phénomène, connu sous le nom
de phénomène de singularité (K IRSCH, 1990), considérons que l’état optimal (s’il
existe) ρ0 ne présente qu’un seul trou, et considérons une distribution ρ1 avec une
topologie différente, comportant 2 trous. Soit ρ(θ) une courbe reliant continûment
ρ0 et ρ1 (avec θ ∈ [0, 1], ρ(0) = ρ0 , ρ(1) = ρ1 ). La distribution ρ(θ) présente
typiquement une zone dont l’épaisseur tend vers 0 quand θ tend vers 0. Dans
cette zone, σ a alors tendance à devenir très grand quand θ tend vers 0, et le
critère de résistance n’est alors plus satisfait. Ceci explique que, dans un schéma
de minimisation, il est difficile de passer d’un état ρ1 à ρ0 ; le critère de résistance
bloque le changement de topologie.
Chercher à surmonter ces difficultés fait l’objet d’une attention constante dans la
communauté de l’optimisation topologique. Sans chercher à être exhaustif, citons
par exemple l’approche introduite dans (D UYSINX et al., 1998) qui consiste à
remplacer le critère local sur σ par un critère global. Bien qu’efficace en termes
de coûts de calcul, une telle approche a l’inconvénient de ne pas être sensible
aux concentrations locales de contraintes, souvent observées dans les calculs
de structure (voir par exemple la figure 1.16 dans ce chapitre). Afin d’atténuer
le phénomène de singularité, une stratégie proposée est de remplacer le critère
g(σ) par une forme étendue g(σ, ρ) telle que g tend vers 0 quand ρ tend vers
0 (G ENG D ONG et al., 1997). Le choix de la fonction g(σ, ρ) est une question
sensible, et le phénomène de singularité, bien qu’atténué, persiste dans certains
cas.
On pourra notamment consulter les références (B RUGGI et al., 2012 ; H OLMBERG
et al., 2013) pour quelques avancées relativement récentes sur ces questions.
Malgré ces progrès, la prise en compte de critères locaux sur σ reste un défi
majeur de l’optimisation topologique.
1.4. Prise en compte des incertitudes
Dans un problème de dimensionnement, les différentes données (comme les
propriétés des matériaux et le chargement) sont souvent soumises à des
incertitudes. La source de ces incertitudes est multiple : variabilité de nature
aléatoire, manque d’information, paramètres de tolérance dans la fabrication,
incertitudes de mesures, effets à long terme en sont quelques exemples. Une
préoccupation plus récente est le changement climatique, qui peut jouer sur
LES COLLECTIONS DE L’IFSTTAR
25
Optimisation de formes en sciences de l’ingénieur
les propriétés des matériaux et le chargement d’une manière seulement très
partiellement connue.
Plusieurs approches existent pour intégrer de telles incertitudes dans le problème
de dimensionnement. Ces approches se distinguent par la nature de l’information
disponible sur les incertitudes. Dans le but principal de simplifier la présentation,
nous nous concentrons dans la suite sur les incertitudes liées aux propriétés des
matériaux, Plus précisément, la relation contrainte-déformation étant supposée
linéaire, on considère une incertitude sur le tenseur d’élasticité L(x).
Les approches probabilistes abordent les incertitudes via la donnée de lois de
probabilité sur L, vu comme une variable aléatoire. On s’intéresse alors à calculer
la probabilité de rupture, ou plus généralement à déterminer la loi de probabilité
d’une quantité liée à la réponse de la structure (comme la complaisance,
considérée précédemment). Afin de fixer les idées, considérons le cas où L est
isotrope et homogène, avec une incertitude sur le module d’Young E définie par
une loi de probabilité p. La condition exprimant la résistance de la structure est
G(Ω, E) = sup g(σ) 6 0 (1.24)
x∈Ω
où g exprime le critère de résistance du matériau, et σ est la solution du problème
d’élasticité. Comme σ dépend du champ L, le membre de gauche dans (1.24)
est, tout comme L, une variable aléatoire. La probabilité de rupture est alors
donnée par
Z +∞
H(G(Ω, E))p(E)dE
0
où H est la fonction de Heaviside. Il s’agit ensuite de vérifier que cette probabilité
est inférieure à un seuil prédéfini par le concepteur.
Les approches probabilistes ne sont pas la seule façon de décrire les incertitudes,
ni la plus adaptée dans tous les cas. Une autre approche est de considérer qu’on
dispose uniquement de bornes (notées E− et E+ sur E). Il s’agit alors de vérifier
que la condition (1.24) est satisfaite pour tout E ∈ [E− , E+ ], c’est-à-dire que
sup G(Ω, E) 6 0. (1.25)
E− 6E(x)6E+
De façon analogue, l’expression (1.10) du paramètre de chargement maximum
devient
σY
λmax = . (1.26)
sup F (Ω, E)
E− 6E(x)6E+
Tant que le paramètre de chargement λ reste inférieur à la valeur λmax ainsi
définie, il est garanti que la condition de résistance est vérifiée pour toutes les
valeurs admissibles de E.
LES COLLECTIONS DE L’IFSTTAR
26
Méthodes de dimensionnement robuste en conception de structures
Les problèmes (1.25)-(1.26) présentent certaines similarités avec les problèmes
d’optimisation topologique présentés précédemment. Ainsi, dans le cas général,
la valeur de E dans (1.25) n’est pas nécessairement la même en tout point et la
variable E dans (1.25) est donc une distribution de modules élastiques, comme
dans 1.3. De même, comme dans 1.3, la fonction (F ou G) à optimiser dépend
de E via la solution d’un problème d’élasticité.
L’approche exprimée par (1.25-1.26) se rencontre dans la littérature sous
différentes appellations : dimensionnement robuste (reliable design), worst-case
scenario, anti-optimization (E LISHAKOFF et al., 2010). La majorité des travaux
existants portent sur des systèmes à nombre fini de degrés de libertés, utilisant
le calcul par intervalles (M OORE, 1966) pour résoudre le problème (1.25).
L’extension au problème continu est peu étudiée.
La présentation des méthodes d’optimisation topologique pour la complaisance a
mis en évidence les difficultés qui peuvent surgir lorsqu’on considère un problème
d’optimisation portant sur une distribution de modules élastique. En particulier se
posent les questions de l’existence d’une fonction E(x) atteignant le supremum
dans (1.25) et du bien-fondé de problèmes discrétisés (existence de solutions,
sensibilité au maillage, convergence).
Afin d’explorer ces questions, nous étudions dans la suite un problème-modèle
de dimensionnement robuste pour le milieu continu, suffisamment simple pour
être résolu de façon exacte. Les résultats obtenus sont complétés par une étude
numérique, présentée en 1.6.
1.5. Étude d’un problème de dimensionnement robuste
en milieu continu
Nous étudions la flexion composée d’une poutre en déformations planes
(figure 1.10).
La poutre occupe le domaine rectangulaire 0 6 x 6 η, −1 6 y 6 1 (les longueurs
sont exprimées sous forme adimensionnelle).
Une densité de force T (y)uy est appliquée sur l’extrémité x = 0.
La fonction T (y) est de la forme T (y) = λf0 (y) où λ est un paramètre de
chargement et f0 la fonction linéaire par morceaux représentée figure 1.10.
L’extrémité x = η est en contact sans frottement avec le demi-espace x > η.
Le reste de la surface de la poutre est libre de contraintes, et il n’y a pas de forces
volumiques.
LES COLLECTIONS DE L’IFSTTAR
27
Optimisation de formes en sciences de l’ingénieur
Figure 1.10.
Dimensionnement robuste d’une poutre en flexion
Le matériau constitutif étant supposé linéaire isotrope, on considère que la
valeur exacte de E est inconnue et l’on dispose seulement d’un encadrement
E− 6 E 6 E+ . De plus, la valeur de E n’est pas nécessairement la même en
tout point. Pour permettre une résolution analytique du problème, on supposera
que E dépend uniquement de y.
Dans ces conditions, la loi de comportement s’écrit localement
1+ν ν
e(x, y) = σ(x, y) − (tr σ)I, (1.27)
E(y) E(y)
où e(x, y) est relié au champ de déplacement u(x, y) par les relations
∂uy
!
∂ux 1 ∂ux
∂x 2 ( ∂y + ∂x )
e(x, y) = 1 ∂ux ∂uy ∂uy . (1.28)
2 ( ∂y + ∂x ) ∂y
À l’équilibre, le champ de contraintes σ vérifie les relations
div σ = 0 dans Ω, [σ].n = 0 sur Σ (1.29)
où Σ désigne une surface de discontinuité (de normale n) pour σ, et [σ] désigne
le saut de σ au franchissement de Σ. Nous cherchons dans la suite à résoudre le
problème de dimensionnement robuste (1.25) pour le critère de Von Mises (1.5).
Plus précisément, on vise à déterminer le chargement maximal λmax défini en
(1.26).
1.5.1. Solution du problème d’équilibre au sens de Saint-Venant
Pour une distribution E(y) fixée, commençons par déterminer le champ de
contraintes σ 0 solution du problème d’équilibre pour λ = 1. On cherche une
solution sous la forme
σ 0 (x, y) = σ(y)ux ⊗ ux
où ⊗ désigne le produit tensoriel et σ(y) est une fonction à déterminer. Un
tel champ est compatible avec les équations d’équilibre (1.29). En utilisant les
LES COLLECTIONS DE L’IFSTTAR
28
Méthodes de dimensionnement robuste en conception de structures
relations (1.27-1.28) :
∂ux ∂uy ∂ux ∂uy
= f (y) , = −νf (y) , + =0 (1.30)
∂x ∂y ∂y ∂x
où l’on a posé f (y) = σ(y)/E(y). Soit F est une primitive de f . En intégrant les
deux premières équations dans (1.30) :
ux (x, y) = xf (y) + g(y) , uy (x, y) = −νF (y) + h(x) (1.31)
où g et h sont deux fonctions indéterminées à ce stade. En substituant (1.31)
dans la dernière équation de (1.30), on obtient la relation suivante liant g et h :
xf 0 (y) + g 0 (y) + h0 (x) = 0. (1.32)
En dérivant cette relation par rapport à x, on trouve f 0 (y) + h00 (x) = 0, ce qui
implique
−f 0 (y) = h00 (x) = −α
pour une certaine constante α. On a donc
x2
f (y) = αy + β , h(x) = −α + γx + δ
2
où β, δ, γ sont des constantes. Remplacer ces expressions dans (1.32) donne
l’expression de g :
g(y) = −γy +
où est une constante. Les différentes constantes d’intégration sont déterminées
par les conditions aux limites. En particulier la condition ux = 0 en x = η donne
γ = ηα , = −ηβ. (1.33)
On arrive ainsi aux expressions suivantes pour le champ de contraintes et le
champ de déplacement :
σ(y) = E(y)(αy + β),
ux (x, y) = x(αy + β) − ηαy − ηβ, (1.34)
1 x2
uy (x, y) = −ν( αy 2 + βy) − α + ηαx + δ.
2 2
Les deux constantes α et β sont déterminées par la résultante N0 et le moment
M0 des efforts appliqués en x = 0, définis par
Z 1 Z 1
N0 = T0 (y)dy , M0 = yT0 (y)dy.
−1 −1
LES COLLECTIONS DE L’IFSTTAR
29
Optimisation de formes en sciences de l’ingénieur
On a en effet le système
! ! !
X1 X0 α N0
= (1.35)
X2 X1 β M0
où Z 1
Xi = y i E(y)dy. (1.36)
−1
Pour la fonction f0 représentée figure 1.10, N0 = 1, M0 = 1/6 et la résolution du
système (1.35) donne
6X1 − X0 X1 − 6X2
α= , β= (1.37)
6(X12 − X0 X2 ) 6(X12 − X0 X2 )
Dans le cas général, le champ de contraintes σ obtenu ne vérifie pas la relation
σ.n = 0 en tout point de la surface x = 0. Le champ obtenu n’est donc pas
solution du problème d’élasticité considéré. Cependant, par le principe de Saint-
Venant, on sait que, sous réserve que le rapport η/h soit suffisamment grand, la
solution obtenue est valable loin des surfaces x = 0 et x = η.
Remarquons également que le champ de déplacement obtenu est différentiable
(polynomial de degré 2) même si la distribution E(y) n’est pas continue. Le
champ de déplacement ne dépend en effet de la distribution E(y) qu’à travers
les constantes (α, β).
Notons que la solution en contraintes σ reste inchangée si le champ E(y) est
multiplié par une constante. Nous pouvons donc supposer que E(y) est écrit
E+
sous forme adimensionnelle et soumis à la restriction 1 6 E(y) 6 r où r =
E−
mesure le niveau d’incertitude sur le module d’Young.
À r donné, la distribution E(y) est cherchée dans l’ensemble
E(r) = L2 ([−1, 1], [1, r]).
Le problème de dimensionnement robuste (1.25) amène à résoudre
sup F (E) (1.38)
E∈E(r)
où, compte-tenu de l’expression obtenue pour σ,
F (E) = sup E(y)|αy + β|. (1.39)
−16y61
LES COLLECTIONS DE L’IFSTTAR
30
Méthodes de dimensionnement robuste en conception de structures
La relation (1.26) donnant le chargement maximum λmax devient
σY
λmax (r) = . (1.40)
supE∈E(r) F (E)
Commençons par étudier le cas déterministe, i.e. r = 1. Dans ce cas, l’ensemble
E(1) se réduit à la distribution E(y) égale à 1 en tout point (cette distribution est
notée 1 dans la suite). On trouve alors X0 = 2, X1 = 0, X2 = 2/3 et α = 1/4,
β = 1/2, donc F (1) = 3/4 et
4
λmax (1) = σY .
3
Dans (1.39), le supremum sur y est atteint en y = 1 : ces points correspondant à
la zone critique où le critère de rupture est atteint en premier.
Dans la suite, on cherche à résoudre de façon exacte le problème d’optimisation
(1.38) pour r > 1. Dans ce cas, l’ensemble E(r) est de dimension infinie,
et la résolution exacte de (1.38) nécessite l’utilisation d’outils de l’analyse
fonctionnelle. Cette étude est résumée dans les parties 1.5.2-1.5.3 et s’appuie
sur des résultats classiques d’analyse (B ONY, 2001 ; L ARROUTUROU et al., 1994).
Il est possible en première lecture de passer directement à la partie 1.5.4, qui
énonce le résultat principal et ses conséquences.
1.5.2. Quelques résultats préliminaires
[Link]. Résultats d’analyse fonctionelle
Pour tout E ∈ E(r), on note X(E) = (X0 (E), X1 (E), X2 (E)) où Xi (E) est
définie par l’intégrale (1.36). Soit k k la norme euclidienne usuelle dans R3 . Nous
pouvons facilement vérifier que la fonction X : E(r) 7→ R3 est linéaire et continue.
Nous avons les 3 résultats suivants :
Résultat 1 : Soit f : A → R une fonction continue, où A est une partie fermée
bornée de R3 contenant X(E(r)). Alors
sup f (X(E)) est atteint. (1.41)
E∈E(r)
Le résultat suivant complète le résultat 1 dans le cas où f est différentiable :
Résultat 2 : Soit Ẽ ∈ E(r) atteignant supE∈E(r) f (X(E)). Si f est différentiable,
alors Ẽ(y) est constant par morceaux, à valeurs dans {1, r} et vérifie les relations
Ẽ(y) = 1 si P (y) < 0 , Ẽ(y) = r si P (y) > 0 (1.42)
LES COLLECTIONS DE L’IFSTTAR
31
Optimisation de formes en sciences de l’ingénieur
où P est le polynôme du second degré défini par
2
X ∂f
P (y) = (X(Ẽ))y i . (1.43)
i=0
∂X i
Il sera fait fréquemment usage du résultat utile suivant :
Résultat 3 : Si f (X(1)) > 0 alors il existe r0 > 1 tel que pour tout 1 6 r 6 r0 :
f (X(E)) > 0 ∀E ∈ E(r). (1.44)
[Link]. Démonstrations des résultats
Démontrons le résultat 1. Soit {En } une suite maximisante, c’est-à-dire telle que
En ∈ E(r) et f (X(En )) → supE∈E(r) f (X(E)) quand n → ∞. L’ensemble E(r)
étant borné dans L2 ([−1, 1], R), il existe une suite extraite (encore notée {En })
faiblement convergente dans L2 ([−1, 1], R), dont on note Ẽ la limite.
Z 1 Z 1
En (y)φ(y)dy → Ẽ(y)φ(y)dy pour tout φ ∈ L2 ([−1, 1], R). (1.45)
−1 −1
Comme E(r) est convexe et fortement fermé dans L2 ([−1, 1], R) (B ONY,
2001), E(r) est également faiblement fermé (L ARROUTUROU et al., 1994). Par
conséquent, on a Ẽ ∈ E(r).
La relation (1.45) appliquée avec φ = y i montre que
Xi (En ) → Xi (Ẽ).
Par continuité de f ,
f (X(En )) → f (X(Ẽ)).
Ceci montre que Ẽ atteint supE∈E(r) f (X(E).
Démontrons maintenant le résultat 2. Soit E0 ∈ E(r) et E(t) = Ẽ + t(E0 − Ẽ).
Par convexité de E(r), on a E(t) ∈ E(r) pour tout t ∈ [0, 1]. En posant
g(t) = f (X(E(t))), par définition de Ẽ :
g(t) 6 g(0) ∀t ∈ [0, 1]
ce qui implique g 0 (0) 6 0, i.e.
Z 1
0> P (y)(E0 − Ẽ)(y)dy. (1.46)
−1
Établissons maintenant les relations (1.42). Soit y0 tel que P (y0 ) > 0. Par
continuité de P , il existe un intervalle I dans [−1, 1] (non réduit à un singleton) tel
LES COLLECTIONS DE L’IFSTTAR
32
Méthodes de dimensionnement robuste en conception de structures
que P (y) > 0 pour tout y ∈ I. Choisissons alors E0 sous la forme
E0 (y) = Ẽ(y) pour y ∈
/ I, E0 (y) = r pour y ∈ I.
En remplaçant dans (1.46),
Z
0> P (y)(r − Ẽ(y)). (1.47)
I
où P est le polynôme défini en (1.43). Comme P (y) > 0 et r − Ẽ(y) > 0 sur I,
l’inégalité (1.47) implique nécessairement P (y)(r − Ẽ(y)) = 0 sur I, i.e. Ẽ(y) = r.
Le cas où P (y0 ) < 0 se traite de façon similaire.
Démontrons enfin le résultat 3. Posons F = L2 ([−1, 1], [0, 1]). On vérifie
facilement que X(F) est un ensemble borné de R3 , i.e. il existe M > 0 tel que
kX(F )k 6 M pour tout F ∈ F. Tout E ∈ E(r) s’écrit de façon unique sous la
forme
E = (r − 1)F + 1
où F ∈ F. Par linéarité de X, on a X(E) = (r − 1)X(F ) + X(1) et donc
kX(E) − X(1)k 6 (r − 1)M.
Comme f est continue et f (X(1)) > 0, f est strictement positive sur une boule
de centre X(1) et de rayon τ > 0.
Soit r0 = 1 + τ /M . Pour tout r ∈ [1, r0 ] et E ∈ E(r), on a kX(E) − X(1)k 6 τ et
par suite f (E) > 0.
1.5.3. Étude de l’existence d’une solution optimale
D’après l’expression (1.39), il est clair que si la distribution E(y) est telle que
α > 0, β > 0 (1.48)
alors
F (E) 6 r(α + β). (1.49)
On a vu que la condition (1.48) est satisfaite en r = 1. Le résultat 3 (cf Eq.(1.44)),
appliqués aux fonctions α(E) et β(E), montre alors qu’il existe r0 > 1 tel que
(1.48) est satisfaite pour tout 1 6 r 6 r0 et E ∈ E(r). Pour de telles valeurs de r,
la majoration (1.49) incite à maximiser la quantité f (E) = α + β par rapport à E
dans E, en utilisant pour cela les résultats 1 et 2. En posant ci (E) = (∂f /∂Xi )(E),
LES COLLECTIONS DE L’IFSTTAR
33
Optimisation de formes en sciences de l’ingénieur
notons au préalable que
X12 − 7X1 X2 + 6X22
c0 (E) = − 2 ,
6 (X12 − X0 X2 )
2X0 X1 − 7X0 X2 − 7X12 + 12X1 X2
c1 (E) = 2 , (1.50)
6 (X12 − X0 X2 )
(X0 − 6X1 )(X0 − X1 )
c2 (E) = − 2 .
6 (X12 − X0 X2 )
En particulier, pour r = 1, c0 = −1/4, c1 = −7/8, c2 = −3/8. Dans ce cas, on
P2
vérifie facilement que le polynôme P (y) = i=0 ci y i a les propriétés suivantes :
P a un unique zéro (noté a) dans [−1, 1] et décroît strictement sur [−1, 1].
(1.51)
En fait, la propriété (1.51) reste valable pour tout E ∈ E(r) si r est suffisamment
proche de 1. En effet, (1.51) est satisfaite si et seulement si les coefficients de P
vérifient
√
−c1 2 −c1 − ∆
c2 < 0, < −1, ∆ = c1 − 4c0 c2 > 0 , −1 < <1
2c2 2c2
ce qui peut se réécrire sous la forme
c2 < 0, c1 − 2c2 < 0, 0 < c2 − c1 + c0 , 0 > c2 + c1 + c0 .
Ces conditions sont satisfaites pour E = 1. L’application répétée du résultat 3 aux
fonctions c2 , c1 − 2c2 , c2 − c1 + c0 , c2 + c1 + c0 montre qu’il existe r00 > 1 tel que
(1.51) est satisfaite pour tout 1 6 r 6 r00 et E ∈ E(r). On pose R = max{r0 , r00 } et
on s’intéresse dans la suite à r 6 R. Notons qu’une analyse plus détaillée montre
qu’on peut prendre R = 4.
Soit r fixé dans [1, R] et E ∈ E(r). L’application des résultats 1 et 2 à la fonction
f = α + β montre qu’il existe Ẽ dans E(r) tel que
α + β 6 (α + β)(Ẽ) (1.52)
où Ẽ satisfait les conditions d’optimalité (1.42).
Or par (1.51), P (y) > 0 pour y < a et P (y) < 0 pour y > a. Par conséquent,
Ẽ(y) = r pour y < a,
(1.53)
Ẽ(y) = 1 pour y > a.
LES COLLECTIONS DE L’IFSTTAR
34
Méthodes de dimensionnement robuste en conception de structures
La valeur de a dépend de r et est déterminée par la condition de cohérence
P (a) = 0. Pour Ẽ de la forme (1.53), alors
X0 = 2r − (r − 1)(1 − a),
1
X1 = − (a2 − 1)(r − 1),
2
1
X2 = (2r − (r − 1)(1 − a3 )).
3
En substituant dans (1.50), après calculs, la condition P (a) = 0 se réécrit
2
2 a2 − 1 (a(2a − 7) − 5)r − (a − 5)(a + 1)4 (2a − 5)r2 − (2a + 3)(a − 1)5 = 0
qui se résout en
(a − 1)3
r= . (1.54)
(a − 5)(a + 1)2
Cette équation définit a implicitement en fonction de r. La courbe r 7→ a est
représentée figure 1.11.
Les relations (1.53)-(1.54) déterminent complètement la distribution Ẽ
maximisant f à r donné. La valeur correspondante de α + β est égale, tous
calculs faits, à (a − 5)(6a − 1)/12(a − 1)2 . Comme α et β sont positifs, pour tout
E ∈ E(r),
(a − 5)(6a − 1)
F (E) 6 r , (1.55)
12(a + 1)2
où a est donné par (1.54). Étant donné que l’inégalité (1.55) est valable pour tout
E ∈ E(r), alors
(a − 1)(6a − 1)
sup F (E) 6 r . (1.56)
E∈E(r)
12(a + 1)2
Il y a en fait égalité dans (1.56). Pour tout b > 0, considérons en effet la distribution
Ẽ(b) définie par
Ẽ(b)(y) = Ẽ(y) pour − 1 6 y 6 1 − b,
(1.57)
Ẽ(b)(y) = r pour 1 − b < y 6 1.
Soit {bn } une suite positive tendant vers 0, et En = Ẽ(bn ). On vérifie facilement
que Xi (En ) → Xi (Ẽ) (i = 0, 1, 2) quand n → ∞, et par continuité que
f (En ) → f (Ẽ). Comme En (1) = r, on a F (En ) = supy f (σ) = r(α + β). Par
suite, supy g(y) tend vers le membre de droite dans (1.55).
Notons que la suite En converge dans L2 ([−1, 1], R) vers Ẽ, mais F (En ) ne
converge pas vers F (Ẽ). En fait le supremum dans (1.56) n’est pas atteint : pour
E = Ẽ, on a F (Ẽ) < X où X = supE F . Pour E 6= Ẽ, les conditions d’optimalité
(1.53) ne sont pas satisfaites et par conséquent α + β < (α + β)(Ẽ), dont on
déduit F (Ẽ) < X.
LES COLLECTIONS DE L’IFSTTAR
35
Optimisation de formes en sciences de l’ingénieur
Nous arrivons ainsi au résultat principal suivant.
1.5.4. Résultat principal et conséquences
Pour tout 1 6 r < 4, on a
(a − 1)(6a − 1)
sup F (E) = r , (1.58)
E∈E(r)
12(a + 1)2
où a est défini implicitement en fonction de r par la formule (1.54) (voir figure 1.11
(gauche)). Le supremum dans (1.58) n’est pas atteint. Une suite maximisante est
donnée par la suite {En } définie en (1.57) et représentée figure 1.11 (droite).
Figure 1.11.
Représentation de la fonction a(r) (gauche) et d’une suite maximisante (droite)
pour un problème de dimensionnement robuste
On examine dans la suite quelques conséquences et interprétations de ce
résultat.
L’expression (1.58) donne la solution exacte du problème de dimensionnement
robuste. En remplaçant (1.58) dans (1.26), en effet
σY 12(a + 1)2
λmax (r) = (1.59)
r (a − 1)(6a − 1)
qui s’interprète comme le chargement maximal au sens du dimensionnement
robuste : tant que λ 6 λmax (r), le critère de résistance (1.5) est satisfait en tout
point et pour toute distribution du module d’Young E(y) compatible avec un niveau
d’incertitude donné r. La fonction r 7→ λmax (r) est représentée figure 1.12. Cette
fonction est décroissante : plus le niveau d’incertitude est élevé, plus la prévision
sur la tenue de la structure est pessimiste. Comme on l’observe figure 1.12, la
sensibilité −dλmax /dr est maximale en r = 1.
LES COLLECTIONS DE L’IFSTTAR
36
Méthodes de dimensionnement robuste en conception de structures
Figure 1.12.
Chargement maximal en fonction du niveau d’incertitude sur le module d’Young
Comme on l’a déjà mentionné, le supremum dans (1.58) n’est jamais atteint,
même si l’incertitude est très faible. Afin d’interpréter ce phénomène, considérons
une répartition arbitraire E(y) du module d’Young et modifions localement cette
distribution autour d’un point y0 . Pour E 0 ∈ [1, r] et δy donnés, on considère la
distribution E 0 définie par
E 0 (y) = E 0 si y ∈ [y0 , y0 + δy], E 0 (y) = E(y) sinon. (1.60)
Lorsque δy est choisi très petit, les scalaires α et β dans (1.34) ne sont pas
perturbés (au premier ordre). En effet, α et β sont déterminés par des intégrales
sur la distribution E : une modification localisée, de la forme (1.60), a un effet
négligeable. En conséquence, σ(y) = E(y)(αy + β) n’est pas modifié (au premier
ordre en δy) hors de la zone de perturbation [y0 , y0 + δy]. Par contre, dans la zone
de perturbation, la contrainte σ(y0 ) passe de la valeur E(y)(αy0 +β) à E 0 (αy+β) :
il y a une amplification locale de la contrainte, égale à E 0 /E(y) et maximale pour
E 0 = r.
Un tel phénomène d’amplification locale est précisément ce qui apparaît dans
la suite maximisante {En } : la distribution En est une perturbation locale, de la
forme (1.60), appliquée en y0 = 1 à la distribution Ẽ définie (1.57). Plus la taille
LES COLLECTIONS DE L’IFSTTAR
37
Optimisation de formes en sciences de l’ingénieur
bn de la zone de perturbation est faible, plus la contrainte en y0 = 1 est amplifiée,
tendant vers la limite (α + β)r/Ẽ(1).
Le fait que le supremum dans (1.58) n’est jamais atteint n’a pas uniquement une
portée théorique : ce résultat a des répercussions directes (et néfastes) sur la
résolution numérique du problème. Ce point est illustré plus en détails dans la
suite.
1.6. Illustration numérique
1.6.1. Méthode de résolution
Nous pouvons montrer que le problème (1.26) peut se réécrire sous la forme
λmax (r) = sup λ (1.61)
G(λ)>0
où Z 1
G(λ) = sup h|σ(y)| − λi2+ dy (1.62)
E∈E(r) −1
et hxi+ désigne la partie positive de x, i.e. hxi+ = (x + |x|)/2. Du point de vue
de la résolution numérique, l’ensemble E(r) est remplacé par un sous-espace de
dimension finie Eh (r), et l’on résout le problème
λmax
h (r) = sup λ (1.63)
Gh (λ)>0
où Z 1
Gh (λ) = sup h|σ(y)| − λi2+ dy. (1.64)
E∈Eh (r) −1
Le problème d’optimisation obtenu (1.64) est ensuite résolu par un algorithme de
gradient. Le problème (1.64) étant en dimension finie, le supremum dans (1.64)
est atteint, ce qui n’est pas le cas pour (1.62).
Soit −1 = x1 6 x2 6 · · · 6 xn+1 = 1 une subdivision de l’intervalle [−1, 1].
On résout le problème (1.63) en considérant l’espace d’approximation Eh (r)
formé par les fonctions constantes sur chaque intervalle [xi , xi+1 ]. La table 1.1
montre les solutions obtenues à partir de trois états initiaux différents,
représentés figure 1.13.
Ces résultats ont été obtenus avec n = 40 points de discrétisation équi-répartis.
Le paramètre r mesurant l’incertitude est fixé à 1.5. Comme on le constate sur la
table 1.1, l’estimation de λmax obtenue dépend de l’état initial considéré, et dans
certains cas s’éloigne de la valeur exacte, donnée par (1.59) et égale à 0.856
pour r = 1.5.
LES COLLECTIONS DE L’IFSTTAR
38
Méthodes de dimensionnement robuste en conception de structures
Les distributions critiques obtenues sont représentées figure 1.14 et sont
également sensibles à l’état initial. Ce comportement est la manifestation
numérique du fait que le supremum dans (1.26) n’est pas atteint.
Table 1.1.
Résultats numériques (r = 1.5)
état initial E0 E1 E2
problème (1.63) λmax
h 0.91 0.90 0.94
nombre d’itérations 51 32 21
problème (1.67) λmax
h 0.86 0.86 0.86
nombre d’itérations 31 22 16
Figure 1.13.
États initiaux (notés E0 , E1 , E2 ) utilisés
Figure 1.14.
Distributions critiques obtenues pour chacun des 3 états initiaux E0 , E1 , E2
L’absence de solution optimale au problème continu en espace a été analysée
en détails en 1.5.3 et interprétée en termes d’effets de microstructure. Cette
interprétation suggère une reformulation du problème (1.61) sous la forme
sup λ (1.65)
Ghom (λ)>0
où Z 1
Ghom (λ) = sup h|A(E(y))σ(y)| − λi2+ dy (1.66)
E∈E(r) −1
LES COLLECTIONS DE L’IFSTTAR
39
Optimisation de formes en sciences de l’ingénieur
et A(E(y)) = r/E(y). L’idée est de voir la distribution E et la contrainte σ
comme des grandeurs à l’échelle mésoscopique. Le terme A(E(y)) représente
le facteur d’amplification locale (au niveau microscopique) des contraintes, dont
on a déterminé précédemment qu’il était égal à r/E(y). Cette formulation est
similaire à celle de la méthode d’homogénéisation : les champs considérés
dans le problème d’optimisation sont des variables mésoscopiques, et l’effet de
microstructure est pris en compte à travers le coefficient A(E). Nous pouvons
facilement établir que λmax (r) est solution de (1.65) et que le supremum dans
(1.66) définissant Ghom (λmax ) est atteint (par la distribution Ẽ définie en (1.53)).
De façon analogue à (1.61), le problème (1.65) se discrétise en
sup λ (1.67)
Ghom
h
(λ)>0
où Z 1
Ghom
h (λ) = sup h|A(E(y))σ(y)| − ai2+ dy. (1.68)
E∈Eh (r) −1
On présente dans la table 1.1 les résultats obtenus par résolution numérique
du problème, en conservant les mêmes états initiaux et les mêmes paramètres
que ceux utilisés pour résoudre (1.63). Les valeurs obtenues pour λmax h
sont systématiquement très proches de la valeur exacte (l’écart peut être
réduit en choisissant une discrétisation plus fine). De plus la convergence est
significativement plus rapide, comme on l’observe sur le nombre d’itérations. En
outre, pour les 3 états initiaux, la distribution critique obtenue reste quasiment
inchangée (aux erreurs numériques près) et proche de la distribution Ẽ.
Une autre voie pour régulariser le problème (1.61) consiste à imposer une
condition de régularité sur les distributions E(y) considérées dans E(r). Comme
on le voit figure 1.11, les suites maximisantes pour le problème (1.61) présentent
des discontinuités. Dans certains cas, on peut considérer que de telles
discontinuités ne sont pas autorisées physiquement. Par exemple, seules des
variations continues peuvent être considérées comme admissibles. De telles
restrictions a priori dépendent de la nature du problème, et plus précisément
des informations disponibles sur la dépendance spatiale du module d’Young.
L’ajout de telles conditions de régularité peut suffire (mais pas toujours) à garantir
l’existence d’une distribution optimale en dimension infinie. Par exemple, on peut
montrer que le supremum est atteint si l’on prend
E(r) = {E : [−1, 1] 7→ [1, r]| |E(y 0 ) − E(y)| 6 k|y 0 − y| ∀y, y 0 ∈ [−1, 1]} (1.69)
où k > 0 est fixé. Par contre, si l’on fait le choix plus général
E(r) = C 0 ([−1, 1], [1, r]) (ensemble des fonctions continues), alors le supremum
n’est pas atteint. Notons que la définition (1.69) revient à introduire une échelle
de longueur (représentée par le paramètre 1/k) dans le problème. De façon
semblable à ce qui a été présenté précédemment sur la méthode SIMP, l’ajout
LES COLLECTIONS DE L’IFSTTAR
40
Méthodes de dimensionnement robuste en conception de structures
d’une échelle de longueur (réalisé de manière adaptée) supprime l’effet de
microstructure et permet l’existence d’une solution optimale.
Figure 1.15.
Distributions critiques obtenues pour chacun des 3 états initiaux E0 , E1 , E2
(problème régularisé)
La figure 1.15 montre les distributions optimales obtenues en résolvant le
problème (1.61) sur un ensemble E(r) de la forme (1.69). On considère de
nouveau les trois états initiaux représentés figure 1.14. Les solutions obtenues
sont très proches, et correspondent toutes à une même valeur de λmax , égale à
1,30.
Cette valeur est supérieure à celle obtenue pour le problème (1.65), ce qui
est cohérent car on a restreint l’espace E(r) sur lequel porte la maximisation.
Soulignons que la contrainte de régularité (1.69) se traduit numériquement par
un nombre de contraintes proportionnel au nombre de degrés de liberté de la
discrétisation, et ralentit de fait considérablement l’optimisation.
1.6.2. Comparaison avec des simulations 2D
La figure 1.16 présente les champs de contraintes (valeur de la contrainte de
Von Mises f (σ)) obtenues par résolution du problème d’équilibre bidimensionnel
(1.27-1.29) à l’aide d’une méthode par éléments finis. Les trois champs présentés
correspondent à trois répartitions différentes du module d’Young dans la plaque :
E(y) = E0 (y) = (1 + r)/2 (gauche), E(y) = E1 (y) (milieu), E(y) = Ẽh (0.97)
(droite). Les champs de contraintes sont tracés sur la configuration déformée (les
déformations sont amplifiées pour une meilleure lisibilité).
À l’exception du voisinage immédiat des extrémités x = 0 et x = η, le champ
de contraintes obtenu est uniaxial et concorde avec la solution analytique. Dans
cette zone (notée Ω1 ), la contrainte f (σ) est maximale en y = 1, en accord avec
LES COLLECTIONS DE L’IFSTTAR
41
Optimisation de formes en sciences de l’ingénieur
Table 1.2.
Valeur maximale de la contrainte de Von Mises
état initial E0 E1 Ẽ h
supΩ1 f (σ) 0.71 0.61 0.90
supΩ2 f (σ) 0.83 0.75 1.03
l’analyse présentée précédemment. La table 1.2 montre les valeurs supΩ1 f (σ)
obtenues numériquement pour les trois distributions de module d’Young testées.
Le cas le plus critique correspond à la distribution Ẽh , comme prévu par l’analyse
théorique présentée précédemment. Pour cette configuration, la contrainte de
Von Mises maximum est atteinte sur la surface inférieure de la poutre.
Figure 1.16.
Calcul bidimensionnel par éléments finis
1.7. Conclusion
Les méthodes d’optimisation de forme en conception de structures, dont on a
donné un aperçu dans ce chapitre, ont acquis une maturité certaine et sont
applicables sur certains problèmes industriels. Ces méthodes offrent des outils
pour guider la conception, ou améliorer un design existant. Pour autant, l’objectif
LES COLLECTIONS DE L’IFSTTAR
42
Méthodes de dimensionnement robuste en conception de structures
ambitieux d’une conception optimale entièrement automatique reste difficile à
atteindre du fait de la difficulté à atteindre un optimum global.
Concernant le dimensionnement robuste de structures en présence d’incertitudes
– problème de nature différente au premier abord –, l’étude d’un problème-
modèle a mis en évidence les difficultés qui surgissent lorsqu’on s’intéresse aux
milieux continus.
En particulier, le fait que le supremum n’est pas atteint se traduit sur le
plan numérique par la multiplicité d’optima locaux. Ce constat n’est pas
complètement surprenant dans la mesure où, comme on l’a montré, le problème
de dimensionnement robuste s’apparente à un problème d’optimisation de forme,
pour lequel la multiplicité de minima locaux est une difficulté connue. S’inspirant
des résultats de l’optimisation de forme, on a indiqué quelques pistes pour
contourner les difficultés observées en dimensionnement robuste.
Une première méthode est d’effectuer un changement d’échelle, en introduisant
un facteur d’amplification locale des contraintes dû à l’effet de microstructures.
Cette approche est dans l’esprit de la méthode d’homogénéisation.
Une deuxième méthode est d’imposer une condition de régularité aux solutions
recherchées, dans l’esprit de la méthode SIMP.
Ces deux approches ont prouvé leur efficacité sur un problème-modèle, mais leur
extension à des situations plus générales, en 2 ou 3 dimensions, reste à étudier.
Bibliographie
Niels Aage, Morten Nobel-Jørgensen, Casper Schousboe Andreasen et
Ole Sigmund. « Interactive topology optimization on hand-held devices ». In :
Structural and Multidisciplinary Optimization 47 (2013), pages 1-6.
Grégoire Allaire. Shape optimization by the homogenization method. Springer,
2002.
Grégoire Allaire et O. Pantz. « Structural optimization with FreeFem++ ». In :
Structural and Multidisciplinary Optimization 32 (2006), pages 173-181.
Martin Philip Bendsøe et Ole Sigmund. « Material interpolation schemes
in topology optimization ». In : Archives of Applied Mechanics 69 (1999),
pages 635-654.
Martin Philip Bendsøe et Ole Sigmund. Topology Optimization : Theory,
Methods and Applications. Springer, 2003.
Jean-Michel Bony. Cours d’analyse. Éditions de l’École Polytechnique, 2001.
Matteo Bruggi et Pierre Duysinx. « Topology optimization for minimum weight
with compliance and stress constraints ». In : Structural and Multidisciplinary
Optimization 46 (2012), pages 369-384.
Peter W. Christensen et Anders Klarbring. An Introduction To Structural
Optimization. Springer, 2009.
LES COLLECTIONS DE L’IFSTTAR
43
Optimisation de formes en sciences de l’ingénieur
Pierre Duysinx et Martin Philip Bendsøe. « Topology optimization of continuum
structures with local stress constraints ». In : International Journal for Numerical
Methods in Engineering 43 (1998), pages 1453-1478.
Isaac Elishakoff et Makoto Ohsaki. Optimization and anti-optimization of
structures under uncertainty. Imperial College Press, 2010.
Cheng Geng Dong et Xu Guo. « ε-relaxed approach in structural topology
optimization ». In : Structural Optimization 13 (1997), pages 258-266.
Erik Holmberg, Bo Torstenfelt et Anders Klarbring. « Stress constrained
topology optimization ». In : Structural and Multidisciplinary Optimization
(2013), pages 1-15.
U. Kirsch. « On singular topologies in optimum structural design ». In : Structural
Optimization 2 (1990), pages 133-142.
B. Larrouturou et P.L. Lions. Optimisation et analyse numérique. Éditions de
l’École Polytechnique, 1994.
Maurice Lemaire. Structural reliability. Tome 84. John Wiley & Sons, 2010.
Ramon E. Moore. Interval Analysis. Prince-Hall, Englewood Cliffs, NJ, 1966.
J.T. Oden et J.A.C. Martins. « Models and computational methods for dynamic
friction phenomena ». In : Computer Methods in Applied Mechanics and
Engineering 52 (1985), pages 527-634.
Olivier Pironneau, Frédéric Hecht, Antoine Le Hyaric et Jacques Morice.
« Freefem++ ». In : See http ://www. freefem. org/ff+ (2009).
Jean Salençon. Calcul à la rupture et analyse limite. Paris : Presses ENPC,
1983, 366 p. : ill., 1983. ISBN : 2-85978-059-9.
Jan Sokolowski et Jean-Paul Zolésio. Introduction to shape optimization.
Springer, 1992.
LES COLLECTIONS DE L’IFSTTAR
44
Chapitre 2
Optimisation d’un écran
antibruit
Christophe HEINKELE 1 , Thomas LEISSING 2 , Jérôme DEFRANCE2
avec la contribution de : Jean-Pierre CLAIRBOIS 3 , Francis GRAENNEC 2 ,
Philippe JEAN 2
Résumé – Dans le cadre d’un projet européen, la question de l’optimisation
globale d’un écran antibruit a été abordée en croisant la performance
acoustique, le coût et l’impact environnemental de l’ouvrage. Pour ce
faire, des critères d’évaluation ont été mis en place pour chacun des trois
domaines ce qui a nécessité de faire appel à une analyse en cycle de vie
d’une série de matériaux et par conséquent à une base de données pour
différentes familles d’écrans et pour différents matériaux d’un point de vue
économique et environnemental.
Une première optimisation partielle a été réalisée afin d’optimiser chaque
type d’écran sur le plan acoustique, en utilisant la méthode des éléments
de frontières pour la prédiction de la performance et les algorithmes
génétiques pour dégager un ouvrage optimal sur le plan acoustique. Les
critères spécifiques ont été ensuite agrégés avec un système de notations
afin de mettre en place des indicateurs globaux de performance. Ces
indicateurs globaux permettent de pondérer les critères spécifiques entre
eux avant de procéder à une optimisation globale. La méthode a été
ensuite enrichie pour prendre en compte la topographie lors de l’insertion
de l’ouvrage. Les résultats sont présentés sous la forme de radar-plot, ce
qui permet de juger de la pertinence conjointe des critères retenus en
amont.
1. CEREMA
2. CSTB
3. A-Tech
LES COLLECTIONS DE L’IFSTTAR
45
Optimisation de formes en sciences de l’ingénieur
Le principal résultat consiste en une méthode globale d’optimisation d’un
écran antibruit en fonction de paramètres inhérents au décideur. La
méthode présente l’avantage d’être à la fois souple et pragmatique.
2.1. Éléments de contexte
Le travail présenté dans ce chapitre s’articule autour des résultats obtenus dans
le projet européen de recherche QUIESST (C LAIRBOIS, 2012) consacré aux
propriétés des écrans antibruit. L’objectif principal de QUIESST était la révision de
la méthode Adrienne (CEN1793, 2003b ; CEN1793, 2003c ; CEN1793, 2003a)
mais prévoyait également d’autres développements innovants afin d’améliorer la
prise en compte et la mise en place des écrans antibruit. QUIESST s’est achevé
en décembre 2012. Il y avait quatre lots techniques au sein de ce projet : le
premier (WP2) s’est consacré à l’étude du champ lointain, le deuxième (WP3)
a constitué une base de données en compilant les solutions disponibles sur
le marché, le troisième (WP4) a analysé l’impact environnemental d’un écran
antibruit et le quatrième (WP5) a proposé une méthode d’optimisation d’écrans
antibruits. Le présent chapitre s’appuie sur les travaux de ce dernier lot piloté par
le CSTB 4 .
Le travail a débuté par une bibliographie visant à recenser les modèles de
propagation acoustique en extérieur ainsi que les techniques d’optimisation
disponibles, afin de dresser un état de l’art des optimisations déjà réalisées
dans le contexte des protections sonores du bruit extérieur. Nous renvoyons
à (AUERBACH et al., 2010) pour plus de détails. Ce travail préliminaire a
permis de cerner les outils déjà disponibles afin de faire un choix pour la
poursuite du travail. La méthodologie a été mise en place progressivement
dans (C HUDALLA, D EFRANCE et al., 2011), en se concentrant sur l’utilisation
de la méthode des éléments de frontière et des algorithmes génétiques
pour effectuer un classement des écrans antibruit par famille. Des séries
d’optimisation restreintes à des cas purement acoustiques pour chaque famille
d’écrans, présentées dans (C HUDALLA, C LAIRBOIS, D EFRANCE et L EISSING,
2012), ont permis d’apporter des réponses à une optimisation intrinsèque. La
suite du travail (C HUDALLA, C LAIRBOIS, D EFRANCE, G RANNEC et al., 2012) s’est
concentré sur la prise en compte des coûts environnementaux des matériaux et
sur une approche globale sur des sites de configurations différentes (B OULEY
et al., 2012). Tous ces rapports sont disponibles en ligne (http ://[Link]).
2.2. Outils numériques
2.2.1. Le modèle numérique de propagation sonore
La méthode numérique utilisée pour prédire les niveaux sonores est la méthode
des éléments de frontière (BEM en anglais, pour Boundary Element Method).
4. Centre Scientifique et Technique du Bâtiment
LES COLLECTIONS DE L’IFSTTAR
46
Optimisation d’un écran antibruit
La BEM permet une résolution approchée de l’équation de Helmholtz 2.1 en
imposant des conditions aux limites sur une structure plongée dans un fluide
homogène sans viscosité et s’étendant à l’infini (figure 2.1). La pression p(t)
est supposée harmonique et telle que p(t) = Re(pe−iωt ), il s’agit donc d’une
méthode fréquentielle où p est l’amplitude complexe et ω = 2πf la pulsation et f
la fréquence. L’équation de Helmoltz s’écrit alors
∆p + k 2 p = s (2.1)
où k = ω/c est le nombre d’onde, c la vitesse du son dans l’air et s le terme
source. La résolution de ce problème permet de prédire la pression réfléchie et
diffusée par une structure dans un milieu homogène.
Les conditions aux limites sont définies sur ∂Ω = Γ par des valeurs à imposer sur
p et/ou ses dérivées partielles (figure 2.1).
Figure 2.1.
Représentation symbolique du domaine Ω ainsi que d’un objet plongé dans Ω de
contour Γ
Ω
Fluide
+x
Γ
Si on considère le champ au point x résultant d’un point source placé en y, la
solution générale du problème en dynamique est appelée fonction de Green G et
vérifie 2.2 :
∆x G(x, y) + k 2 G(x, y) = −δ(x − y), (2.2)
où δ désigne la distribution de Dirac. Cette solution générale possède des
expressions analytiques dans de nombreux cas.
En multipliant 2.1 par G(x, y) et 2.2 par p(y), en soustrayant ces deux
expressions puis en intégrant le tout sur Ω, par rapport à un élément de surface
dS(y), :
LES COLLECTIONS DE L’IFSTTAR
47
Optimisation de formes en sciences de l’ingénieur
Z Z Z
δ(x − y)p(y)dSy = p(y)∆G(x, y)dSy - G(x, y)∆p(y)dSy
|Ω {z } |Ω {z } |Ω {z }
1 Z 2 3
+ s(y)G(x, y)dSy .
|Ω {z }
4
Ainsi pour un point x situé dans le domaine fluide Ω, la définition de la distribution
de Dirac montre que l’expression 1 est égale à p(x). L’expression 4 est connue
sur le domaine Ω et est notée pinc (x). On applique alors la formule de Green aux
intégrales de surfaces 2 et 3 pour obtenir la formule de Kirchoff 2.3 qui permet
d’estimer le champ de pression en un point x de Ω uniquement à partir des
valeurs de la pression p et de sa dérivée première (où ∂ny désigne la dérivée
par rapport à la normale) sur le contour Γ :
Z Z
∂G ∂p
p(x) = p(y) (x, y)dy − (y)G(x, y)dy + pinc (x). (2.3)
Γ ∂ny Γ ∂ny
Si on désigne par p̃ une fonction test, la formulation variationnelle de 2.3 conduit
à
Z Z Z
∂G
p̃(x)p(x)dx = p̃(x)p(y) (x, y)dydx
Γ Γ Γ ∂ny
Z Z
∂p
− p̃(x) (y)G(x, y)dydx
Γ Γ ∂ny
Z
+ p̃(x)pinc (x)dx. (2.4)
Γ
S
L’étape suivante consiste à discrétiser le contour Γ = i Γi et d’appliquer la
relation de Chasles dans 2.4 :
M Z M X
M Z Z
X X ∂G
p̃(x)p(x)dx = p̃(x)p(y) (x, y)dydx
i=1 Γi i=1 j=1 Γi Γj ∂ny
M X
M Z Z
X ∂p
− p̃(x) (y)G(x, y)dydx
i=1 j=1 Γi Γj ∂ny
M Z
X
+ p̃(x)pinc (x)dx. (2.5)
i=1 Γi
La discrétisation de Γ possède N nœuds et M éléments. On se donne une
expression discrète de p et sa dérivée q sur des éléments de formes (Ni (x))i6N
de la manière suivante :
LES COLLECTIONS DE L’IFSTTAR
48
Optimisation d’un écran antibruit
N
X N
X
p(x) = pk Nk (x) q(x) = qk Nk (x). (2.6)
i=k k=1
On ré-injecte alors 2.6 dans 2.5, en prenant en compte les valeurs connues sur
les Γi . On intégre ensuite les fonctions de formes ainsi que les fonctions G sur
ces même Γi , et on regroupe les termes connus et les termes inconnus. On
obtient un système linéaire en X = (pi , qi ) de la forme KX = F où la matrice K
est une matrice «pleine» ne possédant pas forcément les propriétés numériques
permettant une inversion rapide.
L’application aux écrans antibruit de cette méthode intégrale a déjà donné lieu à
plusieurs travaux (D UHAMEL, 1996 ; J EAN, 1998). La BEM permet de prendre en
compte des formes d’écran complexes ainsi que des changements d’impédance :
il faut pour cela s’assurer que la surface est correctement discrétisée. Le CSTB
possède une grande expérience de cette méthode et en a développé une version
optimisée (en tabulant certaines fonctions, comme la fonction de Hankel qui
est une résolution de 2.2 dans certains cas), aboutissant ainsi à un outil de
prédiction efficace, éprouvé et très rapide. Dans le cadre de ce travail, ce sont
majoritairement des scènes 2D qui ont été traitées par la BEM. Ceci implique
que la géométrie est invariante selon y et se résume au plan xz. Il en va de
même pour la source, qui se retrouve être une ligne source cohérente.
Il est possible en outre de définir l’approche 2.5D décrite dans (D UHAMEL, 1996)
en considérant une ligne source incohérente. Cette approche permet d’obtenir
une solution 3D par une manipulation peu coûteuse numériquement. Reposant
sur les propriétés de la transformation de Fourier, cette approche permet de
limiter les calculs à des configurations 2D, ce qui constitue un gain en temps
de calcul intéressant par rapport à un calcul 3D complet.
La principale faiblesse de la BEM tient dans le fait qu’elle n’est valable que
dans un milieu homogène. Ainsi l’atmosphère doit rester homogène pour
notre application et il n’est pas possible de prendre en compte les effets
météorologiques. Numériquement, la BEM est de moins en moins rapide lorsque
que l’on considère des fréquences élevées, car le maillage exigé doit être plus
raffiné et cette augmentation du nombre de points alourdit les calculs.
La méthode Adrienne (cf 2.3.1) demandant de monter à 5000 Hz, et étant donné
la condition d’échantillonnage de Shanon, il est nécessaire de monter à 11000
Hz pour passer du domaine fréquentiel au domaine temporel par transformation
de Fourier inverse. Ces hautes fréquences constituent un frein chronophage aux
méthodes d’optimisation décrites ci-après (2.2.4).
2.2.2. L’analyse en cycle de vie
L’analyse du cycle de vie (LCA pour Life Cycle Assessment en anglais) est
une méthode normalisée (NF-P-01010, 2004 ; ES- PR EN-15804, 2010 ; ISO-
14044, 2006 ; ISO-14040, 2006) permettant d’évaluer l’impact environnemental
d’un produit ou d’un service de façon quantifiée.
LES COLLECTIONS DE L’IFSTTAR
49
Optimisation de formes en sciences de l’ingénieur
Elle fait apparaître la notion d’unité fonctionnelle, qui constitue une grandeur de
référence dont la définition dans l’analyse pratiquée est définie par «Assurer
la fonction d’un équipement de réduction du bruit pendant un an sur un mètre
linéaire». Les matériaux considérés sont supposés être de très bonne qualité au
sens où leur durabilité supposée est de 20 ans (correspondant au matériau le
moins durable, à savoir le bois de construction).
Les matériaux soumis à l’analyse sont ceux couramment utilisés dans la
construction d’écrans antibruit. Ils sont au nombre de 9 : le béton armé, le béton
de pouzzolane, le béton-bois, le bois, la brique, l’aluminium, le plexigass, la laine
de roche et l’acier perforé.
2.2.3. La description acoustique des matériaux
La description acoustique des matériaux est importante pour prendre en
compte les propriétés absorbantes. En effet, plusieurs mécanismes de diffusion
interviennent au niveau microscopique des matériaux, mais les modèles de
comportement se situent généralement au niveau macroscopique. La BEM étant
une méthode fréquentielle, il est naturel de se ramener à une impédance (i.e. un
rapport pression/vitesse)qui sera prise en compte sur chaque surface discrétisée
dans le modèle numérique. Ainsi les matériaux sont décrits acoustiquement
sous la forme d’un impédance, elle-même déduite d’une mesure d’un coefficient
d’absorption α donné en tiers d’octave (figure 2.2).
Figure 2.2.
Courbes d’absorption des 9 matériaux retenus pour l’optimisation
LES COLLECTIONS DE L’IFSTTAR
50
Optimisation d’un écran antibruit
Il ne s’agit pas d’une caractérisation, car aucun paramètre macroscopique n’a
été utilisé au sein d’un modèle prédictif pour fournir les impédances. La méthode
pour passer du coefficient α à l’impédance est tirée de (M ORSE et al., 1986). Elle
suppose la norme de l’admittance petite devant 1, ce qui permet de supposer
α proportionnel à la partie réelle de l’admittance. Cette approche limite donc
l’impédance à une grandeur réelle, ce qui ne reflète pas la réalité. Il est possible
d’améliorer la description acoustique des matériaux en faisant appel à des
modèles plus poussés, mais cela demanderait de caractériser tous les matériaux
susceptibles d’intervenir dans l’optimisation.
2.2.4. Les outils d’optimisation
Les techniques d’optimisations utilisés dans ce travail reposent sur des
algorithmes évolutionnaires (evolutionary computation en anglais), c’est à dire
qu’ils proposent successivement des solutions à un problème donné, dans
l’optique de déterminer un résultat optimal. Ces algorithmes sont employés
lorsque la taille de l’espace des possibles exclut un parcours exhaustif ou lorsque
le domaine à explorer n’est pas convexe. Les différentes solutions proposées
itérativement lors de la résolution sont issues d’une marche aléatoire, ce qui les
classe dans la catégories des algorithmes stochastiques.
Deux outils principaux d’optimisation seront mis en œuvre dans ce travail, selon
qu’on concentre sur un ou plusieurs objectifs (optimisaton mono- ou multi-
critères).
Pour une optimisation avec un unique objectif, on utilisera une stratégie
d’évolution (ES en anglais pour Evolution Strategy ), tandis que pour une
optimisation à plusieurs objectifs, on s’orientera vers un algorithme génétique
de tri non dominé (NSGA en anglais pour Non-dominated Sorting Genetic
Algorithm).
La stratégie d’évolution employée est une stratégie binaire. Un individu (ici
un écran caractérisé par ses dimensions géométriques et ses matériaux) est
représenté par un vecteur de données et appartient à une certaine population.
Cet individu est alors muté en modifiant le vecteur de données qui le caractérise.
Cette «mutation» est opérée avec une loi uniforme de moyenne nulle et de
variance fixée au départ (la plupart du temps par des contraintes physiques).
Nous obtenons alors un descendant dont nous comparons la performance avec
son antécédent. Si elle est supérieure, le descendant remplace son antécédent
dans la population qui servira à générer la population suivante. Le taux de
mutation correspond à la variance de la loi normale de moyenne nulle et
de variance fixée. Il est possible d’améliorer l’algorithme en procédant à un
ajustement au cours des générations de la variance de la loi normale utilisée
pour générer des descendants. Nous adaptons ainsi cette variance afin d’obtenir
1/5 de mutations performantes.
Les algorithmes génétiques de tri non dominé (S RINIVAS et al., 1994) sont basés
sur un classement des individus sur plusieurs fronts. La première étape consiste
en une génération aléatoire d’une population initiale d’individus parents. Cette
LES COLLECTIONS DE L’IFSTTAR
51
Optimisation de formes en sciences de l’ingénieur
population est classée en plusieurs fronts de rangs différents. Chaque individu
P est comparé à tous les autres individus et tous les individus non dominants
sont rassemblé sur le front de rang 1, appelé front optimal de Pareto. Ce front est
ensuite mis de coté pour classer les autres individus. Au sein de chaque front,
un critère de sélection permet de générer des descendants selon un processus
qu’il serait trop long à décrire ici et qu’on pourra consulter dans (S RINIVAS et al.,
1994).
Cet algorithme favorise les solutions non dominées et il utilise une variété explicite
des solutions, par contre il se révèle très gourmand en nombre d’évaluations
de fonctions coût, ce qui dans notre cas d’optimisation rend son application
impossible à mettre en pratique au vu des exigences de calculs dans le cadre
général. C’est la raison pour laquelle on s’est orienté vers des optimisations
partielles (voir la section 2.4), perdant sans doute sur le plan de la généralité
du problème, mais gagnant certainement sur le plan de la mise en œuvre.
2.3. Indicateurs de performance
Préalablement à l’optimisation, il est nécessaire de se donner des critères
quantifiables afin de sélectionner les candidats répondant au mieux aux dits
critères. Les critères que nous allons mettre en avant seront déclinés au travers
de fonctions coût et sont issus des outils exposés ci-dessus (cf section 2.2). Pour
les critères acoustiques, il est possible de s’appuyer sur des grandeurs physiques
par nature aisément quantifiable. Ces critères sont présentés dans 2.3.1. Les
critères économiques sont décrits dans 2.3.2 et restent les plus faciles à
appréhender et à quantifier. Par contre les critères environnementaux exigent
plus de travail, que ce soit en terme de sélection des critères et de collecte de
données. En effet la quantification d’un critère environnemental, après analyse en
cycle de vie, repose sur une étude amont pour chaque composant de l’ouvrage,
et ce travail de recensement est difficilement automatisable et demande une
expertise bien spécifique. Les résultats sur les critères retenus sont donnés
dans 2.3.3.
2.3.1. Les critères acoustiques
Les grandeurs acoustiques considérées ici sont des niveaux calculés dans les
18 bandes de tiers d’octave comprises entre 100 Hz et 5 kHz, selon la norme
CEN1793-5 :2003. fi désigne la fréquence centrale de la bande de tiers d’octave
i, ∆fi en désigne la largeur. F désigne la transformée de Fourier. La méthode
de calcul reproduit ici la méthode Adrienne (CEN1793, 2003c), qui permet de
mesurer in situ l’absorption et la transmission sonore de tout type de dispositif
antibruit. Les simulations numériques produisant le champ de pression aux
abords du dispositif, on applique des fenêtrages aux signaux pour séparer l’onde
directe de l’onde réfléchie sur l’écran, ainsi que les autres réflexions parasites.
Ainsi ces fenêtrages apparaissent dans chaque expression sous la forme d’une
fonction temporelle w? (t) que l’on multiplie au signal simulé.
LES COLLECTIONS DE L’IFSTTAR
52
Optimisation d’un écran antibruit
Considérons à présent chaque indice acoustique dans une bande de fréquence
donnée.
[Link]. Indice de réflexion dans la bande i
RIi désigne l’indice de réflexion et est donné par l’équation 2.7. Le signal
réfléchi est évalué avec la BEM. La norme CEN1793-5 :2003 prévoit 9 positions
angulaires de microphone entre 30° et 150°, en considérant l’incidence normale à
90°. nj désigne donc le nombre de positions angulaires considérées pour obtenir
une moyenne sur l’ensemble de ces positions.
Nous avons :
nj Z h√ 2
1 X i
t hr,k (t) wr (t) (f ) df
nj
F
k=1 ∆fi
RIi = Z h√ i 2 (2.7)
t hi (t) wi (t) (f ) df
F
∆fi
où hr,k désigne le signal réfléchi pour la position angulaire k, wr la fenêtre de
l’onde réfléchie, hi l’onde incidente et wi la fenêtre du signal incident.
√
Il faut noter que nous avons employé l’expression faisant intervenir t dans les
intégrales au numérateur et dénominateur, car les simulations sont réalisées en
2D avec la BEM, ce qui nécessite ce facteur correctif.
[Link]. Indice d’absorption dans la bande i
SLi désigne l’indice de transmission et est donné par l’équation 2.8. Le signal
transmis est évalué avec la TMM. La nouvelle méthode prévoit une grille de 3x3
microphones placée du coté opposé à l’émission. nj désigne donc l’ensemble
des microphones sur la grille et permet d’obtenir une moyenne sur l’ensemble de
ces positions.
Nous avons :
nj Z
1 X 2
|F [ht,k (t) wt (t)] (f )| df
nj
k=1 ∆fi
SLi = Z (2.8)
2
|F [hi (t) wi (t)] (f )| df
∆fi
où ht,k désigne le signal transmis pour la position angulaire k, wt la fenêtre de
l’onde transmise, hi l’onde incidente et wi la fenêtre du signal incident.
[Link]. Indice de diffraction dans la bande i
DLi désigne l’indice de diffraction et est donné par l’équation 2.9. Le signal
diffracté est évalué avec la BEM. La norme (CEN1793, 2003c) préconise 4
positions de microphones de part et d’autre de l’écran. nj désigne donc ces
quatre positions de microphone.
LES COLLECTIONS DE L’IFSTTAR
53
Optimisation de formes en sciences de l’ingénieur
Nous avons :
nj 2 Z
1 X dk 2
|F [hd,k (t) wd,k (t)] (f )| df
nj di ∆fi
k=1
DIi = Z (2.9)
2
|F [hi (t) wi (t)] (f )| df
∆fi
où hd,k désigne le signal au microphone k, et wd,k la fenêtre spécifique à chaque
microphone, hi l’onde incidente et wi la fenêtre du signal incident. di et dk sont
des facteurs de correction géométrique.
En pratique, l’indice pertinent pour la diffraction est obtenu en évaluant le gain
par insertion en considérant la différence de l’indice DImi en présence de l’écran
avec l’indice DI0i sans l’écran. Nous noterons ainsi ∆DIi = DIm 0
i − DIi .
[Link]. Indicateurs globaux
Il reste à sommer chaque contribution fréquentielle pour chaque indice sur
l’ensemble du spectre en tiers d’octave en introduisant les pondérations (Li ) dans
chaque bande de fréquence.
18
X
En posant K = 10Li /10 :
i=1
18
1 X
DLRI = −10log RIi 10Li /10 (2.10)
K i=1
18
1 X
DLSI = −10log SLi 10Li /10 (2.11)
K i=1
18
1 X
DL∆DI = −10log (DIm 0
i − DIi ) 10
Li /10
. (2.12)
K i=1
2.3.2. Les critères économiques
L’aspect économique est un critère essentiel dans l’élaboration d’un écran
antibruit, c’est pourquoi des critères supplémentaires sont nécessaires pour
intégrer le coût financier d’un ouvrage. Trois paramètres ont été introduits, à savoir
le coût de construction, le coût de maintenance ainsi que le coût de démolition.
La table 2.1 donne le coût de construction et de démolition (matériaux, main
d’œuvre, transport) d’un écran antibruit pour différentes hauteurs, en partant de
l’hypothèse que ces coûts sont indépendants des matériaux utilisés (voir par
exemple la fiche technique CERIB, 2017 pour des informations détaillées sur
les coûts liés au béton plein).
LES COLLECTIONS DE L’IFSTTAR
54
Optimisation d’un écran antibruit
Dans la table 2.1, la valeur obtenue est ramenée au coût de la solution de
référence de l’écran de 4 m de haut et de 10 cm d’épaisseur en béton plein. La
même normalisation est adoptée pour les coûts de maintenance et de démolition.
Table 2.1.
Exemple de coût de construction et de démolition en fonction de la hauteur de
l’écran
Hauteur de l’écran Coût de construction en e/ m Coût de démolition en e/ m
1 825 278
2 1449 312
3 2066 345
4 2678 379
10 6441 579
La table 2.2 donne quelques exemples de coûts d’entretien des ouvrages en
fonction des matériaux utilisés. Le choix des matériaux intervient donc ici pour
les critères économiques.
Table 2.2.
Exemple de coût de maintenance des matériaux utilisés
Matériau Coût de maintenance en e/ m2 / an
Béton et brique 2.93
Bois 2.44
Plaque de métal 1.46
Thermolastique transparent 1.48
Il est à noter que le coût de réutilisation des matériaux n’a pas été pris en compte
dans le cadre de ce projet, ce qui aurait pour conséquence de faire baisser
éventuellement les coûts de construction initiaux en cas de recyclage ainsi que
les coûts de démolition une fois l’ouvrage «recyclé».
Tous ces coûts sont fixés avant l’optimisation, et donc ne prennent pas en compte
les variations économiques qui peuvent intervenir durant la vie de l’ouvrage ni les
réparations éventuelles en cas de détérioration accidentelle.
2.3.3. Les critères environnementaux
La sélection des critères environnementaux s’est appuyée sur une analyse en
cycle de vie des matériaux considérés en veillant à l’indépendance et à la
pertinence environnementale des critères retenus. Les critères retenus sont au
nombre de 4 : l’énergie nécessaire à la fabrication du matériau, la quantité de
CO2 dégagée, la perte de matériau lors de la mise en œuvre et la consommation
en eau. Le résultat de ce travail d’analyse du cycle de vie sur les 9 matériaux
cités au 2.2.2 conjointement avec ces quatre critères nous amène à la table 2.3,
LES COLLECTIONS DE L’IFSTTAR
55
Optimisation de formes en sciences de l’ingénieur
qui présente les résultats sur la base d’une production et du transport de 1 tonne
de matériau sur 100 km.
Table 2.3.
Critères environnementaux liés aux matériaux considérés
Indicateurs environnementaux
Matériau Énergie CO2 dégagée perte à la mise Consommation
Mj kg CO2 en œuvre en kg en eau en litre
Béton armé 1,14E+3 1,43E+02 2,42E+01 1,82E+03
Béton bois 7,87E+03 3,67E+02 4,03E+01 1,69E+03
Béton pouzzolannes 5,46E+3 6,18E+01 5,35E+00 2,02E+02
Brique 3,02E+3 2,51E+02 7,17E+00 4,89E+02
Plexiglass 1,45E+5 8,40E+03 1,07E+02 2,03E+04
Laine de roche 1,92E+4 1,05E+03 3,39E+02 1,00E+04
Bois 2,22E+4 1,49E+02 2,47E+01 1,27E+03
Aluminium 1,46E+5 9,28E+03 2,56E+03 4,39E+04
Acier 3,40E+4 2,29E+03 2,21E+03 2,50E+04
Pour chaque écran étudié, on établit le rapport des unités fonctionnelles de l’écran
et de la solution de référence (écran droit en béton de 10 cm d’épaisseur et de 4
m de hauteur).
2.4. Optimisation intrinsèque d’un écran antibruit
La démarche débute par une optimisation partielle, c’est à dire que l’écran
antibruit est isolé de son contexte extérieur et que seules les performances de
l’écran sont considérées. Cette première optimisation est désignée par le terme
d’optimisation intrinsèque et permet de hiérarchiser les candidats sur le seul plan
des performances acoustiques.
2.4.1. Définition
On désigne par optimisation intrinsèque la démarche qui vise à sélectionner le
meilleur candidat d’écran possible sans tenir compte de son environnement au
sens général (type de source, topographie, environnement urbain ou rural, etc).
Cette optimisation est la plus courante lorsque l’on se concentre uniquement sur
des critères acoustiques. Cette première optimisation a été menée en faisant
varier formes et matériaux pour chaque famille d’écrans antibruit recensée. La
technique utilsée pour chaque écran est la BEM (et la TMM pour une des sortes
de famille) conjointement à une stratégie d’évolution. Les matériaux possibles
sont ceux de la liste donnée ci-dessus (cf 2.2.2).
Pour chaque type d’écran, un procédé de construction géométrique permet de
générer un écran candidat en fonction d’un ensemble de paramètres propre
à chaque famille. Nous décrivons 4 familles particulières dans la table 2.4.
LES COLLECTIONS DE L’IFSTTAR
56
Optimisation d’un écran antibruit
Ces 4 familles sont celles retenues pour l’optimisation globale (cf 2.5). Les
intervalles avec une virgule désignent des intervalles continues de réels, tandis
que les doubles points décrivent des ensembles d’entiers. Les puissances sur
les intervalles indiquent le nombre de paramètres variant dans cet intervalle. Les
couleurs sur les écrans indiquent l’emplacement des matériaux. Cette description
condensée des familles d’écrans ne doit pas masquer l’ensemble des paramètres
sur lesquels il est possible d’influer pour obtenir une solution optimale.
Table 2.4.
Description de 4 familles d’écran donnant la géométrie de l’écran ainsi que les
positionnements possibles des matériaux sur les surfaces
Paramètre unité intervalle
Paramètre unité intervalle
largeur de l’écran mètre [0.1, 0.5]
largeur de l’écran mètre [0.1, 0.5]
longueur de l’écran mètre [1, 5]
longueur de l’écran mètre [1, 5]
inclinaison degrés [−5, +5]
inclinaison degrés [−5, +5]
matériaux n◦ [1..9]3
matériaux n◦ [1..9][2..5]
taille des aspérités mètre [0.08, 0.17]
hauteurs des panneaux mètre [1, 5][2..5]
angles des aspérités degrés [10, 80]2
Paramètre unité intervalle Paramètre unité intervalle
largeur de l’écran mètre [0.1, 0.5] largeur de l’écran mètre [0.1, 0.5]
longueur de l’écran mètre [1, 5] longueur de l’écran mètre [1, 5]
inclinaison degrés [−5, +5] inclinaison degrés [−5, +5]
matériaux n◦ [1..9] matériaux n◦ [1..9]2
taille des courbes mètre [0.08, 0.17] Points de Bézier 1 mètre [−1.5, −0.1]2
angle des courbes degrés [10, 80] 2
Points de Bézier 2 [0.1, 1.5]2
2.4.2. Performances attendues
Les performances intrinsèques d’un écran antibruit sont évaluées selon 3 critères
qui consistent à ramener les gains relatifs du mur candidat par rapport aux
critères d’un écran de référence de 10 cm d’épaisseur et de 4 m de haut en
béton plein. On détermine ainsi des seuils de performance à atteindre comme le
résume la table 2.5.
Table 2.5.
Seuils de performance à atteindre en termes de gain relatif pour les trois critères
acoustiques
Gain relatif Seuil de performance
En réflexion DLRI − DLref
RI 12 dB(A)
En absorption DLSL − DLref
SL 60 dB(A)
En diffraction DLDI − DLref
DI 12 dB(A)
LES COLLECTIONS DE L’IFSTTAR
57
Optimisation de formes en sciences de l’ingénieur
Ces seuils de performances ont été fixés dans l’esprit d’améliorer grandement
la solution de référence, montrant ainsi que la modification des formes et des
matériaux des écrans constituent des leviers efficaces d’optimisation.
2.4.3. Résultats d’optimisation intrinsèque
La figure 2.3 représente les gains obtenus pour chacun des écrans générés afin
de sélectionner le meilleur candidat. Il n’y a qu’un seul critère pris en compte ici
pour l’optimisation, à savoir le gain en réflexion. Nous pouvons obtenir ici un gain
allant jusqu’à 13,64 dB par rapport à la solution de référence.
Figure 2.3.
Exemple d’optimisation avec un seul critère
Amélioration maximale = 13.64 dB
La figure 2.4 quant à elle s’intéresse à une optimisation à deux critères de façon
conjointe, ce qui permet de dégager une zone d’amélioration (en jaune). Cette
optimisation montre qu’il est possible de dégager de meilleurs candidats que le
mur de référence.
Par contre, il est nécesaire d’établir une priorité entre les critères si l’on vise à
ne retenir qu’un seul candidat. Le critère final dans le cas d’une optimisation
multi-critères retenu par la suite sera la somme maximale des gains sur les deux
critères acoustiques.
Avec les méthodes prédictives choisies, notamment la BEM, il n’est
malheureusement pas possible d’évaluer tous les critères acoustiques en 2D
décrits en 2.3.1 pour toute les familles d’écrans retenues. La table 2.6 indique
les possibilités de calcul d’indicateur pour chaque famille avec les méthodes
numériques choisies. Une croix signifie que le critère ne peut pas être évalué,
LES COLLECTIONS DE L’IFSTTAR
58
Optimisation d’un écran antibruit
0 indique que le critère est immédiatement atteint lors de la première génération
des candidats au cours de l’optimisation.
Figure 2.4.
Exemple d’optimisation avec 2 critères
Amélioration maximale = 11.90 dB
Amélioration maximale = 16.64 dB
Ecran de référence
Table 2.6.
Nombre de populations de candidats générées par la méthode d’optimisation,
par critère acoustique et par type d’écran (l’impossibilité de calcul du critère est
indiquée par le symbole X)
Pour une hauteur d’écran donnée de 4 m, chaque famille a fait l’objet
d’une optimisation intrinsèque sur chaque critère acoustique. Ces optimisations
successives permettent d’évaluer les gains obtenus en séparant les critères. La
table 2.7 donnent les résultats obtenus et force est de constater que les résultats
LES COLLECTIONS DE L’IFSTTAR
59
Optimisation de formes en sciences de l’ingénieur
de l’écran de référence peuvent être améliorés de manière significative sur les
indicateurs définis.
Table 2.7.
Gains en dB(A) apportés par l’optimisation pour chaque critère acoustique et
chaque famille pour une hauteur de 4 m
Hauteur
du
mur
Ainsi ces résultats d’optimisation intrinsèques permettent d’une part, de constater
la pertinence de la recherche d’une solution optimale et d’autre part, de réduire
les intervalles de recherche lors des optimisations globales.
2.5. Optimisation globale de murs antibruit
2.5.1. Principe de la démarche
L’optimisation globale ou extrinsèque consiste à tenir compte de l’environnement
extérieur et à mettre en jeu des paramètres n’ayant pas trait à l’acoustique.
La méthode reste dans l’esprit d’une stratégie d’évolution, c’est à dire
qu’un ensemble de candidats est généré parmi lesquels sont sélectionnés
progressivement par mutation des candidats solutions du problème posé. Les
conditions extérieurs à l’ouvrage, à savoir la source de bruit, l’environnement
urbain ou rural, ainsi que la topographie sont des facteurs à prendre en compte en
amont avant de procéder à la recherche d’une solution optimale. L’environnement
au sens large de l’ouvrage est ainsi pris en compte directement dans la méthode
globale.
Une telle optimisation globale met en jeu un grand nombre de critères qu’il
est difficile de relier entre eux. Pour cette raison, on procède dans un premier
temps à une agrégation des information sous la forme d’un indicateur spécifique
à chaque composante de l’optimisation, à savoir les aspects acoustiques, les
aspects environnementaux et les aspects économiques. La mise en place de ces
indicateurs agrégés est décrite au 2.5.2.
2.5.2. Les indicateurs globaux ACOU, ENV et COST
Afin de d’aider à la prise de décision, il est essentiel d’agréger l’ensemble
des informations au travers d’indicateurs en nombre réduits. Pour ce faire, un
LES COLLECTIONS DE L’IFSTTAR
60
Optimisation d’un écran antibruit
système de notation a été mis en place pour chacun des 3 domaines (acoustique,
environnemental et économique). Trois indicateurs ont ainsi été définis, chacun
étant défini par rapport à l’écran de référence de 4 m de 10 cm d’épaisseur en
béton plein.
Le premier est l’indicateur pour les aspects acoustiques ∆L, défini par la
moyenne des gains en dB(A) du candidat évalué sur les critères introduits
au 2.3.1 par rapport à l’écran de référence (cet indicateur possède une unité).
Le deuxième indicateur concerne les aspects environnementaux Xenv et le
troisième concerne les aspects économiques Xcost . Ils sont définis comme la
moyenne des critères définis au 2.3.2 et au 2.3.3, quotientées par la moyenne des
critères obtenus avec l’écran de référence. Chacune de ces grandeurs, avec ou
sans dimension, est transformée en une note allant de 0 à 4. Les tables 2.8, 2.9
et 2.10 donnent les systèmes de notation utilisés pour déterminer les indicateurs
ACOU, ENV et COST.
Table 2.8.
Système de notation pour l’indicateur ACOU
Gain ∆L du niveau ∆L < 1 1< ∆L < 2 2< ∆L < 4 4< ∆L < 6 ∆L > 6
(en dB(A))
Note 0 1 2 3 4
Table 2.9.
Système de notation pour l’indicateur ENV
x = Xenv x < 25% 25%< x <50% 50%<x< 75% 75%<x< 100% 100%< x
Note 4 3 2 1 0
Table 2.10.
Système de notation pour l’indicateur COST
x = Xcost x< 60% 60%<x< 70% 70%<x< 80% 80%<x< 90% 90%< x
Note 4 3 2 1 0
2.5.3. Choix du mur et de son environnement extérieur
La table 2.11 présente les choix possibles pour l’environnement extérieur. La
définition ces choix permet d’adapter au mieux une optimisation d’un mur antibruit
dans son environnement et son contexte.
LES COLLECTIONS DE L’IFSTTAR
61
Optimisation de formes en sciences de l’ingénieur
Table 2.11.
Possibilités considérées pour l’optimisation extrinsèque
Famille de murs
Topographie déblai plat remblai
Environnement urbain rural
Source ferroviaire route
Le choix de la famille conditionne les paramètres géométriques et les matériaux
utilisés lors de la génération des candidats. La topographie, l’environnement
urbain ou rural ainsi que les choix de la source modifient l’application de la BEM,
surtout lors de la discrétisation des surfaces avec leur impédance propre.
2.5.4. Récapitulatif de la méthodologie d’optimisation globale
La figure 2.5 récapitule sur un schéma la démarche d’une optimisation globale.
Il s’agit de faire évoluer une population de murs d’une même famille, afin de
dégager un individu optimal pour les critères que l’on se donne. Ces critères
sont matérialisés par les 3 indicateurs ACOU, ENV et COST, se référant
respectivement à l’acoustique, l’impact sur l’environnement et le coût du mur
antibruit.
Ces indicateurs concentrent plusieurs informations et sont chacun calculés avec
des méthodes différentes. Les aspects acoustiques sont issus de la simulation
numérique par BEM et des données sur l’impédance des matériaux mis en
oeuvre. L’impact environnemental et le coût sont évalués en fonction des bases
de données crées pour ce travail d’optimisation. La figure suivante représente la
méthode globale d’optimisation, avec un exemple de résultat possible.
2.6. Les outils obtenus
2.6.1. Pondération des indicateurs
L’utilisateur de la présente méthode peut également être amené à modifier
l’importance relative des indicateurs ACOU, ENV, ou COST. En effet, il est
possible d’attribuer une pondération à chacun de ces indicateurs selon 3
pourcentages. 0% signifie que l’aspect doit être occulté et que l’utilisateur ne
désire pas en tenir compte. 50% signifie que l’importance de l’indicateur est
moyenne et 100% indique que ce paramètre est de la plus haute importance.
Cette approche permet ainsi au décideur de positionner le barycentre de son
projet entre ces trois aspects. Ainsi, le choix de privilégier un aspect par rapport
à l’autre est quantifié et permet d’orienter la décision, surtout lors de la phase très
LES COLLECTIONS DE L’IFSTTAR
62
Optimisation d’un écran antibruit
Figure 2.5.
Schéma récapitulatif d’une optimisation globale, une fois les paramètres
d’environnement fixés
Génération aléatoire d'une population
Mur de référence
de 50 murs
Performances de la population(BEM et base de données)
Comparaison à la référence
ACOU ENV COST
critère de convergence
atteint ?
25% des individus les plus performants
non
de la population sont renouvellés
oui
Solution optimale
importante d’avant projet où il s’agit d’évaluer conjointement l’efficacité, le coût et
retombées environnementales de l’ouvrage.
2.6.2. Constitution d’une base de données sur les écrans antibruit
Il y a quatre choix à effectuer avant une optimisation globale, à savoir le type
de source, l’environnement rural ou urbain, la topographie et la famille d’écrans
étudiée. De plus, pour l’indicateur ACOU, il est possible de choisir entre 3
configurations sur la position des récepteurs (tous du même coté que la source,
tous du coté opposé à la source, ou de part et d’autre de la source). Enfin, la
pondérations des indicateurs ACOU, ENV et COST à 0%, 50% ou 100% rajoute
encore 3 possibilités supplémentaires.
Il est alors facile d’entrevoir le dénombrement exhaustif de l’ensemble des
situations possibles. Ainsi les choix disponibles mènent à 2x2x3x4x3x3=432
cas qui, dans le cadre du projet européen QUIESST, ont tous fait l’objet de
l’optimisation globale décrite en 2.5.4. Il est sans doute inutile de préciser que
cette étape a été une phase très chronophage au sein du projet.
Les informations ainsi recueillies ont été ainsi répertoriées dans une base de
données qui constitue un des produits essentiels du travail réalisé par le projet.
Cette base de données est ainsi un outil permettant de cibler une solution d’écran
à mettre en place en intégrant les données environnementales extérieures et en
précisant les priorités éventuelles des aspects acoustiques ou environnementaux
ou économiques dans le choix de la solution finale. Cette base de données, qui
porte sur les écrans, devient un véritable outil d’aide à la décision et peut être
évidemment affinée et complétée dans le futur.
LES COLLECTIONS DE L’IFSTTAR
63
Optimisation de formes en sciences de l’ingénieur
2.6.3. Présentation des résultats d’une optimisation
Les indicateurs ACOU, ENV et COST ayant des significations très différentes,
il a fallu trouver un système de représentation adaptée. Ainsi les performances
des 3 indicateurs ont été placées sur un cercle composé lui même de 5 cercles
concentriques correspondant aux notes des indicateurs (tables 2.8, 2.9 et 2.10) :
on trace alors un triangle ayant pour sommets les notes obtenues. Appelée
radar-plot en anglais, cette représentation permet d’évaluer graphiquement la
performance d’un ouvrage vis-à-vis des 3 indicateurs.
Cette représentation facilite la prise de décision et permet éventuellement de
sélectionner un candidat dans la base de données. Des exemples de cette
représentation sont donnés en 2.6.4.
2.6.4. Exemples de résultats d’optimisation globale
Nous allons présenter ici trois résultats d’optimisation globale en modifiant
uniquement les importances attribuer aux critères ACOU, ENV et COST. Ces
trois résultats ont en commun la famille de murs choisie (aspérités anguleuses),
la topographie, ainsi que le type de source et les positions de ces dernières et
des récepteurs (de part et d’autre de l’écran).
Figure 2.6.
Résultat de l’optimisation globale en pondérant l’indicateur ACOU à 100%
Type d'écran : aspérités anguleuses Béton
Largeur du panneau : 0.423 m Béton bois
Inclinaison du panneau : -0.02°
Béton pouzzolane
Angles des aspérités : 18.5°,38.6°
Taille des aspérités : 0.263 m Bois
Materiaux : Laine de roche, Laine de roche, Béton pouzzolane Brique
Aluminium
Plexiglass
Laine de roche
Il est facile d’identifier sur les figures 2.6, 2.7 et 2.8 les résultats obtenus en
fonction des pondérations attribuées. Il est intéressant de noter que les matériaux
et les formes des écrans obtenus diffèrent fortement, preuve que le choix en
amont de l’optimisation est déterminant dans les solutions obtenues et que
LES COLLECTIONS DE L’IFSTTAR
64
Optimisation d’un écran antibruit
la méthode d’optimisation globale est de ce point de vue discriminante et par
conséquent efficace.
Figure 2.7.
Résultat de l’optimisation globale en pondérant l’indicateur ENV à 100%
Type d'écran : aspérités anguleuses Béton
Largeur du panneau : 0.197 m
Inclinaison du panneau : 0.08°
Béton bois
Angles des aspérités : 10.6°,77.6° Béton pouzzolane
Taille des aspérités : 0.089 m
Bois
Materiaux : Béton pouzzolane, Béton bois, Béton pouzzolane
Brique
Aluminium
Plexiglass
Laine de roche
Figure 2.8.
Résultat de l’optimisation globale en pondérant l’indicateur COST à 100%
Type d'écran : aspérités anguleuses Béton
Largeur du panneau : 0.231 m Béton bois
Inclinaison du panneau : -1.46°
Angles des aspérités : 58.6°,77.1° Béton pouzzolane
Taille des aspérités : 0.195 m Bois
Materiaux : Bois, Bois, Bois
Brique
Aluminium
Plexiglass
Laine de roche
LES COLLECTIONS DE L’IFSTTAR
65
Optimisation de formes en sciences de l’ingénieur
2.7. Vers une nouvelle méthode de conception
environnementale de murs antibruit
La méthode décrite dans ce chapitre constitue une optimisation de formes au
sens large, intégrant des paramètres géométriques et une variété de matériaux
différents et définissant des critères spécifiques à un problème posé en amont
de la question de l’optimisation. Le cadre d’application de cette méthode s’en
trouve élargi car il intègre non seulement des performances physiques (d’un
point de vue acoustique) et des performances économiques, mais également
des performances environnementales.
Le travail d’agrégation des indicateurs (éventuellement pondérés) dans un
référentiel commun sous forme de note de performance est au cœur de
l’originalité de ce travail. Il est possible de parler de conception éco-optimale
d’écran antibruit, dans le sens où l’optimalité est acquise selon une contrainte
économique, environnementale et acoustique.
Cette méthode a donnée naissance à l’utilisation de plusieurs outils d’aide à la
décision comme la base de données issue de la combinatoire des paramètres
au choix de l’utilisateur, de la possibilité de pondérer le problème vis-à-vis des
indicateurs ACOU, ENV et COST ainsi que la représentation sous forme de
radar-plot qui permet de faire rapidement un choix sur la solution obtenue. L’outil
global d’optimisation trouve ainsi une résonance sur le plan pratique car il permet
de combiner facilement des critères et des facteurs de décision entre plusieurs
domaines dans le but d’aider les décideurs à faire un choix et à pouvoir le motiver.
Il faut remarquer que cette méthode reste encore figée dans le temps. Le prix
des matériaux a été fixé et l’inflation n’est pas prise en compte (par exemple).
Il peut exister également des matériaux disponibles à proximité de l’ouvrage
en projet et qui peuvent satisfaire des critères uniquement de manière locale.
Par ailleurs, la technique peut évoluer et aboutir à de nouveaux types d’écran
utiliseant de nouveaux matériaux plus performants selon les critères retenus.
Cependant, la méthode proposée garde un caractère relativement universel
et ne dépend pas de la technique employée : il est possible d’insérer de
nouveaux matériaux, de refaire les calculs avec une nouvelle famille de murs ou
encore d’optimiser un écran avec une autre source et même avec un autre outil
prédictif de performances acoustiques. De nombreuses extensions techniques
restent possibles au niveau des besoins d’un bureau d’études par exemple, sans
remettre en cause la démarche d’optimisation globale.
La méthode de conception éco-optimale d’écran antibruit présentée ici garde une
grande souplesse d’adaptabilité aux problèmes qui peuvent se poser dans la
pratique. Les enjeux actuels d’économie d’énergie pousseront sans nul doute
dans l’avenir à envisager toute conception comme éco-optimale et le présent
chapitre montre clairement une des voies possibles en ce sens.
LES COLLECTIONS DE L’IFSTTAR
66
Optimisation d’un écran antibruit
Bibliographie
Markus Auerbach, Marine Baulac, Jérôme Defrance, Philippe Jean,
Guillaume Dutilleux, Christophe Heinkelé, Erik Salomons et Greg Watts.
State of the art of existing optimisation méthods and noise prediction
approaches. Rapport technique FP7-SST-2008-RTD-1. WP5 - Holistic
optimisation et global noise impact, avr. 2010, page 100.
Simon Bouley, Michael Chudalla, Jean-Pierre Clairbois, Jérôme Defrance,
Frits Van Der Eerden, Thomas Leissing et Cristo Padmos. Global impact
on noise abatement. Rapport technique FP7-SST-2008-RTD-1. WP5 - Holistic
optimisation et global noise impact, oct. 2012, page 67.
CEN1793. Road traffic noise reducing devices. Test method for determining the
acoustic performance Part 6 : Intrinsic characteristics - In situ values of airborne
sound insulation under direct sound field conditions. Rapport technique 1793-
5 :2003. Avenue Marnix 17, B-1000 Brussels, Belgium : European Comittee for
Standadization, 2003.
CEN1793. Road traffic noise reducing devices. Test method for determining
the acoustic performance. Part 4 : Intrinsic characteristics In situ values of
sound diffraction. Rapport technique 1793-4 :2003. Avenue Marnix 17, B-1000
Brussels, Belgium : European Comittee for Standadization, 2003.
CEN1793. Road traffic noise reducing devices. Test method for determining
the acoustic [Link] 5 : Intrinsic characteristics - In situ values
of sound reflection and airborne sound insulation. Rapport technique 1793-
5 :2003. Avenue Marnix 17, B-1000 Brussels, Belgium : European Comittee for
Standadization, 2003.
CERIB. Panneau architectural plein en béton : fiche de déclaration
environnementale et sanitaire, conforme à la norme NF-EN-15804+A1 et son
complément national NF-EN-15804/CN. Rapport technique. Centre d’Études
et de Recherches de l’Industrie du Béton, 2017.
Michael Chudalla, Jean-Pierre Clairbois, Jérôme Defrance, Francis
Grannec, Thomas Leissing, Dorien Lutgendorf et Cristo Padmos.
Application to extrinsic acoustic optimizations and holistic optimizations.
Rapport technique FP7-SST-2008-RTD-1. WP5 - Holistic optimisation et global
noise impact, août 2012, page 60.
Michael Chudalla, Jean-Pierre Clairbois, Jérôme Defrance et Thomas
Leissing. Application to intrinsic acoustic optimisations. Rapport technique
FP7-SST-2008-RTD-1. WP5 - Holistic optimisation et global noise impact, juin
2012, page 29.
Michael Chudalla, Jérôme Defrance, Guillaume Dutilleux, Julien Hans,
Christophe Heinkele, Thomas Leissing, Cristo Padmos et Nicoletta
Schiopu. Setting a methodology for a holistic optimisation of noise reducing
devices. Rapport technique FP7-SST-2008-RTD-1. WP5 - Holistic optimisation
et global noise impact, mai 2011, page 30.
LES COLLECTIONS DE L’IFSTTAR
67
Optimisation de formes en sciences de l’ingénieur
Jean-Pierre Clairbois. Quiesst outcomes. Déc. 2012. URL : [Link]
[Link]/project/rcn/93636_fr.html.
Denis Duhamel. « Efficient calculation of the three-dimensional sound pressure
field around a noise barrier ». In : Journal of Sound and Vibration 197.5 (1996),
pages 547-571. ISSN : 0022-460X. DOI : 10.1006/jsvi.1996.0548.
ISO-14040. Environmental management - Life cycle assessment - Principles
and framework. Rapport technique 14040. Geneva, Switzerland : International
Organization for Standardization, 2006.
ISO-14044. Environmental management - Life cycle assessment - Requirements
and guidelines. Rapport technique 14044. Geneva, Switzerland : International
Organization for Standardization, 2006.
Philippe Jean. « A variational approach for the study of outdoor sound
propagation and application to railway noise ». In : Journal of Sound and
Vibration 212.2 (1998), pages 275-294. DOI : 10.1006/jsvi.1997.1407.
Philip M. Morse et K. Uno Ingard. Theoretical Acoustics. Princeton University
Press, 1986. ISBN : 0-691-08425-4.
NF-P-01010. Qualité environnementale des produits de construction -
Déclaration environnementale et sanitaire des produits de construction
(Environmental quality of construction products - Environmental and health
declaration of construction products). Rapport technique. AFNOR, 2004, 48p.
ES-prEN-15804. Sustainability of construction works - Environmental product
declarations - core rules for the product category of construction products.
Rapport technique prEN 15804. CEN, 2010, 42p.
N. Srinivas et Kalyanmoy Deb. « Muiltiobjective Optimization Using
Nondominated Sorting in Genetic Algorithms ». In : Evol. Comput. 2.3 (sept.
1994), pages 221-248. ISSN : 1063-6560. DOI : 10.1162/evco.1994.2.3.221.
LES COLLECTIONS DE L’IFSTTAR
68
Chapitre 3
Microstructures à énergie
minimale dans les matériaux
à changement de phase
Michaël PEIGNEY 1
Résumé – Dans certains matériaux comme les alliages à mémoire
de forme, on observe une transformation de phase solide/solide entre
différentes structures cristallographiques. Cette transformation de phase
est pilotée par les sollicitations thermomécaniques appliquées et donne
lieu à la formation spontanée de microstructures.
Nous présentons dans ce chapitre un cadre théorique pour l’étude de
ce phénomène. L’idée maîtresse est que les microstructures à l’équilibre
minimisent l’énergie élastique totale. Nous sommes ainsi amenés à
résoudre un problème d’optimisation de formes portant sur la répartition
spatiale des différentes phases. Bien que la solution exacte soit en général
hors de portée, on présente différentes bornes qui permettent d’estimer
les microstructures susceptibles de se développer.
3.1. Introduction
Certains alliages métalliques (NiTi ou CuAlNi par exemple) ont la spécificité
de présenter un effet mémoire de forme : un échantillon déformé à basse
température retrouve sa forme initiale une fois chauffé. Ce comportement original
ouvre notamment la voie à des utilisations de ces matériaux comme actionneurs.
1. IFSTTAR
LES COLLECTIONS DE L’IFSTTAR
69
Optimisation de formes en sciences de l’ingénieur
Un exemple en génie civil est la conception de façades actives pour la protection
solaire (H ANNEQUART et al., 2017).
L’effet mémoire de forme est la manifestation macroscopique d’un phénomène
de changement de phase solide/solide entre deux structures cristallographiques
différentes, nommées austénite (stable à haute température) et martensite (stable
à basse température). En termes de structure cristallographique, l’austénite a un
degré de symétrie supérieur à la martensite. On est ainsi amené à distinguer
plusieurs variantes de martensite, se distinguant par l’orientation de la structure
martensitique par rapport à la structure austénique. À chacune de ces variantes
correspond une déformation de transformation, décrivant la déformation entre la
structure austénite et la structure martensitique.
La figure 3.1 illustre ces considérations dans le cas d’une transformation cubique
- tétragonale, c’est-à-dire dans le cas où l’austénite a une structure cubique
(d’axes v 1 , v 2 , v 3 ) tandis que la martensite a une structure tétragonale obtenue
par dilatation d’un rapport λ le long d’un des axes v i , et d’un rapport µ sur v ⊥
i .
Figure 3.1.
Transformation cubique-tétragonale
Dans ce cas, il y a trois variantes de martensite, se distinguant par l’axe sur
lequel est appliqué la dilatation de rapport λ. Les déformations de transformation
LES COLLECTIONS DE L’IFSTTAR
70
Microstructures dans les matériaux à changement de phase
correspondantes s’écrivent, en représentation matricielle dans la base (v 1 ,v 2 ,v 3 ),
λ 0 0 µ 0 0 µ 0 0
0 µ 0 , 0 λ 0 , 0 µ 0 .
0 0 µ 0 0 µ 0 0 λ
Alors que les trois directions (v 1 , v 2 , v 3 ) sont indiscernables dans la structure
cubique de l’austénite, seules deux d’entre elles demeurent indiscernables dans
la structure tétragonale de la martensite.
La transformation cubique-tétragonale s’applique par exemple aux alliages MnCu
et MnTi. De façon plus générale, les structures cristallographiques de l’austénite
et de la martensite dépendent du matériau considéré.
Il en va donc de même pour le nombre de variantes de martensite
et les déformations de transformation associées. Outre la transformation
cubique-tétragonale, d’autres exemples courants sont les transformations
cubique-orthorombique (CuAlNi) et cubique-monoclinique (TiNi), correspondant
respectivement à 6 et 12 variantes de martensite.
Afin d’expliquer le lien entre transformation de phase et effet mémoire de forme,
considérons l’exemple simple d’un matériau avec deux variantes martensitiques.
Les déformations de transformation sont de la forme
1 ±γ 0
0 1 0
0 0 1
dans la base (v 1 , v 2 , v 3 ) (figure 3.2).
Figure 3.2.
Transformation tétragonale-orthorombique
LES COLLECTIONS DE L’IFSTTAR
71
Optimisation de formes en sciences de l’ingénieur
Ce cas de figure correspond à la transformation orthorombique-monoclinique,
observée par exemple dans l’alliage YBa2 Cu3 07−δ (A NDERSEN et al., 1990).
En refroidissant un échantillon libre de contraintes, le matériau passe d’un
état austénitique (stable à haute température) à un état martensitique (stable
à basse température), dans lequel les différentes variantes de martensite se
développent et s’arrangent spatialement pour produire un état de contrainte nulle
et à déformation macroscopique négligeable (état (b)) sur la figure 3.3).
Déformer mécaniquement l’échantillon entraîne une réorientation des variantes,
c’est-à-dire un changement de phase martensite/martensite (état (c)). Ce
changement de phase s’effectue au profit des variantes les mieux orientées par
rapport au chargement appliqué.
Après décharge, il subsiste une déformation résiduelle produite par l’effet
collaboratif des déformations microscopiques dans chaque variante. Chauffer
l’échantillon provoque un changement de phase de la martensite vers l’austénite,
restaurant la géométrie initiale avant sollicitation (état (a)).
Figure 3.3.
Interprétation de l’effet mémoire de forme en termes de changement de phase
(T désigne la température)
Il est clair que si la déformation imposée est trop importante, des déformations
plastiques peuvent apparaître et l’effet mémoire de forme est potentiellement
perdu : la déformation imposée n’est pas recouvrable. L’ensemble des
déformations recouvrables joue un rôle essentiel dans l’effet mémoire de forme
(B HATTACHARYA et KOHN, 1997). Sa prédiction théorique est l’objet principal de
ce chapitre. On utilisera pour cela le cadre de la théorie de l’élasticité non linéaire,
en petites perturbations.
3.2. Modélisation du problème
La configuration austénitique est prise comme référence. Soient u le
déplacement et e = (∇u + ∇T u)/2 le tenseur des déformations linéarisées. Les
LES COLLECTIONS DE L’IFSTTAR
72
Microstructures dans les matériaux à changement de phase
déformations de transformation (linéarisées) sont notées e1 ,· · · ,en où n est le
nombre de variantes. Par exemple, pour la transformation cubique-tétragonale
représentée figure 3.1, les trois déformations ei sont données par
λ0 0 0 µ0 0 0 µ0 0 0
e1 = 0 0 0
0 µ 0 , e2 = 0 λ 0 , e3 = 0 µ 0 .
0 0 µ0 0 0 µ0 0 0 λ0
avec λ0 = λ − 1 et µ0 = µ − 1. De façon générale, les n déformations ei sont
reliées par symétrie : pour tout (i, j) il existe une rotation Rij telle ej = RTij ei Rij .
On considère que chaque phase a un comportement élastique, régi par une
fonction énergie wi (i = 0 correspond à l’austénite, i = 1, · · · , n correspond aux
variantes de martensite). Pour simplifier la présentation, on supposera dans la
suite que les fonctions wi (i = 0, · · · , n) ont la forme
1
wi (e) = (e − ei ) : L : (e − ei ) + mi (3.1)
2
où L est symétrique défini positif et ei désigne la déformation de transformation
pour la variante i (en adoptant la condition e0 = 0). L’expression (3.1) traduit un
comportement élastique linéaire pour chaque phase : la contrainte σ est donnée
par la relation
σ = wi0 (e) = L : (e − ei ).
Le coefficient mi dans (3.1) est l’énergie minimale de la phase i et prend la même
valeur pour toutes les variantes de martensite, c’est-à-dire pour i = 1, · · · , n.
Ce coefficient dépend de la température T . Plus précisément, il existe une
température critique T crit tel que, pour tout T < T crit ,
m1 = · · · = mn < m0 . (3.2)
Pour T > T crit ,
m1 = · · · = mn > m0 . (3.3)
crit
La température critique T est la température d’équilibre entre les phases
(également appelée température de transition), c’est-à-dire la température à
laquelle austénite et martensite ont la même énergie minimale. Les relations (3.2-
3.3) traduisent le fait que l’austénite est stable pour les températures supérieures
à T crit , tandis que la martensite est stable pour les températures inférieures à
T crit .
Dans la théorie de l’élasticité appliquée au changement de phase, on pose
comme principe de base qu’à l’équilibre le système minimise son énergie à
toutes les échelles, aussi bien microcroscopique (c’est-à-dire localement) que
macroscopique (c’est-à-dire au niveau de l’échantillon). Au niveau microscopique,
on considère ainsi que la fonction énergie w du matériau est donnée par
w(e) = min wi (e). (3.4)
06i6n
LES COLLECTIONS DE L’IFSTTAR
73
Optimisation de formes en sciences de l’ingénieur
Cette relation exprime le fait que le matériau, soumis à une déformation locale
imposée e, "choisit" la phase d’énergie minimale. Afin d’écrire ce principe de
minimisation au niveau macroscopique, considérons un échantillon occupant un
domaine Ω et soumis à des déplacements ē.x sur la frontière ∂Ω (où ē est donné
et s’interprète comme une déformation moyenne). L’énergie totale du système est
donnée par Z
W = w(e)dω. (3.5)
Ω
À l’équilibre, le système minimise (3.5) par rapport à l’ensemble des champs de
déformations e(x) compatibles avec les conditions aux limites. Cet ensemble est
défini par
A(ē) = {e|∃u(x) tel que e = (∇u + ∇T u)/2 dans Ω; u(x) = ē.x sur ∂Ω}. (3.6)
Nous sommes ainsi amenés à étudier le problème
Z
1
W (ē) = inf w(e)dω. (3.7)
e∈A(ē) |Ω| Ω
Une difficulté vient du fait que l’infimum dans (3.7) n’est en général pas
atteint. Afin d’illustrer cette propriété, considérons l’exemple du matériau à deux
variantes représenté figure 3.2 : l’énergie w est de la forme (3.1)-(3.4) avec
0 γ2 0 0 − γ2 0
γ γ
e1 = 2 0 0 , e2 = − 2
0 0 (3.8)
0 0 0 0 0 0
et
m1 = m2 = 0, m0 > 0. (3.9)
Nous montrerons plus loin que W (0) = 0 (voir 3.6.2). Vérifions ici que l’infimum
dans (3.7) n’est pas atteint pour ē = 0.
R
S’il existe u ∈ A(0) tel que Ω w(e) = 0 alors, comme w est positive, Nous avons
nécessairement w(e) = 0 en tout point, c’est-à-dire e(x) ∈ {e1 , e2 } pour tout x
dans Ω. Nous avons donc u1,1 = u2,2 = 0 dans tout Ω, ce qui implique que u1
(resp. u2 ) est fonction uniquement de x2 (resp. x1 ). La condition u = 0 sur ∂Ω
implique alors u = 0 dans tout Ω, en contradiction avec la conditionR e ∈ {e1 , e2 }.
Ceci montre qu’il n’existe pas de champ e ∈ A(0) tel que W (0) = ( Ω w(e))/|Ω|.
En termes mathématiques, le fait que l’infimum dans (3.7) n’est pas atteint signifie
que les suites minimisantes ne convergent pas. Ceci correspond physiquement
à la formation de microstructures infiniment fines. Ce phénomène, étroitement lié
au fait que l’énergie w définie par (3.4) n’est pas convexe, rend la détermination
de W (ē) particulièrement délicate. De fait l’expression exacte de W n’est connue
que dans quelques cas particuliers (KOHN, 1991 ; S MYSHLYAEV et al., 1998) qui
LES COLLECTIONS DE L’IFSTTAR
74
Microstructures dans les matériaux à changement de phase
seront détaillés plus tard dans ce chapitre. La résolution de (3.7) dans le cas
général reste un problème encore largement ouvert.
La fonction W définie par (3.7) est nommée relaxation ou quasi-convexification
(ou encore enveloppe quasiconvexe) de l’énergie microscopique w. Cette
dernière dénomination est justifiée par le fait que W est quasi-convexe
(DACOROGNA, 2008), c’est-à-dire qu’elle vérifie
Z
1
W (ē) 6 W (e)dω pour tout e ∈ A(ē). (3.10)
|Ω| Ω
En termes physiques, la fonction W peut être interprétée comme l’énergie
du matériau au niveau macroscopique (DACOROGNA, 1982). Une propriété
remarquable est que W est indépendant du domaine Ω considéré dans la
définition (3.7).
Examinons quelques relations simples entre w et W . Pour tout ē, le champ de
déformations uniforme égal à ē en tout point est dans A(ē), donc la définition
(3.7) donne
W (ē) 6 w(ē) (3.11)
dont nous déduisons en particulier que min W 6 min w.
Par ailleurs, la définition (3.7) montre que min w 6 W (ē) pour tout ē, ce qui
implique min w 6 min W . On en conclut que
min w = min W. (3.12)
Posons
K = {e|w(e) = min w}
et
QK = {ē|W (ē) = min W }.
L’ensemble K est l’ensemble des déformations minimisant l’énergie
microscopique w, alors que QK est l’ensemble des déformations minimisant
l’énergie macroscopique.
De la relation (3.12) on déduit
K ⊂ QK. (3.13)
L’ensemble K est simple à expliciter : d’après (3.1) et (3.4), min w = mini mi , si
bien que l’ensemble K est constitué des déformations de transformation ei telles
que mi = minj mj . Pour les températures supérieures à T crit , on a
K = {e0 }
et l’on peut alors montrer que
QK = {e0 }.
LES COLLECTIONS DE L’IFSTTAR
75
Optimisation de formes en sciences de l’ingénieur
Pour les températures inférieures à T crit , on a
K = {e1 , · · · , en }
où ei est la déformation de transformation pour la variante i de martensite.
L’expression de l’ensemble QK est, dans ce cas, beaucoup plus complexe à
obtenir. L’inclusion (3.13) est stricte, et l’on verra même que, pour la plupart
des matériaux, QK est "beaucoup plus grand" que K. Pour T < T crit , les
déformations dans QK s’identifient aux déformations recouvrables mentionnées
en introduction. La prédiction théorique de l’ensemble QK est un objectif des
travaux présentés dans ce chapitre.
3.3. Lien avec l’optimisation de formes
Déterminer W revient à résoudre un problème d’optimisation de formes sur la
répartition géométrique des différentes phases. L’objet de ce paragraphe est
de mettre ce lien en évidence. La répartition des différentes phases peut être
représentée par les fonctions caractéristiques χi des domaines Ωi occupés par
chaque phase i.
La fonction χi est définie par χi (x) = 1 si x ∈ Ωi et χi (x) = 0 sinon.
Les domaines Ωi sont deux à deux disjoints et forment un recouvrement de Ω
(figure 3.4).
Figure 3.4.
Répartition géométrique des phases dans le domaine Ω (ici carré).
LES COLLECTIONS DE L’IFSTTAR
76
Microstructures dans les matériaux à changement de phase
Par conséquent, χ = (χ1 , · · · , χn ) appartient à l’ensemble C défini par
n
X
C = {(χ1 , · · · , χn )|χi (x) ∈ {0, 1}; χi (x) = 1 dans Ω}.
i=0
Nous utiliserons dans la suite le terme de microstructure pour désigner une
répartition géométrique des phases.
P
Pour tout e et pour tout χ dans C, w(e) 6 i χi (x)wi (e). Donc
n
Z X
1
W (ē) 6 inf inf χi (x)wi (e)dω. (3.14)
χ∈C e∈A(ē) |Ω| Ω i=0
L’inégalité inverse est également valable.
Considérons en effet un champ ẽ donné dans A(ē). Pour tout x, on peut choisir
i(x) tel que w(ẽ(x)) = wi(x) ẽ(x). Les domaines Ωi = {x ∈ Ω|i(x) = i} sont
deux à deux disjoints. Définissons χ̃i la fonction caractéristique de Ωi .
La fonction
P χ̃ = (χ̃1 , · · · , χ̃n ) appartient à l’ensemble C et l’on a
w(ẽ) = i χ̃(x)wi (ẽ). Donc
Z n
Z X n
Z X
w(ẽ)dω = χ̃i (x)wi (ẽ)dω > inf χi (x)wi (ẽ)dω
Ω Ω i=0 χ∈C Ω i=0
Cette inégalité vaut pour tout ẽ ∈ A(ē). En prenant l’infimum sur ẽ ∈ A(ē) :
n
Z X
1
W (ē) > inf inf χi (x)wi (e)dω. (3.15)
χ∈C e∈A(ē) |Ω| Ω i=0
La comparaison avec (3.14) montre qu’il y a égalité dans (3.15). Ainsi,
W (ē) = inf W (ē; χ) (3.16)
χ∈C
où l’on a posé, pour tout χ dans C,
n
Z X
1
W (ē; χ) = inf χi (x)wi (e)dω. (3.17)
e∈A(ē) |Ω| Ω i=0
Interprétons ces relations : pour une microstructure χ donnée, déterminer
W (ē; χ) revient à résoudre le problème d’élasticité linéaire
e ∈ A(ē),
div σ = 0 dans Ω, (3.18)
σ(x) = wi0 (e(x)) = Li : (e(x) − ei ) si x ∈ Ωi .
LES COLLECTIONS DE L’IFSTTAR
77
Optimisation de formes en sciences de l’ingénieur
La quantité W (ē, χ) est l’énergie élastique pour la microstructure χ et la
déformation macroscopique imposée ē. La recherche de W (ē) revient à
déterminer la microstructure χ d’énergie élastique minimale pour la déformation
ē donnée. Il s’agit en ce sens d’un problème d’optimisation de formes, portant
sur la microstructure χ : nous cherchons à répartir les différentes phases dans le
domaine Ω de façon à obtenir une énergie de déformation élastique minimale.
Une telle répartition dépend de la déformation moyenne ē imposée. Par exemple,
si ē est pris égal à une des déformations de transformation (par exemple e1 ),
alors une répartition uniforme de la phase 1 est optimale (et donne une énergie
nulle).
La fonction W joue un rôle clé dans l’étude des matériaux à changement de
phase car elle contient toute l’information sur le comportement macroscopique,
en particulier la relation contrainte-déformation et son évolution avec la
température. De plus, pour une déformation ē donnée, les suites minimisantes
dans (3.16) renseignent sur les microstructures qui se développent dans le
matériau.
Cependant, le problème d’optimisation de formes (3.16) qui caractérise W ne
peut en général être résolu de façon exacte. On s’attachera dans la suite à obtenir
un encadrement de W , en étudiant des minorations et des majorations de W .
Une majoration explicite et très utile est donnée par l’enveloppe convexe de
w, introduite dans la section suivante. Cette borne joue en pratique un rôle
important, et fournit dans certains cas la valeur exacte de l’ensemble QK, comme
on l’illustre dans la section 3.5.
Des minorations de W sont obtenues en considérant une classe de
microstructures particulières, à savoir les microstructures laminées. Cette
approche fait l’objet de la section 3.6.
3.4. Enveloppe convexe
Il a été établi plus haut que W (ē) = inf χ W (ē; χ) où W (ē; χ) s’interprète
comme l’énergie potentielle en déplacements pour le problème d’élasticité
linéaire (3.18). Or les théorèmes de minimum bien connus en élasticité linéaire
permettent d’obtenir une borne inférieure sur l’énergie potentielle en déplacement
(S ALENCON, 2007). Considérons en effet l’énergie potentielle en contraintes W ∗
pour le problème d’élasticité (3.18), définie par
(Z n Z )
X
∗ ∗
|Ω|W = inf χi (x)wi (σ)dω − (σ.n).(ē.x)dΓ (3.19)
σ | div σ =0 Ω i=0 ∂Ω
où wi∗ = supe σ : e − wi (e) est l’énergie complémentaire (transformée de
Legendre-Fenchel) associée à wi . Dans le cas présent :
1
wi∗ (σ) = σ : L−1 : σ + σ : ei − mi . (3.20)
2
LES COLLECTIONS DE L’IFSTTAR
78
Microstructures dans les matériaux à changement de phase
Par ailleurs, notons que (3.19) peut se réécrire
Z X
|Ω|W ∗ = inf χi (x)wi∗ (σ)dω − |Ω|ē : σ̄
σ | div σ =0 Ω i
où Z
1
σ̄ = σdω
|Ω| Ω
désigne la valeur moyenne de σ. La formule de Clapeyron (S ALENCON, 2007)
donne
W (ē; χ) = −W ∗
et donc
Z X
− |Ω|W (ē; χ) = inf χi (x)wi∗ (σ)dω − |Ω|ē : σ̄. (3.21)
σ | div σ =0 Ω i
En se restreignant à des champs σ uniformes dans (3.21), on obtient l’inégalité
X
−W (ē; χ) 6 inf θi wi∗ (σ̄) − ē : σ̄
σ̄ i
où Z
1
θi = χi (x)dω
|Ω| Ω
s’interprète comme la fraction volumique de phase i dans la microstructure χ
considérée. Observons que θ = (θ0 , · · · , θn ) appartient à l’ensemble T défini par
n
X
T = {(θ0 , · · · , θn )|θi > 0; θi = 1}. (3.22)
i=0
En remplaçant wi∗ par son expression (3.20) :
n n
1 X X
−W (ē; χ) 6 inf σ̄ : L−1 : σ̄ − σ̄ : (ē − θi ei ) − θi mi .
σ̄ 2 i=0 i=0
Le terme de droite est une fonction quadratique convexe en σ̄.
En calculant l’infimum par rapport à σ̄ :
CW (ē, θ) 6 W (ē; χ)
avec
n n n
1 X X X
CW (ē, θ) = (ē − θi ei ) : L−1 : (ē − θi ei ) + θi mi . (3.23)
2 i=0 i=0 i=0
LES COLLECTIONS DE L’IFSTTAR
79
Optimisation de formes en sciences de l’ingénieur
Il s’ensuit que
CW (ē) 6 W (ē) (3.24)
avec
CW (ē) = inf CW (ē, θ). (3.25)
θ∈T
Nous pouvons facilement vérifier que la fonction CW ainsi définie est convexe.
Par ailleurs les relations (3.11) et (3.24) montrent que CW est une borne
inférieure sur w. En fait CW est la plus grande fonction combinant ses deux
propriétés, c’est-à-dire la meilleure borne inférieure convexe sur w. En effet, si v
est une fonction convexe telle que v 6 w, alors wi∗ 6 v ∗ pour tout i et donc
Z X
1
χi (x)wi∗ (σ̄)dω + ē : σ̄ 6 v ∗ (σ̄) + ē : σ̄
|Ω| Ω i
pour tout ē et tout σ̄. En particulier, en prenant σ̄ = (∂v/∂e)(ē) :
Z X
1
χi (x)wi∗ (σ̄)dω + ē : σ̄ 6 −v(ē).
|Ω| Ω i
Or le raisonnement précédent a montré que le terme de gauche est minoré par
−CW (ē). Nous arrivons donc à v 6 CW . Ceci prouve que la fonction CW est la
plus grande fonction convexe majorée par w, c’est-à-dire l’enveloppe convexe de
w.
Cette borne CW sur l’énergie W permet d’obtenir une borne sur l’ensemble des
déformations à énergie macroscopique minimale. Considérons en effet ē une
déformation minimisant W à T < T crit (on a alors min w = m1 = mn < m0 ).
D’après (3.23), nécessairement CW (ē) = m, i.e il existe θ ∈ T tel que θ0 = 0 et
n
X
ē = θi ei
i=1
Ainsi
QK ⊂ CK (3.26)
où
Xn
CK = { θi ei |θ ∈ T ; θ0 = 0} (3.27)
i=1
s’interprète comme l’enveloppe convexe de K, c’est-à-dire le plus petit ensemble
convexe contenant K. La relation (3.26) montre que l’ensemble CK est une borne
supérieure (au sens de l’inclusion d’ensembles) sur QK. Attardons-nous sur la
dimension de CK. La définition (3.27) montre que
CK ⊂ vect K
LES COLLECTIONS DE L’IFSTTAR
80
Microstructures dans les matériaux à changement de phase
Table 3.1.
Transformation cubique-orthorombique
e1 e2 e3
β 0 0 β 0 0 α 0 δ
0
α δ
0
α −δ
0
β 0
0 δ α 0 −δ α δ 0 α
e4 e5 e6
α 0 −δ α δ 0 α −δ 0
0 β 0 δ α 0 −δ α 0
−δ 0 α 0 0 β −0 0 β
où X
vect K = { xi ei |xi ∈ R}
i=1
est l’espace vectoriel engendré par K. Nous avons dim vect K 6 n, avec égalité
si les déformations e1 ,· · · ,en sont linéairement indépendantes.
Par ailleurs, comme on l’a noté en 3.2, les déformations de transformation
e1 ,· · · ,en sont reliées par symétrie : pour tout (i, j), il existe une rotation Rij
telle que ej = RTij ei Rij . Cette relation implique que tr ei = tr ej : les déformation
de transformation ont même trace.
En notant t cette valeur commune,
vect K ⊂ {ē ∈ R3×3
s | tr ē = t}
ce qui montre que dim vect K 6 5. Par suite on arrive à
dim QK 6 dim CK 6 min(n, 5). (3.28)
3.5. Application à la transformation
cubique-orthorombique
Une application importante des résultats obtenus dans la section précédente
concerne la transformation cubique-orthorombique, observée notamment dans
l’alliage CuAlNi. Il y a dans ce cas 6 déformations de transformation, listées
dans la table 3.1. Les représentations matricielles données dans cette table sont
relatives à la base orthonormale (v 1 , v 2 , v 3 ) du réseau cubique de l’austénite.
L’expression de CK peut être calculée de façon explicite en utilisant la définition
(3.27) (B HATTACHARYA et KOHN, 1997). On obtient que les déformations ē dans
LES COLLECTIONS DE L’IFSTTAR
81
Optimisation de formes en sciences de l’ingénieur
CK sont caractérisées par
tr ē = 2α + β;
min(α, β) 6 ēii 6 max(α, β) pour i = 1, 2, 3; (3.29)
ēii − α
|ējk | 6 δ pour tout {i, j, k} permutation of {1, 2, 3}.
β−α
Or dim CK 6 5 en vertu de la relation (3.28). Or on peut observer à partir de
l’expression (3.29) que CK contient une boule centrée sur (2α + β)I/3 et de
rayon min(δ, 2|α − β|)/3. Par conséquent,
dim CK = 5.
Nous pouvons facilement vérifier que les déformations de transformation
ei dans (3.1) sont compatibles deux à deux. Nous pouvons alors montrer
(B HATTACHARYA, 1993) que QK = CK : l’enveloppe convexe de K donne la valeur
exacte de l’ensemble des déformations à énergie minimale.
Afin d’illustrer ces résultats, considérons des déformations ē(ω, τ ) de la forme
1
ē(ω, τ ) = (2α + β)I + τ (u(ω) ⊗ v(ω) + v(ω) ⊗ u(ω)), (3.30)
3
avec
u(ω) = cos(ω)v 1 + sin(ω)v 2 , v(ω) = − sin(ω)u1 + cos(ω)v 2 .
La représentation matricielle de ē(ω, τ ) dans la base (v 1 , v 2 , v 3 ) est
− sin 2ω cos 2ω 0
2α + β
ē(ω, τ ) = I +τ cos 2ω sin 2ω 0 . (3.31)
3
0 0 0
La déformation ē(ω, τ ) est obtenue en refroidissant un échantillon libre de
contrainte jusqu’à une température inférieure à T crit puis en appliquant un
glissement simple d’amplitude 2τ entre les directions u(ω) et v(ω) (figure 3.5).
Refroidir un échantillon libre de contraintes produit en effet un état auto-
accommodé (évoqué en introduction), dans lequel l’austénite est absente et
toutes les variantes martensitiques apparaissent en même fraction volumique.
Il en résulte une déformation macroscopique égale à (2α + β)/3I. On notera que
la déformation dans l’état auto-accommodé est alors négligeable si (2α + β)/3
est très petit, ce qui est le cas pour les matériaux courants. Par exemple, pour
l’alliage CuAlNi, α = 0.0425, β = −0.0822, δ = 0.0194 (B HATTACHARYA, 1991), ce
qui correspond à une déformation (2α + β)/3 inférieure à 0.01%.
LES COLLECTIONS DE L’IFSTTAR
82
Microstructures dans les matériaux à changement de phase
Figure 3.5.
Exemple de déformations (à gauche la configuration avant déformation, à droite
la configuration après déformations)
On cherche les valeurs (ω, τ ) pour lesquelles la déformation ē(ω, τ ) est
recouvrable, c’est-à-dire pour lesquelles ē(ω, τ ) ∈ QK. L’expression (3.29) permet
directement d’avoir le résultat : on obtient que ē(ω, τ ) est recouvrable tant que
|τ | 6 Cτ (ω) où Cτ (ω) est défini par
A δ
Cτ (ω) = min( , ) (3.32)
| sin 2ω| 3| cos 2ω|
avec
2α + β 2α + β
A = min( − min(α, β), − + max(α, β)).
3 3
La courbe Cτ est représentée figure 3.6 pour l’alliage CuAlNi. Les valeurs
correspondantes des paramètres α, β, δ sont α = 0.0425, β = −0.0822,
δ = 0.0194 (B HATTACHARYA, 1991).
Figure 3.6.
Valeurs de (ω, τ ) telles que ē(ω, τ ) ∈ QK ( CuAlNi)
LES COLLECTIONS DE L’IFSTTAR
83
Optimisation de formes en sciences de l’ingénieur
La valeur Cτ (ω) dépend de ω car le matériau n’est pas isotrope. Nous pouvons
cependant remarquer qu’il existe une valeur τ0 (proche de 0.02 pour l’exemple
étudié) telle que ē(ω, τ ) ∈ QK pour tout |τ | 6 τ0 .
En conclusion, la transformation cubique-orthorombique offre un exemple de
situation où la borne convexe CW donne une bonne estimation de l’énergie
W . Ceci explique que, pour des matériaux obéissant à cette transformation,
la fonction énergie CW a été utilisée dans plusieurs travaux pour étudier la
réponse de structures à l’échelle macroscopique (G OVINDJEE et M IEHE, 2001 ;
Michaël P EIGNEY et al., 2011 ; Michaël P EIGNEY et al., 2013).
Pour d’autres matériaux (et en particulier pour les alliages TiNi, qui sont les plus
couramment utilisés), les déformations de transformation ne sont pas deux à
deux compatibles. La fonction W diffère alors de CW de façon significative, et
il devient nécessaire d’utiliser d’autres bornes sur CW .
3.6. Microstructures laminées
Parmi l’ensemble des microstructures dans C, les microstructures de type laminé
jouent un rôle essentiel dans l’étude de W . Un laminé consiste en un empilement
de couches parallèles, où chaque couche est homogène (c’est-à-dire occupée
par une seule phase).
Le vecteur normal n aux interfaces entre couches successives est appelé
direction de lamination (figure 3.7). Les microstructures laminées sont
caractérisées par des fonctions χ ne dépendant de x qu’à travers la composante
scalaire x.n, ce qu’on notera sous la forme
χ(x) = χ0 (x.n) (3.33)
où χ0 est une fonction d’une variable réelle.
Figure 3.7.
Structure laminée
LES COLLECTIONS DE L’IFSTTAR
84
Microstructures dans les matériaux à changement de phase
Par extension, un champ de déformation e(x) est dit de type laminé s’il vérifie la
même forme de dépendance spatiale que (3.33), à savoir
e(x) = e0 (x.n) (3.34)
où e0 est une fonction d’une variable réelle. Un tel champ e(x) est constitué d’un
empilement de couches parallèles où e(x) est constant.
3.6.1. Condition d’Hadamard
Soit e(x) un champ de déformation de type laminé. Pour que e ∈ A(ē), il est
nécessaire que e(x) dérive d’un champ de déplacement, c’est-à-dire qu’il existe
un déplacement u(x) tel que e = (∇u + ∇T u)/2 dans Ω. Considérons deux
couches successives Ω1 et Ω2 , où e(x) prend respectivement les valeurs e1 et
e2 . Soit Γ l’interface entre Ω1 et Ω2 . La normale n à Γ est orientée de Ω1 vers Ω2 .
Dans Ωi (i = 1, 2), nécessairement
u(x) = ei .x + ω i ∧ x + bi (3.35)
où (ω i , bi ) sont constants. Le terme ω i ∧ x + bi s’interprète comme un
déplacement de corps rigide.
Par ailleurs, en un point x de Γ, la continuité du déplacement implique qu’il existe
un vecteur a tel que
e2 − e1 = a ⊗ n + n ⊗ a (3.36)
où n est la normale à Γ en x.
La condition (3.36) est appelée condition d’Hadamard. En utilisant cette condition,
on obtient que les vecteurs (ω 2 , b2 ) et (ω 1 , b1 ) dans (3.35) sont liés par les
relations
ω2 − ω1 = n ∧ a
(3.37)
b2 − b1 = −2(x.n)a.
Deux déformations données (e1 , e2 ) sont dites géométriquement compatibles si
elles vérifient (3.36) pour un certain couple de vecteurs (a, n). Dans ce cas, il
est possible de construire des champs de déformation intégrable et à valeurs
dans {e1 , e2 }. Ces champs de déformations sont des laminés dont la direction
de lamination est solution de (3.36). Les expressions (3.35) et (3.37) déterminent
alors l’expression du champ de déplacement.
3.6.2. Convexité de rang 1
La construction détaillée précédemment joue un rôle essentiel pour établir
l’inégalité
W (θē1 + (1 − θ)ē2 ) 6 θw(ē1 ) + (1 − θ)w(ē2 ), (3.38)
valable pour toutes déformations compatibles (ē1 , ē2 ) et pour tout θ ∈ [0, 1]. En
fait W vérifie une propriété plus forte, à savoir
W (θē1 + (1 − θ)ē2 ) 6 θW (ē1 ) + (1 − θ)W (ē2 ), (3.39)
LES COLLECTIONS DE L’IFSTTAR
85
Optimisation de formes en sciences de l’ingénieur
pour toutes déformations compatibles (ē1 , ē2 ) et pour tout θ ∈ [0, 1]. Étant donné
que W 6 w (cf Eq. 3.11), la propriété (3.38) est une conséquence directe de
(3.39).
L’inégalité (3.39) n’est pas sans rappeler la propriété caractéristique de la
convexité : une fonction convexe vérifie (3.39) pour tout (ē1 , ē2 ) et θ ∈ [0, 1].
La fonction W vérifie une condition plus faible que la convexité, dans la mesure
où l’inégalité (3.39) n’est satisfaite que si ē1 et ē2 sont compatibles. Une telle
fonction est dite convexe de rang 1.
Pour illustrer cette propriété, reprenons l’exemple du matériau à deux variantes
introduit (3.8)-(3.9). Alors w(0) = min(m0 , 1/2e1 : L : e1 ) > 0. L’inégalité (3.39)
utilisée avec ēi = ei et θ = 1/2 montre que W (0) = 0. Donc W (0) < w(0), ce qui
illustre le fait que W est strictement inférieure à w.
Afin de justifier l’origine de (3.38), considérons un champ de déformations e(x)
de type laminé, alternant des couches d’épaisseur θh où e(x) = e1 avec des
couches d’épaisseur (1 − θ)h où e(x) = e2 . Il est tentant de chercher à démontrer
(3.38)
R en utilisant e dans la definition de W : ce champ est compatible et donne
Ω
w(e) = θw(e1 ) + (1 − θ)w(e2 ).
Comme le champ ne vérifie pas la condition limite sur le bord, une «zone de
transition» Γ est introduite au voisinage et le déplacement y est modifié de façon
à respecter la condition aux limites, tout en s’assurant que la déformation reste
bornée quand la taille de Γ tend vers 0. Plus de détails sur cette construction dans
(B HATTACHARYA, 2003). Les propriétés (3.38)-(3.39) seront utilisées dans la suite
pour obtenir des bornes sur W et sur les déformations à énergie minimale.
3.6.3. Lamination séquentielle
La relation (3.38) permet de construire une borne supérieure sur W . En effet,
pour une déformation ē donnée, on a l’inégalité W (ē) 6 θw(ē1 ) + (1 − θ)w(ē2 )
pour tout (ē1 , ē2 , θ) tel que
(ē1 , ē2 ) compatibles, θ ∈ [0, 1], ē = θē1 + (1 − θ)ē2 . (3.40)
Soit Π(ē) l’ensemble des valeurs vérifiant (3.40). Alors
W (ē) 6 R1 W (ē) (3.41)
avec
R1 W (ē) = inf θw(ē1 ) + (1 − θ)w(ē2 ).
(ē1 ,ē2 ,θ)∈Π(ē)
La fonction R1 W ainsi définie est donc une borne supérieure sur l’énergie
effective W . Pour tout (ē1 , ē2 , θ) ∈ Π(ē), on sait que l’énergie θw(ē1 )+(1−θ)w(ē2 )
est atteinte par une microstructure laminée infiniment fine (selon la construction
évoquée en 3.6.2). La quantité R1 W (ē) peut donc être interprétée comme
l’énergie minimale atteignable par l’ensemble des microstructures laminées.
LES COLLECTIONS DE L’IFSTTAR
86
Microstructures dans les matériaux à changement de phase
En combinant (3.39) et (3.41), on observe que
W (ē) 6 θR1 W (ē1 ) + (1 − θ)R1 W (ē2 )
pour tout (ē1 , ē2 , θ) ∈ Π(ē). Par suite,
W (ē) 6 R2 W (ē), (3.42)
avec
R2 W (ē) = inf θR1 W (ē1 ) + (1 − θ)R1 W (ē2 ).
(ē1 ,ē2 ,θ)∈Π(ē)
Comme il a été vu précédemment, l’énergie θR1 W (ē1 ) + (1 − θ)R1 W (ē2 )
est atteinte par un champ de déformation laminé, à valeurs dans {ē1 , ē2 } et
dont le pas de lamination tend vers 0. Pour chaque déformation ēi , l’énergie
R1 W (ēi ) est elle-même atteinte par une microstructure laminée. L’énergie
θR1 W (ē1 )+(1−θ)R1 W (ē2 ) est ainsi réalisée par un laminé de rang 2 (figure 3.8).
Figure 3.8.
Structure laminée de rang 2
Cet argument peut être poursuivi de façon séquentielle : pour tout r > 1, on a
W (ē) 6 Rr+1 W (ē)
avec
Rr+1 W (ē) = inf θRr W (ē1 ) + (1 − θ)Rr W (ē2 ). (3.43)
(ē1 ,ē2 ,θ)∈Π(ē)
Cette relation est également valable pour r = 0 si l’on adopte la convention
R0 W = w. La quantité Rr W (ē) est l’énergie minimale atteignable par les
microstructures laminées de rang r. Comme conséquence immédiate de la
LES COLLECTIONS DE L’IFSTTAR
87
Optimisation de formes en sciences de l’ingénieur
définition (3.43), on observe que Rr+1 W 6 Rr W : chaque étape de lamination
supplémentaire améliore potentiellement la borne obtenue sur W . On observera
cependant que le coût de calcul augmente (en loi puissance) avec r.
En pratique, pour les problèmes associés aux alliages les plus courants, il est
difficile de dépasser r = 2 (G OVINDJEE, H ACKL et al., 2007). Par ailleurs, en
général W < inf r Rr W , ce qui exprime le fait que les microstructures optimales
ne se limitent pas à la classe des laminés.
L’exploitation de ces bornes est plus facile si l’on se restreint à étudier les
déformations d’énergie minimale. Plaçons-nous à T < T crit et notons m la valeur
minimale de w, atteinte pour e ∈ K. Suppons que deux déformations ei et ej dans
K soient compatibles. Pour tout θ ∈ [0, 1], par (3.41)
m 6 W (θei + (1 − θ)ej ) 6 θw(ei ) + (1 − θ)w(ej ) = m
donc θei + (1 − θ)ej ∈ QK. Il s’ensuit que R1 K ⊂ QK où
[
R1 K = [ei , ej ].
ei ∈K et ej ∈K compatibles
Cet ensemble est une borne inférieure (au sens de l’inclusion d’ensembles) sur
QK. C’est l’ensemble des déformations réalisables par des laminés de rang 1.
Il correspond également à l’ensemble des déformations minimisant la fonction
R1 W .
Comme précédemment, cette construction peut être poursuivie de façon
séquentielle :
Rr K ⊂ QK
où Rr K est l’ensemble des déformations réalisables par des laminés de rang r.
Cet ensemble correspond à l’ensemble des déformations minimisant la fonction
Rr W définie plus haut. De plus, pour tout r > 1
[
Rn+1 K = [ei , ej ].
ei ∈Rn K et ej ∈Rn K compatibles
Cette relation reste valable pour r = 0 en adoptant la convention R0 K = K.
De façon générale, on notera que R0 K est un ensemble discret, c’est-à-dire
un ensemble de dimension 0. L’ensemble R1 K est formé par un ensemble de
segments, c’est-à-dire un ensemble de dimension 1. De la même façon, R2 K
est une surface (dans l’espace des déformations), c’est-à-dire une variété de
dimension 2. De façon itérative
dim Rr K 6 r. (3.44)
LES COLLECTIONS DE L’IFSTTAR
88
Microstructures dans les matériaux à changement de phase
3.7. Problèmes à 4 phases
Afin d’illustrer les bornes par lamination Rr K, considérons un problème à 4
phases K = {e1 , e2 , e3 , e4 }. On choisit
α δ α −δ −
δ α ,
e1 = e2 =
−δ α ,
β − β
(3.45)
α − δ α −δ
− β − ,
e3 = e4 =
β .
−
δ − α −δ − α
On a vu que Rr K ⊂ QK ⊂ CK. Toute déformation ē dans CK admet une
représentation de la forme
3
X 3
X
ē = θi ei + (1 − θi )e4 (3.46)
i=1 i=1
où (θ1 , θ2 , θ3 ) appartient au tétrahèdre T 03 défini par
3
X
T 03 = {(θ1 , θ2 , θ3 )|θi > 0; θi 6 1}.
i=1
Sauf cas particulier, les tenseurs e1 , e2 , e3 et e4 dans (3.46) sont linéairement
indépendants. La décomposition (3.46) d’un tenseur ē est donc unique. En
d’autres termes, la fonction F définie par
F : T 03 → CK
P3 P3 (3.47)
(θ1 , θ2 , θ3 ) −→ i=0 θi ei + (1 − i=1 θi )e4
définit une bijection entre T 03 et CK. En pratique, cette fonction F permet d’obtenir
des représentations tridimensionnelles de CK et de ses sous-ensembles Rr K.
Tout sous-ensemble E peut en effet être identifié à son image réciproque F −1 (E),
qui est un domaine dans R3 . Ainsi, l’enveloppe convexe s’identifie au tétrahèdre
T 03 , et les déformations ei dans K s’identifient aux 4 sommets du tétrahèdre. Il
est vérifié à partir des expressions (3.45) que {e1 , e2 } et {e3 , e4 } sont les seules
paires de variantes compatibles dans K. Donc
R1 K = [e1 , e2 ] ∪ [e3 , e4 ].
Cet ensemble (de dimension 1, c’est-à-dire une courbe) est représenté sur la
figure 3.9.
LES COLLECTIONS DE L’IFSTTAR
89
Optimisation de formes en sciences de l’ingénieur
Figure 3.9.
Bornes par laminations de rang 1 pour un problème à 4 phases
L’ensemble R2 K est formé des déformations de la forme
θ(ae1 + (1 − a)e2 ) + (1 − θ)(be3 + (1 − b)e4 ) (3.48)
où (θ, a, b) sont dans [0, 1] et tels que les déformations
{ae1 + (1 − a)e2 , be3 + (1 − b)e4 } sont compatibles.
Cet ensemble R2 K de dimension 2, c’est-à-dire une surface, est représenté
figure 3.10.
Figure 3.10.
Bornes par laminations de rang 2 pour un problèmes à 4 phases
Pour a donné, il existe en effet au plus 2 valeurs de b tels que
{ae1 + (1 − a)e2 , be3 + (1 − b)e4 } sont compatibles.
LES COLLECTIONS DE L’IFSTTAR
90
Microstructures dans les matériaux à changement de phase
Les points de R2 K sont donc paramétrés par les variables (b, θ), ce qui exprime
le fait que R2 K est une surface.
L’ensemble R3 K, défini à partir de R2 K via (3.43), est représenté figure 3.11.
C’est un domaine de volume non nul.
Figure 3.11.
Bornes par laminations de rang 3 pour un problèmes à 4 phases
On a la chaîne d’inclusions
K = R0 K ⊂ R1 K ⊂ · · · ⊂ Rr K ⊂ QK ⊂ CK ⊂ vect(K)
ce qui exprime le fait que Rn K et CK donnent un encadrement (au sens de
l’inclusion d’ensembles) sur QK. Comme tous les ensembles considérés sont
dans l’espace vectoriel vect(K), la qualité de l’encadrement obtenu peut être
estimée en comparant la mesure de ces ensembles dans vect(K). Pour un
ensemble E donné dans vect K, sa mesure |E| est définie par
Z
|E| = χE (e)de (3.49)
e∈vect(K)
où χE (e) est égal à 1 si e ∈ E, et nul sinon. La mesure |E| d’un ensemble donné E
est directement reliée au volume (dans R3 ) de sa représentation tridimensionnelle
F −1 (E). En effet, comme F est affine,
Z
|E| = J dθ (3.50)
θ ∈F −1 (E )
où J est le jacobien de F et égal au produit mixte [e1 − e4 , e2 − e4 , e3 − e4 ].
Par exemple, comme F −1 (CK) = T 03 et θ ∈T 0 dθ = 1/6, alors
R
3
LES COLLECTIONS DE L’IFSTTAR
91
Optimisation de formes en sciences de l’ingénieur
1
|CK| = [e1 − e4 , e2 − e4 , e3 − e4 ].
6
On a |R1 K| = |R2 K| = 0 car R1 K et R2 K sont respectivement une courbe et une
surface. Par contre, R3 K a une mesure non nulle.
On pourrait espérer obtenir un ensemble plus grand en poursuivant le processus
de lamination. Cependant, à la précision numérique des calculs près, on obtient
que R4 K = R3 K (et par suite que Rr K = R3 K pour r > 3).
Cette construction peut être réalisée pour tout problème à 4 phases (on
trouvera d’autres exemples dans (Michaël P EIGNEY, 2013a)). Notons que si les
déformations ei sont toutes incompatibles entre elles, alors R1 K = K et par suite
Rr K = K pour tout r > 1. Ceci n’implique pas que QK = K. Par exemple, même
si e1 , e2 , e3 sont incompatibles, il peut exister e ∈ [e2 , e3 ] compatible avec e1 ,
auquel cas [e2 , e] ⊂ QK (B HATTACHARYA, F IROOZYE et al., 1994).
À l’inverse, si toutes les déformations e1 , e2 , e3 , e4 sont compatibles deux à deux,
alors on peut montrer (B HATTACHARYA, 1993) que
R3 K = QK = CK.
Cette propriété n’est pas limitée au cas de 4 phases et s’étend au cas plus
général K = {e1 , · · · , en } : si les déformations ei sont deux à deux compatibles,
alors
Rn−1 K = QK = CK. (3.51)
Dans ce cas, l’ensemble des déformations minimisant W coïncide avec
l’enveloppe convexe de K. De plus, toute déformation dans QK est réalisée par
une microstructure laminée de rang n − 1. Ceci n’exclut pas la formation d’autres
microstructures.
3.8. Bornes inférieures non convexes sur W
La borne (3.24) peut être améliorée en utilisant la méthode de translation (L URIE
et al., 1984 ; M URAT et al., 1985 ; M ILTON, 2004). L’idée centrale est d’appliquer
la démarche précédente en remplaçant wi par wi − u où u est une fonction à ce
stade arbitraire. Tant que wi − u est convexe pour tout i, les relations générales
écrites au paragraphe précédent restent valables : on a
(W − U ) = −(W − U )∗ (3.52)
où
n
Z X
1
(W − U ) = inf χi (x)(wi − u)(e)dω (3.53)
e∈A(ē) |Ω| Ω i=0
LES COLLECTIONS DE L’IFSTTAR
92
Microstructures dans les matériaux à changement de phase
et
n
Z X
1
(W − U )∗ = inf χi (x)(wi − u)∗ (σ)dω − ē : σ̄. (3.54)
σ | div σ =0 |Ω| Ω i=0
Le raisonnement suit les mêmes lignes que précédemment : en se restreignant
à des champs σ constants dans (3.54), on obtient une majoration sur (W − U )∗ ,
dont on déduit - via la formule de Clapeyron (3.52) - une minoration sur (W − U ).
Plus précisément :
( n
)
X
sup ē : σ̄ − θi (wi − u)∗ (σ̄) 6 (W − U ). (3.55)
σ̄ i=0
Supposons que u est quasiconvexe, c’est-à-dire vérifie
Z
1
u(e)dω > u(ē)
|Ω| Ω
pour tout e ∈ A(ē). Alors
n
Z X n
Z X
χi (x)(wi − u)(e) dω 6 −|Ω| u(ē) + χi (x)wi (e) dω.
Ω i=0 Ω i=0
On obtient ainsi la relation
n
1 X
u(ē) + sup{ē : σ̄ − θi (wi − u)∗ (σ̄)} 6 W (ē; χ). (3.56)
|Ω| σ̄ i=0
Le membre de gauche est une borne inférieure sur W (ē; χ).
Pour obtenir des bornes explicites, il faut préciser et bien choisir le potentiel u
utilisé. Une voie explorée dans (Michaël P EIGNEY, 2009) est de considérer des
fonctions u quadratiques, c’est-à-dire pouvant s’écrire sous la forme
1
u(e) = e:K:e
2
où K est un tenseur symétrique d’ordre 4. Pour les fonctions quadratiques, on
sait en particulier que la quasiconvexité est équivalente à la convexité de rang
1, condition plus facile à manipuler. Tant que L − K est défini positif, alors
(wi − u)∗ (σ̄) est fini et donné par
1 1
(wi − u)∗ (σ̄) = (σ̄ + L : ei ) : (L − K)−1 : (σ̄ + L : ei ) − ei : L : ei − mi .
2 2
En remplaçant dans (3.56) puis en maximisant par rapport à σ̄ ;
W (ē; θ) > CW (ē, θ) + G(θ, K) (3.57)
LES COLLECTIONS DE L’IFSTTAR
93
Optimisation de formes en sciences de l’ingénieur
avec CW (ē, θ) donné par (3.23) et
n n n
1 X X 1X
G(θ, K) = − ( θi ei ) : M (K) : ( θi ei ) + θi ei : M (K) : ei
2 i=0 i=0
2 i=0
où
M (K) = L − L : (L − K)−1 : L.
L’inégalité (3.57) vaut pour tout K quasiconvexe tel que L − K > 0.
En considérant une famille C de tenseurs K quasiconvexes, alors
W (ē; θ) > CW (ē, θ) + G(θ)
avec
n n n
1 X X 1X
G(θ) = sup − ( θi ei ) : M (K) : ( θi ei ) + θi ei : M (K) : ei .
K ∈C |L−K >0 2 i=0 i=0
2 i=0
(3.58)
Une telle famille C peut être construite en considérant les fonctions de la forme
e 7→ −a : e∗ où a est symétrique positif et e∗ est le tenseur adjugué de e, donné
en représentation matricielle (dans une base orthonormée) par
e∗ii = ejj ekk − e2jk , e∗jk = (−1)i+j (eji eki − ejk eii )
pour toute permutation {i, j, k} de {1, 2, 3}. Nous pouvons vérifier que la fonction
quadratique e 7→ −a : e∗ est quasi-onvexe si a > 0 (Michaël P EIGNEY, 2008).
Soit K(a) le tenseur symétrique d’ordre 4 tel que 12 e : K(a) : e = −a : e∗ pour
tout e. En représentation matricielle, K(a) est défini par les relations
Kiijj = −akk , Kiijk = Kjkii = 12 ajk , Kijij = Kjiij = 21 akk ,
(3.59)
Kijik = Kjiik = Kijki = Kjiki = − 14 ajk
pour toute permutation {i, j, k} de {1, 2, 3}. En utilisant la famille de fonctions
quasiconvexes ainsi définie, l’expression (3.58) devient
1X
G(θ) = sup θi θj (ei − ej ) : M (a) : (ei − ej ) (3.60)
a>0|L−K (a)>0 4 i,j
où M (a) = L − L : (L − K(a))−1 : L.
Nous pouvons trouver dans (Michaël P EIGNEY, 2013c ; Michaël P EIGNEY, 2009)
des illustrations de la borne énergétique (3.57).
Ici nous utilisons cette borne pour estimer l’ensemble des déformations à énergie
macroscopique minimale.
Pn Pour T < T crit , toute déformation ē ∈ QK peut s’écrire
sous la forme ē = i=1 θi ei où θ ∈ T vérifie G(θ) = 0. Nous pouvons montrer
LES COLLECTIONS DE L’IFSTTAR
94
Microstructures dans les matériaux à changement de phase
(Michaël P EIGNEY, 2013a) que
X
G(θ) = 0 ⇐⇒ θi θj (ei − ej )∗ 6 0.
i,j
Par conséquent,
QK ⊂ P K
où
Xn X
PK = { ei |θ ∈ T ; θi θj (ei − ej )∗ 6 0}.
i=1 i,j
Cet ensemble est inclus dans l’enveloppe convexe CK et fournit donc en général
une borne plus précise que CK.
3.9. Transformations cubiques-monocliniques
Nous nous intéressons dans cette section aux transformations cubiques-
monocliniques, pour lesquelles il y a 12 variantes de martensite. Il y a deux types
de transformations cubiques-monocliniques, listées dans les tables 3.2 et 3.3.
Comme pour la table 3.1, les représentations matricielles sont relatives au repère
orthonormé de la structure cubique de l’austénite.
Pour ces deux types de transformation, chaque variante est compatible avec
seulement 7 des 11 autres. En particulier, les variantes ne sont pas deux à deux
compatibles, et l’on peut montrer que les ensembles QK pour ces transformations
ne sont pas convexes (B HATTACHARYA et KOHN, 1997 ; Michaël P EIGNEY, 2013a).
La structure de l’ensemble QK a jusqu’à présent été étudiée principalement à
l’aide de bornes convexes. Puisque QK n’est pas convexe, de telles bornes sont
nécessairement strictes. Par exemple, l’enveloppe convexe de K a été utilisée
comme borne supérieure pour étudier les déformations recouvrables dans les
alliages NiTi (S HU et al., 1998). Une borne inférieure convexe a été proposée
dans (B HATTACHARYA et KOHN, 1997) en observant que e2i−1 and e2i sont
compatibles pour i = 1, · · · , 6.
Il en découle que QK contient les déformations e0i = (e2i−1 + e2i )/2. Ces
déformations e0i correspondent à la transformation cubique-orthorombique (voir
table 3.1) : on sait que les tenseurs e0i sont deux à deux compatibles. Par
conséquent, QK contient l’enveloppe convexe S de e01 , · · · , e06 , donnée par les
expressions (3.29). En d’autres termes, l’ensemble S défini par (3.29) est une
borne inférieure convexe sur QK. Ceci prouve en particulier que QK est de
dimension 5 pour les transformations monocliques.
Une représentation schématique des bornes convexes S et CK est donnée
figure 3.12. Y sont représentées les 12 déformations ei comme des points
cocycliques. Les déformations qui sont compatibles sont reliées par un segment
(par souci de lisibilité, chaque déformation ei est représentée comme étant
compatible avec seulement 2 des 11 autres). La borne inférieure S (en vert) est
LES COLLECTIONS DE L’IFSTTAR
95
Optimisation de formes en sciences de l’ingénieur
l’enveloppe convexe de 6 points particuliers obtenus comme milieux de segments
reliant deux déformations compatibles. La borne supérieure CK est l’union des
domaines verts et rouges.
Table 3.2.
Transformation cubique-monoclinique-I
eI1 eI2 eI3 eI4
α δ α δ − α −δ − α −δ
δ
α
δ
α −
−δ
α −δ
α −
β − − β − β − β
eI5 eI6 eI7 eI8
α δ α − δ α − −δ α −δ
− −
− −
β β β
β
δ α δ − α −δ α −δ − α
eI9 eI10 eI11 eI12
β β − − β − β −
− − α −δ −δ
α δ α δ α
δ α − δ α −δ α − −δ α
Table 3.3.
Transformation cubique-monoclinique-II
eII
1 eII
2 eII
3
α+ δ 0 α− δ 0 α+ −δ 0
δ α− 0
δ α+ 0
−δ α− 0
0 0 β 0 0 β 0 0 β
eII
4 eII
5 eII
6
α− −δ 0 α+ 0 δ α− 0 δ
−δ α+ 0
0 β 0
0 β 0
0 0 β δ 0 α− δ 0 α+
eII
7 eII
8 eII
9
α+ 0 −δ α− 0 −δ β 0 0
0 β 0
0 β 0
0
α− δ
−δ 0 α− −δ 0 α+ 0 δ α+
eII
10 eII
11 eII
12
β 0 0 β 0 0 β 0 0
0
α+ δ 0
α− −δ
0
α+ −δ
0 δ α− 0 −δ α+ 0 −δ α−
LES COLLECTIONS DE L’IFSTTAR
96
Microstructures dans les matériaux à changement de phase
Figure 3.12.
Représentation schématique des bornes pour les problèmes à 12 phases
L’écart peut être estimé entre les bornes convexes S et CK en comparant la
mesure (dans vect K) de ces deux ensembles. La valeur exacte de |S| est
calculable à partir de l’expression analytique (3.29) de S. En l’absence d’une
expression exacte pour CK, C|K| peut être estimé numériquement en utilisant un
algorithme général de calcul d’enveloppe convexe (B ARBER et al., 1996).
La table 3.4 reporte les valeurs |S|/|CK| obtenues pour différents matériaux. On
observe que le rapport |S|/|CK| est relativement petit (< 0.18), surtout pour la
transformation monoclinique-I (< 0.07). Ceci indique que l’écart entre les deux
bornes S et CK est relativement grand. On cherche dans la suite à réduire cet
écart en considérant des bornes non convexes sur QK.
Table 3.4.
Mesures des différentes bornes (exprimées en fonction de |CK|)
matériau |S|/|CK| |S1 K|/|CK| |S2 K|/|CK| |P K|/|CK|
monoclinique-I
Ni-49.75Ti 0.0645 0.543 0.824 0.994
CuZr 0.0543 0.547 0.865 0.998
monoclinique-II
Cu-20Zn-12Ga 0.154 0.576 0.787 0.922
Cu-39.3Zn 0.131 0.539 0.761 0.924
Cu-15Zn-17Al 0.176 0.592 0.756 0.917
β10 Cu-14Al-4Ni 0.0915 0.470 0.706 0.918
Pour construire une borne inférieure, on peut penser utiliser les ensembles Rr K
introduits précédemment. On se heurte en pratique à une difficulté de taille :
d’après (3.44), il est nécessaire de prendre r > 5 pour obtenir un ensemble Rr K
de mesure non nulle. Or, le coût de calcul augmente très rapidement avec le rang
r de lamination. En présence de 12 déformations de transformation, il s’avère
très difficile numériquement de dépasser r = 2. Une autre stratégie explorée
LES COLLECTIONS DE L’IFSTTAR
97
Optimisation de formes en sciences de l’ingénieur
dans (Michaël P EIGNEY, 2013a) est de considérer des déformations compatibles
entre S et Rr K, c’est-à-dire de considérer l’ensemble Sr K défini par
[
Sr K = [e, e0 ]. (3.61)
e∈Rr K,e0 ∈S
det(e−e0 )=0
Cet ensemble contient S et a donc une mesure non nulle pour tout r > 1. On
peut ainsi se contenter d’une faible valeur de r (typiquement r 6 2), permettant
de mener à bien les calculs. Les résultats obtenus, reportés dans la table 3.4
confirment la pertinence de cette approche : la borne Sr K améliore la borne S de
façon significative. L’écart entre les meilleures bornes disponibles (à savoir S2 K et
P K) se retrouve largement réduit par rapport au résultat obtenu avec les bornes
convexes (S et CK). Il en découle une meilleure estimation de l’ensemble QK.
En comparant les résultats obtenus pour la transformation monoclinique-I avec
ceux obtenus pour la transformation monoclinique-II, on constate que
|P KII | |P KI |
< ,
|CKII | |CKI |
Ce résultat s’interprète comme suit : pour la transformation monoclinique-
I, l’ensemble P KI est plus proche de l’enveloppe convexe K que pour la
transformation monoclinique-II. La borne S2 K vérifie la même propriété. Ceci
suggère que QK est plus proche de CK pour la transformation monoclinique-I.
Bien que le calcul de mesures soit instructif et permet d’avoir une vision
globale, il ne caractérise pas complètement les différentes bornes introduites.
Afin d’illustrer les bornes obtenues de façon différente, considérons comme
en 3.5 les déformations ē(ω, τ ) de la forme 3.31. On pose
Cτ (ω) = sup{τ |ē(ω, τ ) ∈ CK} , Qτ (ω) = sup{τ |ē(ω, τ ) ∈ QK},
P τ (ω) = sup{τ |ē(ω, τ ) ∈ P K} , Sr τ (ω) = sup{τ |ē(ω, τ ) ∈ Sr K}.
La chaîne d’inclusions S ⊂ S1 K ⊂ S2 K ⊂ QK ⊂ P K ⊂ CK implique que
Sτ 6 S1 τ 6 S2 τ 6 Qτ 6 P τ 6 Cτ. (3.62)
Ces fonctions sont représentées figure 3.13 pour Ni-49.75Ti (monoclinique-
I martensite) et figure 3.14 pour l’alliage β10 Cu-14Al-4Ni (monoclinique-II
martensite).
Pour l’alliage β10 Cu-14Al-4Ni, les fonctions P τ et S2 τ sont très proches, donnant
ainsi une bonne estimation de la fonction Qτ qui caractérise l’enveloppe quasi-
convexe. L’écart entre P τ and S2 τ n’est pas aussi faible pour l’alliage Ni-49.75Ti,
mais on observe néanmoins une amélioration significative par rapport à la borne
convexe Sτ .
LES COLLECTIONS DE L’IFSTTAR
98
Microstructures dans les matériaux à changement de phase
Figure 3.13.
Bornes sur les valeurs (ω, τ ) telles que ē(ω, τ ) ∈ QKI
Figure 3.14.
Bornes sur les valeurs (ω, τ ) telles que ē(ω, τ ) ∈ QKII
LES COLLECTIONS DE L’IFSTTAR
99
Optimisation de formes en sciences de l’ingénieur
3.10. Conclusion
Comme il a été montré dans ce chapitre, l’étude du comportement des alliages
à mémoire de forme repose sur un problème d’optimisation de formes. Celui-
ci consiste à chercher les distributions spatiales des différentes phases qui
minimisent l’énergie totale. Bien que la solution exacte reste en général hors
de portée, on a présenté différentes bornes qui permettent, au moins dans
certains cas, d’obtenir une estimation relativement précise des microstructures
(voir par exemple (S HU et al., 1998) pour des comparaisons avec des résultats
expérimentaux). Ces bornes sont susceptibles d’améliorations, et des progrès
continuent d’être réalisés dans cette voie (C HENCHIAH et al., 2013).
Les microstructures auxquelles on s’est intéressé dans ce chapitre correspondent
à une contrainte macroscopique nulle, mais on peut de la même façon
étudier les microstructures associées à une contrainte macroscopique arbitraire
(Michaël P EIGNEY, 2009 ; G OVINDJEE, H ACKL et al., 2007 ; G OVINDJEE et M IEHE,
2001). Ceci permet notamment de suivre l’évolution des microstructures au
cours d’un cycle de chargement mécanique. Notons également que l’approche
présentée peut être étendues aux polycristaux ainsi qu’aux grandes déformations
(Michaël P EIGNEY, 2008 ; Michaël P EIGNEY, 2013b ; Michaël P EIGNEY, 2016)
mais l’analyse devient beaucoup plus complexe. Enfin, au delà du cadre des
alliages à mémoire de forme, on notera qu’une problématique similaire se
retrouve dans d’autres matériaux (ferroélectriques par exemple). Nous pouvons
en particulier citer la découverte récente de nouveaux alliages qui offrent des
perspectives nouvelles en matière de récupération d’énergie thermique (S ONG
et al., 2013).
Bibliographie
N.H. Andersen, Bente Lebech et Henning Friis Poulsen. « The structural
phase-diagram and oxygen equilibrium partial-pressure of YBa2 Cu3 O6 + x
studied by neutron powder diffraction and gas volumetry ». In : Physica C :
Superconductivity and its Application 172 (1990), pages 31-42.
C. Bradford Barber, David P. Dobkin, David P. Dobkin et Hannu Huhdanpaa.
« The Quickhull Algorithm for Convex Hulls ». In : ACM Trans. Math. Softw. 22.4
(déc. 1996), pages 469-483. ISSN : 0098-3500. DOI : 10.1145/235815.235821.
Kaushik Bhattacharya. « Comparison of the geometrically nonlinear and linear
theories of martensitic transformations ». In : Continuum Mechanics and
Thermodynamics 5 (1993), pages 205-242.
Kaushik Bhattacharya. Microstructure and Martensite : Why it Forms and how
it Gives Rise to the Shape-memory Effect. Tome 2. Oxford University Press,
2003.
Kaushik Bhattacharya. « Wedge-like microstructure in martensites ». In : Acta
Metallurgica et Materialia 39 (1991), pages 2431-2444.
LES COLLECTIONS DE L’IFSTTAR
100
Microstructures dans les matériaux à changement de phase
Kaushik Bhattacharya, Nikan B. Firoozye, Richard D. James et Robert V.
Kohn. « Restrictions on microstructure ». In : Proceedings of the Royal Society
of Edinburgh : Section A Mathematics 124.05 (1994), pages 843-878.
Kaushik Bhattacharya et Robert V. Kohn. « Energy minimization and the
recoverable strains in polycrystalline shape memory alloys ». In : Arch. Rational
Mech. Anal. 139 (1997), pages 99-180.
Isaac Vikram Chenchiah et Anja Schlömerkemper. « Non-laminate
microstructures in monoclinic-I martensite ». In : Archive for Rational
Mechanics and Analysis 207.1 (2013), pages 39-74.
Bernard Dacorogna. Direct Methods in the Calculus of Variations. Springer,
2008.
Bernard Dacorogna. « Quasiconvexity and relaxation of non convex variational
problems. » In : J. Funct. Anal. 46 (1982), pages 102-118.
Sanjay Govindjee, Klaus Hackl et Richard Heinen. « An upper bound to the
free energy of mixing by twin-compatible lamination for n-variant martensitic
phase transformations ». In : Continuum Mechanics and Thermodynamics
18.7-8 (2007), pages 443-453.
Sanjay Govindjee et Christian Miehe. « A multi-variant martensitic phase
transformation model : formulation and numerical implementation ». In :
Comput. Mech. Appli. Mech. Eng. 191 (2001), pages 215-238.
Philippe Hannequart, Michaël Peigney, Jean-François Caron, Olivier
Baverel et Emmanuel Viglino. « The Potential of Shape Memory Alloys in
Deployable Systems—A Design and Experimental Approach ». In : Humanizing
Digital Reality. Springer Singapore, sept. 2017, pages 237-246. DOI : 10.1007/
978-981-10-6611-5_21.
Robert V. Kohn. « Relaxation of a double-well energy ». In : Continuum
Mechanics and Thermodynamics 3 (1991), pages 193-236.
Konstantin A. Lurie et Andrej V. Cherkaev. « Exact estimates of conductivity of
composites formed by two isotropically conducting media taken in prescribed
proportion ». In : Proceedings of the Royal Society of Edinburgh : Section A
Mathematics 99 (1984), pages 71-87.
Graeme W. Milton. The theory of composites. Cambridge University Press, 2004.
François Murat et Luc Tartar. « Calcul des variations et homogénisation ». In :
Les méthodes de l’homogénisation : théorie et applications en physique. 1985,
pages 319-369.
Michaël Peigney. « A non-convex lower bound on the effective free energy
of polycrystalline shape memory alloys ». In : Journal of the Mechanics and
Physics of Solids 57 (2009), pages 970-986.
Michaël Peigney. « Improved bounds on the energy-minimizing strains in
martensitic polycrystals ». In : Continuum Mechanics and Thermodynamics 28
(2016), pages 923-946.
LES COLLECTIONS DE L’IFSTTAR
101
Optimisation de formes en sciences de l’ingénieur
Michaël Peigney. « On the energy-minimizing strains in martensitic
microstructures Part 2 : Geometrically linear theory ». In : Journal of the
Mechanics and Physics of Solids (2013).
Michaël Peigney. « On the energy-minimizing strains in martensitic
microstructures-Part 1 : Geometrically nonlinear theory ». In : Journal of
the Mechanics and Physics of Solids (2013).
Michaël Peigney. « Recoverable strains in composite shape-memory alloys ».
In : Journal of the Mechanics and Physics of Solids 56 (2008), pages 360-375.
Michaël Peigney. « Stress-Free Strains in Martensitic Microstructures ». In :
Materials Science Forum. Tome 738. Trans Tech Publ. 2013, pages 10-14.
Michaël Peigney et Jean-Philippe Seguin. « An incremental variational
approach to coupled thermo-mechanical problems in anelastic solids.
Application to shape-memory alloys ». In : International Journal of Solids and
Structures 50.24 (2013), pages 4043-4054.
Michaël Peigney, Jean-Philippe Seguin et Eveline Hervé-Luanco.
« Numerical simulation of shape memory alloys structures using interior-
point methods ». In : International Journal of Solids and Structures 48 (2011),
pages 2791-2799.
Jean Salencon. Mécanique des Milieux Continus. Éditions de l’École
Polytechnique, 2007.
Y.C. Shu et Kaushik Bhattacharya. « The influence of texture on the shape-
memory effects in polycrystals ». In : Acta Mater. 15 (1998), pages 5457-5473.
Valery Smyshlyaev et J.R. Willis. « On the relaxation of a three-well energy ».
In : Proc. R. Soc. Lond. A 455 (1998), pages 779-814.
Yintao Song, Xian Chen, Vivekanand Dabade, Thomas W. Shield et
Richard D. James. « Enhanced reversibility and unusual microstructure of a
phase-transforming material ». In : Nature 502.7469 (2013), pages 85-88.
LES COLLECTIONS DE L’IFSTTAR
102
Chapitre 4
Optimisation globale pour les
contours actifs
Pierre CHARBONNIER 1 , Jean-Philippe TAREL 2
Résumé – Les contours actifs sont des courbes déformables que l’on vient
positionner dans les images pour y capturer des structures d’intérêt : on
parle de segmentation d’images. La plupart du temps, cet ajustement est
formulé comme l’optimisation d’une fonctionnelle d’énergie, caractérisée
par la présence de nombreux minima locaux, correspondant à des
solutions peu pertinentes.
Dans ce chapitre, nous passons en revue les principaux modèles de
contours actifs existants, puis nous décrivons des solutions récemment
développées, assurant la détermination de solutions globalement
optimales. Il s’agit, d’une part, d’algorithmes de calcul de chemins
optimaux et, d’autre part, de techniques de relaxation convexe. Les
premiers, adaptés à la recherche de courbes optimales entre deux points,
procèdent par propagation d’une distance géodésique et rétro-parcours.
Les secondes, applicables à certaines formes de contours actifs orientés
région, se positionnent dans un espace convexe, en cherchant une
approximation de la fonction caractéristique des régions, et optimisent une
fonctionnelle elle aussi convexe.
4.1. Introduction
L’une des tâches récurrentes en analyse d’images est la segmentation, qui
consiste à partitionner les images en régions correspondant à un fond et à un
1. CEREMA/ENDSUM
2. IFSTTAR/COSYS
LES COLLECTIONS DE L’IFSTTAR
103
Optimisation de formes en sciences de l’ingénieur
ou plusieurs objets d’intérêt. Bien qu’elle paraisse simple pour un opérateur
humain, cette action n’est pas facile à automatiser, à cause de la variabilité
d’aspect, parfois très complexe, des objets et du fait des perturbations, souvent
importantes, des observations. Une réponse classique à ces difficultés est
d’utiliser des modèles des objets ou de leurs contours. Pour cela, on utilise
souvent des figures géométriques, des courbes ou des surfaces, dont la position,
la forme, voire la topologie sont gouvernées par un nombre plus ou moins
important de paramètres : on parle de modèles déformables (figure. 4.1).
Certains d’entre eux sont spécifiques à des classes d’objets particulières, par
exemple : des polygones pour modéliser des objets manufacturés. D’autres,
moins contraints, sont adaptés à une grande variétés d’applications.
Figure 4.1.
Exemples de modèles déformables. Une courbe permet de segmenter la
silhouette d’un animal (a) ou suivre une fissure dans une image (b). Une
combinaison de polygones est adaptée à la segmentation d’un objet manufacturé
(c)
(a) (b) (c)
C’est le cas d’une des familles les plus connues de modèles déformables :
les contours actifs ou snakes (K ASS et al., 1988). Il s’agit de courbes (en
analyse d’images 2D) ou de surface (en 3D), dont l’évolution est décrite par une
équation aux dérivées partielles, souvent associée à l’optimisation d’une fonction
ou critère. Cette dernière quantifie l’adéquation de la forme en évolution à l’objet
recherché en termes de données image. De plus, elle pénalise les configurations
a priori les moins adaptées à la résolution du problème. La segmentation peut
alors être vue comme la recherche d’une forme optimale, au sens de ce critère.
Ce paradigme peut être décliné de nombreuses façons, ce qui a fait le succès des
contours actifs, dont un grand nombre de variantes ont été proposées au cours
des 25 dernières années. Cependant, il est apparu très tôt que la mise en œuvre
algorithmique de l’équation d’évolution ne permettait qu’une optimisation locale
de l’énergie associée à la courbe.
Il en résulte que celle-ci a un fort risque de rester « coincée » dans une
configuration insatisfaisante, proche de son initialisation, surtout en présence
de perturbations ou pour des images complexes. Cette sensibilité au bruit
et à l’initialisation, le manque d’attractivité des modèles image, mais aussi
l’impossibilité de gérer des changements de topologie de la courbe en cours
LES COLLECTIONS DE L’IFSTTAR
104
Optimisation globale pour les contours actifs
d’évolution ont rapidement été identifiés comme les inconvénients majeurs des
contours actifs. Ce constat a amené de nombreux chercheurs à travailler à la
définition d’approches plus performantes et plus optimales, avec des niveaux plus
ou moins importants d’interaction avec l’utilisateur.
Dans la première partie de ce chapitre (§ 4.2) nous présentons de manière
synthétique le modèle initial des contours actifs, ainsi que deux de ses principales
évolutions : les contours actifs géodésiques et les contours actifs orientés région.
Les premiers sont, comme leur nom l’indique, fondés sur l’optimisation d’une
distance géodésique associée à la courbe en évolution. Les seconds recherchent
une partition optimale de l’image en régions statistiquement homogènes.
Les deux dernières parties sont consacrées aux algorithmes permettant
d’atteindre l’optimum global dans chacun des deux cas : nous verrons comment
exploiter le principe de moindre action pour trouver la courbe géodésique
optimale reliant deux points désignés par l’utilisateur (§ 4.3) et comment des
techniques de relaxation convexe permettent d’atteindre le minimum global pour
une famille particulière de contours actifs région (§ 4.4).
4.2. Les contours actifs
Dans cette partie, nous proposons d’abord quelques rappels sur le modèle initial
des contours actifs, ou snakes, proposé par Kass et al. (K ASS et al., 1988) en
1988. Très générique, relativement simple à implanter, mais souffrant aussi d’un
certain nombre de limitations, ce modèle a engendré une abondante littérature.
Nous présentons ensuite deux évolutions majeures de ce modèle, les contours
actifs géodésiques et les contours actifs région, et renvoyons le lecteur à
(C HARBONNIER, 2012) pour une synthèse bibliographique plus fournie.
4.2.1. Les contours actifs classiques
Le modèle des contours actifs est, dans le cas de la segmentation en 2D, une
courbe paramétrique Γ : [a, b] ⊂ R → R2 , ouverte ou fermée, à laquelle est
associée une énergie à minimiser pour obtenir la segmentation :
Z b Z b Z b
E(Γ) = α |Γ0 (q)|2 dq + β |Γ00 (q)|2 dq + λ g(|∇I(Γ(q))|)dq. (4.1)
a a a
Les deux premiers termes mesurent l’élasticité et la rigidité de la courbe et leur
minimisation tend donc à la régulariser. Le troisième terme mesure l’adéquation
de la courbe à l’image. La fonction de potentiel, g, étant choisie décroissante, ce
terme est minimum lorsque la courbe se situe sur les bords de l’objet à segmenter
(là où le gradient de l’image, ∇I, est le plus fort). Les coefficients α, β et λ sont,
la plupart du temps, réglés par l’utilisateur.
Notons que la formulation initiale contenait des termes supplémentaires,
permettant l’interaction avec un opérateur.
LES COLLECTIONS DE L’IFSTTAR
105
Optimisation de formes en sciences de l’ingénieur
La plupart du temps, l’optimisation de la fonctionnelle est effectuée par une
technique de descente de gradient. Cela conduit à une équation aux dérivées
partielles, appelée équation d’évolution du contour actif :
∂Γ(q)
= αΓ00 (q) − βΓ(4) (q) −λ∇g(|∇I(Γ(q))|), (4.2)
∂t | {z }| {z }
FIN T (Γ) FIM A (Γ,I)
où Γ00 et Γ(4) représentent les dérivées spatiale seconde et quatrième,
respectivement, de Γ et t est un temps artificiel. En discrétisant l’équation (4.2)
en temps, on obtient pour chaque point de la courbe :
Γt+1 (q) = Γt (q) + δt (FIN T (q) + FIM A (q)) . (4.3)
L’évolution spatiale de chaque point de la courbe au cours du temps peut donc
être vue comme la résultante de deux forces : une force interne, régularisante,
(FIN T ) et une force image (FIM A ).
Leur effet est illustré, dans un cas simplifié, sur la figure 4.2.
Figure 4.2.
(a) Illustration de la force interne FIN T dans le cas purement élastique, i.e. β = 0 :
chaque point de la courbe est attiré vers le point milieu de ses voisins (noté
ΓM ). (b) Illustration de la force image, selon un profil 1D perpendiculaire à un
contour dans l’image : chaque point de la courbe est attiré vers le fond du puits
de potentiel g
Discrétisation
(a) (b)
LES COLLECTIONS DE L’IFSTTAR
106
Optimisation globale pour les contours actifs
Malgré les nécessaires précautions à prendre sur le choix des pas de
discrétisation (spatial et temporel), le modèle originel est simple à mettre en
œuvre. Par contre, il souffre d’un certain nombre de limitations, voire de défauts.
Ainsi, le terme élastique confère au contour actif un sens d’évolution préférentiel
en contraction. La « force ballon » (force d’intensité constante, colinéaire à la
normale au contour (T ERZOPOULOS et al., 1988 ; L. D. C OHEN, 1991)) permet de
combattre l’élasticité naturelle de la courbe pour, par exemple, la faire évoluer en
expansion.
De plus, comme on le comprend sur la figure 4.2 (a), le potentiel g est constant
loin des contours et le terme image est donc inopérant. Des versions plus
attractives, fondées sur un lissage de la force image par diffusion (Gradient Vector
Flow, ou GVF, (X U et P RINCE, 1998)), ou bien sur l’exploitation de cartes de
distance à des éléments de contours extraits préalablement (L. D. C OHEN, 1991)
ont été proposées.
Par ailleurs, le bruit présent dans les images provoque des puits de
potentiels parasites, qui peuvent bloquer le contour actif loin de la solution
recherchée. Pour améliorer la convergence des contours actifs fermés, des
schémas algorithmiques alternatifs, multi-résolution (L EROY et al., 1996),
incrémentiels (B ERGER, 1991), ou encore fondés sur l’utilisation de deux snakes
couplés (G UNN et al., 1997 ; V ELASCO et al., 2001), ont été proposés.
Le schéma algorithmique de base a également été adapté pour gérer la fusion de
courbes entre elles ainsi que leur scission (M C I NERNEY et al., 1995 ; D URIKOVIC
et al., 1995 ; D ELINGETTE et al., 2000 ; P RECIOSO et al., 2002). Les mécanismes
additionnels développés pour gérer ces changements de topologie offrent une
souplesse accrue par rapport à l’initialisation des courbes. En particulier, la
technique des seed-snakes (M C I NERNEY et al., 1995), consistant à paver
l’espace image de contours actifs capables de fusionner entre eux ou de
disparaître s’ils ne rencontrent aucun objet d’intérêt, est aujourd’hui une stratégie
d’initialisation très répandue.
Enfin, bien que des schémas de discrétisation le plus courant reste celui
des différences finies, des alternatives sont parfois employées (éléments
finis (P ETLAND et al., 1991 ; L. D. C OHEN et I. C OHEN, 1993), polygones (F UA
et al., 1990 ; C HESNAUD et al., 1999), splines (M ENET et al., 1990 ; B RIGGER
et al., 2000), descripteurs de Fourier (S TAIB et al., 1992 ; L EROY et al., 1996 ;
D UFRENOIS, 2000)). Dans tous les cas, le résultat obtenu demeure sensible à la
paramétrisation de la courbe.
4.2.2. Les contours actifs géométriques et géodésiques
[Link]. Équations d’évolution
Une approche alternative, issue de travaux de recherche sur la théorie de
l’évolution de courbes, est apparue au début des années 1990. Il s’agit d’étudier
l’évolution dans le temps d’une courbe fermée Γ, selon une équation aux dérivées
LES COLLECTIONS DE L’IFSTTAR
107
Optimisation de formes en sciences de l’ingénieur
partielles (EDP) du type :
∂Γ(s)
= F (s)N , (4.4)
∂t
où N représente la normale unitaire (entrante) à la courbe. F est une
fonction vitesse, fondée sur des quantités géométriques, indépendantes de la
paramétrisation de la courbe.
Ainsi, lorsque l’amplitude de la force est une constante, ν, on obtient une évolution
selon la force ballon. Notons que celle-ci correspond, selon le signe de ν à la
minimisation ou à la maximisation de l’aire de la région définie par la courbe.
Lorsque la force est d’amplitude proportionnelle à la courbure κ, la courbe évolue
comme un élastique. Cette EDP correspond à la minimisation de la longueur de
la courbe (on l’appelle Euclidean shortening flow). Ces deux forces fournissent
donc naturellement le « moteur » d’un contour actif. Pour stopper l’évolution de
la courbe lorsqu’elle atteint les bords des objets, il suffit de multiplier la vitesse
par une fonction décroissante de la norme du gradient de l’intensité. On obtient
donc :
∂Γ
= g(|∇I|)(ν + κ)N . (4.5)
∂t
Cette équation correspond aux contours actifs géométriques, proposés
indépendamment dans (C ASELLES, C ATTÉ et al., 1993) et dans (M ALLADI et al.,
1995).
La fonction g ne s’annulant jamais complètement, on peut ajouter à cette équation
un terme d’arrêt supplémentaire, attirant le contour vers le minimum du potentiel
g associé aux contours des objets. On obtient ainsi l’EDP des contours actifs
géodésiques (C ASELLES, K IMMEL et al., 1997 ; K ICHENASSAMY et al., 1996) :
∂Γ
= g(|∇I|)(ν + κ)N − < ∇g, N > N . (4.6)
∂t
Leur dénomination provient du fait que (4.6) correspond (pour ν = 0) à
la minimisation d’une longueur géodésique de la courbe, la métrique utilisée
dépendant de l’image via la fonction g :
Z 1 Z L(Γ)
Lg (Γ) = g(|∇I(Γ(q))|)|Γ0 (q)|dq = g(|∇I(Γ(s))|)ds, (4.7)
0 0
où L(Γ) est la longueur géométrique de la courbe et s, l’abscisse curviligne.
On montre (C ASELLES, K IMMEL et al., 1997 ; AUBERT et B LANC -F ÉRAUD, 1998),
que ce flot correspond également à la minimisation d’un critère de contour actif,
sans contrainte de rigidité (i.e. dans le cas où β = 0). De fait, une comparaison
des équations d’évolution renforce cette impression de proximité entre les deux
approches, comme remarqué dans (C HARBONNIER et C UISENAIRE, 1996) et (X U,
P HAM et al., 2000 ; X U, A NTHONY et al., 2000). En posant α = 1, β = 0 et en se
plaçant en paramétrisation intrinsèque, ce qui entraîne Γ00 (s) = κ(s)N , l’équation
LES COLLECTIONS DE L’IFSTTAR
108
Optimisation globale pour les contours actifs
d’évolution du contour actif classique (4.2) s’écrit :
∂Γ
= κN − λ∇g(Γ). (4.8)
∂t
On constate, en comparant (4.6) et (4.8), que la différence tient en la
multiplication de la force interne par la fonction g, ce qui tend à la
relaxer à proximité des contours des objets, en la projection de la force
image sur la normale, ce qui est gage de stabilité dans une implantation
paramétrique (C HARBONNIER et C UISENAIRE, 1996) et en l’introduction de la
force ballon, ce qui favorise la convergence.
Les contours actifs géodésiques apparaissent ainsi comme une version de
contours actifs plus performante, à la fois par rapport au modèle classique et au
modèle géométrique. C’est, certainement, l’une des explications du succès de
cette approche. Celui-ci doit cependant beaucoup à l’algorithmique associée, la
technique des Level Sets, qui permet une gestion transparente des changements
de topologie et une indépendance vis-à-vis des problèmes de paramétrisation.
[Link]. Algorithme des Level Sets
L’algorithme d’évolution de courbe par lignes de niveaux ou level-sets est né,
à la fin des années 1980, de travaux de recherche portant sur la simulation
numérique en mécanique des fluides, et plus particulièrement, sur l’évolution
d’interfaces (O SHER et S ETHIAN, 1988).
Son principe se fonde sur une représentation intrinsèque, eulérienne, de la
courbe en évolution. Celle-ci est considérée comme la ligne de niveau 0 d’une
fonction hôte, ψ, fonction scalaire de la variable d’espace et suffisamment
régulière. Classiquement, on choisit pour ψ la fonction distance signée : la région
intérieure à Γ, notée Ωint correspond, par exemple, à des niveaux négatifs tandis
que la région extérieure, Ωext , reçoit des valeurs positives. Notons que dans ce
cas, |∇ψ| = 1 et que les quantités géométriques intervenant dans l’équation
d’évolution (4.4) peuvent s’exprimer à partir de ψ. Par exemple, la courbure
∇ψ
s’écrit : κ = |∇ψ| .
Par ailleurs, en dérivant la relation ψ(Γ) = 0, on montre facilement que si la
courbe Γ évolue selon (4.4), alors :
∂ψ
= F |∇ψ|. (4.9)
∂t
Ainsi, l’algorithme d’évolution de courbe consiste à construire la fonction ψ à partir
de la courbe initiale Γ(s, t = 0), à la faire évoluer selon (4.9) jusqu’à convergence
et à en extraire finalement la courbe de niveau 0.
Même si un certain nombre de précautions doivent être prises lors de sa mise
en œuvre (S ETHIAN, 1999 ; O SHER et F EDKIW, 2003), notamment pour éviter
tout problème numérique, l’algorithme des Level Sets offre plusieurs intérêts,
qui expliquent son très fort succès. D’une part, la représentation eulérienne
LES COLLECTIONS DE L’IFSTTAR
109
Optimisation de formes en sciences de l’ingénieur
utilisée permet de s’affranchir des questions liées à la paramétrisation de la
courbe, inhérentes aux représentations explicites, lagrangiennes. D’autre part,
la méthode se généralise facilement au cas 3D. Enfin, et surtout, la topologie de
la courbe de niveau 0 évolue librement au cours du temps, sans qu’il soit besoin
de gérer directement les scissions ni les fusions.
4.2.3. Les contours actifs région
L’un des défauts que présentent les modèles décrits précédemment est que la
force image qui leur est associée ne dépend que d’informations évaluées le
long de la courbe Γ. On parle d’approche frontière ou contour. Par ailleurs,
ces informations sont le plus souvent reliées au gradient de l’image, dont le
calcul numérique est sensible au bruit. Un concept alternatif, celui des contours
actifs orientés région, est apparu vers le milieu des années 1990 (L. D. C OHEN,
B ARDINET et al., 1993 ; R ONFARD, 1994 ; Z HU et al., 1996), se développant
surtout dans les années 2000, à la suite de (C HAN et V ESE, 2001). L’idée est
de formuler le problème de segmentation de l’image comme un problème de
partitionnement. Dans le cas à deux régions (ou phases), la région intérieure à la
courbe fermée Γ correspond à l’objet recherché, tandis que la région extérieure
représente le fond, comme l’illustre la figure 4.3.
Figure 4.3.
Partitionnement du domaine image, Ω en une région de fond, Ωext , et une région
correspondant à l’objet d’intérêt, Ωint . Le contour actif, Γ, marque la frontière
entre les deux régions. D’après (F OULONNEAU, 2004)
Les régions, potentiellement disjointes, sont supposées homogènes et facilement
discernables entre elles en termes de statistiques. Elles sont décrites soit par
une fonction densité de probabilité, soit par des moments statistiques (moyenne,
variance) ou des paramètres déduits comme l’entropie. Ces caractéristiques
peuvent être supposées connues, issues d’une phase d’apprentissage, ou bien
évaluées au fur et à mesure de l’évolution de la partition. À partir de ces
descripteurs de régions (et, éventuellement, de termes contour (PARAGIOS et al.,
1999)), on définit une fonctionnelle, dont la minimisation conduit à l’équation
d’évolution du contour actif.
LES COLLECTIONS DE L’IFSTTAR
110
Optimisation globale pour les contours actifs
[Link]. Le modèle de Chan et Vese
Il existe de nombreuses façons de définir des fonctionnelles d’énergie pour les
contours actifs région. La formulation la plus souvent citée a été proposée par
Chan et Vese (C HAN et V ESE, 2001) pour le cas à 2 régions, puis étendue au cas
multi-phases dans (V ESE et al., 2002).
Dans sa forme la plus générale, elle s’écrit :
Nreg
XZ
ECV (ui , Γ) = (ui − I)2 dx + ν|Γ|, (4.10)
i=1 Ωi
où Ωi note les Nreg régions délimitées par l’ensemble des courbes, Γ, dont
la longueur totale est notée |Γ|. Le premier terme tend à imposer aux régions
d’être aussi homogènes que possible en termes d’intensité, autour d’une valeur
caractéristique ui . Le second impose des frontières aussi courtes que possible et
promeut donc la régularité des courbes. Notons que, si l’on fixe Γ, l’optimum de
la fonctionnelle est atteint lorsque, pour tout i, ui correspond à µi , la moyenne
empirique de I dans la région Ωi . Par ailleurs, si on fixe les constantes ui ,
l’évolution de la courbe permettant de minimiser ECV obéit (dans le cas à
Nreg = 2 classes) à l’équation :
∂Γ
= ((I − µint )2 − (I − µext )2 )N + νκN , (4.11)
∂t
où µint et µext sont la moyenne de la région intérieure à la courbe et la moyenne
du fond, respectivement.
La figure 4.4 illustre le fonctionnement du premier terme de (4.11), qui correspond
à la force image s’appliquant en chaque point de la courbe en évolution.
Figure 4.4.
Interprétation de la force image ((I − µint )2 − (I − µext )2 )N en deux points
du contour actif, dans le cas où N , la normale à la courbe Γ est dirigée vers
l’intérieur. L’intensité au point A est proche de µint et la force (en bleu) est donc
contraire à la normale. Au point B, l’intensité est proche de µext et la courbe a
tendance à se contracter (flèche rouge)
Fond
Objet
LES COLLECTIONS DE L’IFSTTAR
111
Optimisation de formes en sciences de l’ingénieur
Notons que si l’on considère que les deux régions ont une densité de probabilité
gaussienne, de même variance et de moyennes respectives µint et µext ,
l’équation d’évolution (4.11) est équivalente à :
∂Γ
= (log(pext (I)) − log(pint (I)))N + νκN , (4.12)
∂t
On retrouve ainsi, dans le modèle de Chan et Vese, un cas particulier de la notion
de compétition de régions proposée par Ronfard (R ONFARD, 1994) et formalisée
dans (Z HU et al., 1996) : l’évolution de la courbe tend à englober un point dans la
région dont il est statistiquement le plus proche.
L’algorithme d’optimisation proposé dans (C HAN et V ESE, 2001 ; V ESE et al.,
2002) effectue de façon alternée le calcul des moyennes et l’évolution de la
courbe selon (4.11), jusqu’à ce que la courbe n’évolue plus.
La figure 4.5 montre un exemple d’application de cette méthode sur une image
en niveaux de gris.
Figure 4.5.
Exemple de segmentation par contour actif orienté région (C HARBONNIER,
2009) : modèle de Chan et Vese. Image originale et initialisation (a), résultat
après 10 (b), 20 (c) et 31 itérations, résultat final (d). Image IFSTTAR Nantes. Le
contour est épaissi pour une meilleure visualisation
(a) (b)
(c) (d)
LES COLLECTIONS DE L’IFSTTAR
112
Optimisation globale pour les contours actifs
[Link]. Autres modèles
Comme celle de Chan et Vese, beaucoup de fonctionnelles de contours actifs
région favorisent l’homogénéité des régions formant la partition de l’image.
L’approche alternative en reconnaissance des formes consiste à rechercher des
régions aussi dissemblables entre elles que possible.
C’est, par exemple, ce que proposent Yezzi et al. dans (Y EZZI J R et al., 1999),
où la différence quadratique des moyennes (ou des variances) des régions
est maximisée. Nous renvoyons le lecteur intéressé à (C REMERS, R OUSSON
et al., 2007 ; C HARBONNIER, 2009) pour un aperçu plus complet des modèles
de contours actifs région.
Notons que les paramètres statistiques des régions, qui interviennent dans la
plupart des fonctionnelles dépendent de la position des frontières. Il y a lieu de
tenir compte de ces dépendances lors de la dérivation des équations d’évolution.
La notion de dérivée de domaine ou dérivée eulérienne, issue des travaux de
Zolésio (S OKOLOWSKI et al., 1992 ; D ELFOUR et al., 2001) et également employée
dans l’estimation du flot optique (S CHNÖRR, 1992), offre un cadre théorique
rigoureux pour effectuer ce type de calculs (AUBERT, B ARLAUD et al., 2003).
[Link]. Bilan
Les contours actifs région ont un certain nombre de bonnes propriétés vis-
à-vis de la tâche de segmentation. En premier lieu, ils prennent en compte
l’information image d’une manière plus globale que les approches frontière, ce
qui les rend moins sensibles à l’initialisation 3 . Par ailleurs, les contours actifs
région n’impliquent pas forcément de dérivation de l’image, ce qui est gage de
stabilité numérique. Enfin, ils offrent la possibilité de segmenter des régions sans
frontière apparente (C HAN et V ESE, 2001 ; J. K IM et al., 2005).
Au passif de ces méthodes, on notera que le cas des régions multiples (cas multi-
phases) est beaucoup plus difficile à gérer que le cas de la segmentation binaire.
De plus, même si la technique des seed-snakes permet d’améliorer les choses,
la mise en œuvre de ces modèles repose sur une technique de descente de
gradient. Les solutions obtenues correspondent donc généralement à des optima
locaux des fonctionnelles, ce qui n’est pas totalement satisfaisant.
4.3. Optimisation globale par recherche de chemin
minimal
Les approches que nous allons présenter dans ce paragraphes permettent de
déterminer la courbe réalisant le minimum global d’une énergie de type contour
actif géodésique. Comme nous l’avons fait remarquer à la section 4.2.2, de
telles énergies peuvent également être vues comme des longueurs, dans une
3. Cette affirmation est toutefois à nuancer pour certains types d’images, comme on en rencontre
en imagerie médicale, sujettes à de fortes variations spatiales d’intensité, ou pour des objets de nature
hétérogène. Des approches région plus locales (L I et al., 2008 ; L ANKTON et al., 2008 ; B ROX et al.,
2009) ont été développées par la suite pour gérer ces situations.
LES COLLECTIONS DE L’IFSTTAR
113
Optimisation de formes en sciences de l’ingénieur
métrique dépendant de l’image. L’optimisation s’apparente donc à une recherche
de chemin de longueur minimale. La solution globalement optimale peut être
atteinte dans deux cas : celui des courbes ouvertes définies entre deux points,
P0 et P1 , désignés par l’utilisateur et celui des courbes fermées englobant un
point P . Outre le modèle énergétique employé, ces deux approches ont donc en
commun la nécessité d’une interaction avec l’utilisateur.
4.3.1. Cas des courbes ouvertes
Dans (L. D. C OHEN et K IMMEL, 1997), Cohen et Kimmel proposent de rechercher,
dans l’image à segmenter, la courbe minimisant une énergie de type contour actif
géodésique, très proche de (4.7) :
Z L(Γ) Z L(Γ) Z L(Γ)
Eg0 (Γ) = α |Γ0 (s)|2 ds+ g(Γ(s))ds = g̃(Γ(s))ds = L0g (Γ) (4.13)
0 0 0
où s représente l’abscisse curviligne, g est le potentiel image habituel et g̃ = α+g.
Le potentiel est, selon l’application considérée, une fonction de l’intensité (ex. :
suivi de lignes, fissures, routes, vaisseaux sanguins) ou de son gradient le long
de la courbe (ex. : suivi du bord d’objets), nous le notons g(Γ) pour simplifier.
On remarque que le passage d’énergie à longueur géodésique est, ici, direct
puisque |Γ0 (s)| = 1 en paramétrisation intrinsèque (i.e. par l’abscisse curviligne).
Le scalaire α joue le paramètre de régularisation : on peut montrer (L. D. C OHEN
et K IMMEL, 1997) que la courbure maximale que peut prendre la courbe solution
est inversement proportionnelle à α.
[Link]. Stratégie d’optimisation
Le calcul de la courbe minimisant (4.13) est réalisé selon la stratégie suivante :
dans un premier temps, une surface d’action minimale U0 (x), fonction scalaire
de la variable d’espace, est calculée. Sa valeur au point x est l’énergie associée
au chemin optimal, au sens de la distance géodésique L0g , reliant x à P0 .
Dans un second temps, lorsque U0 (P1 ) est déterminée, un simple rétro-parcours
par descente de gradient permet d’extraire le chemin optimal recherché. Nous
pouvons également extraire des chemins multiples, reliant plusieurs points
d’arrivée au même point de départ. Le lecteur intéressé pourra se référer à
(L. D. C OHEN et K IMMEL, 1997 ; D ESCHAMPS, 2001) pour plus de détails.
On montre (voir, par exemple, (F OMEL, 1997 ; L. D. C OHEN et K IMMEL, 1997))
que la surface d’action minimale obéit à l’équation eikonale 4 :
g̃(x) = |∇U0 (x)|. (4.14)
avec U0 (P0 ) = 0. Notons que si g̃ est une constante, la surface d’action minimale
correspond à une simple carte de distance euclidienne au point de départ.
Plusieurs approches sont envisageables pour résoudre cette équation. La plus
4. Cette équation, due à Hamilton, est à la base de l’optique géométrique, d’où sa dénomination,
proposée par Burns en 1895 (« eikonal » venant du mot grec « ικων » signifiant « image »).
Pour plus de développements sur l’analogie avec l’optique géométrique, voir la thèse de T.
Deschamps (D ESCHAMPS, 2001).
LES COLLECTIONS DE L’IFSTTAR
114
Optimisation globale pour les contours actifs
immédiate consiste à la discrétiser et à appliquer un schéma itératif (R OUY et al.,
1992). Cette approche a toutefois une complexité en O(N 2 ), où N est le nombre
de points de la grille.
La méthode usuelle, plus rapide, consiste à calculer U0 par propagation à partir
du point de départ, P0 pour lequel la valeur de U0 est nulle. Cette idée apparaît
déjà dans (Q IN et al., 1992), mais c’est en faisant le lien avec l’algorithme A∗ de
Dijkstra (D IJKSTRA, 1959), utilisé pour le recherche de plus court chemin dans
les graphes, que Tskitsiklis (T SITSIKLIS, 1995), puis (de manière indépendante)
Sethian (S ETHIAN, 1996) proposent des algorithmes réellement efficaces, de
complexité O(N log N ) 5 .
[Link]. Algorithme A∗
L’algorithme A∗ utilise le principe d’optimalité de Bellman, exploité en
programmation dynamique : le chemin le plus court est propagé d’un point à ses
voisins, par ajout de la contribution locale g̃ minimale. Une valeur de U0 peut donc
être affectée à un point dès lors que l’un de ses voisins est atteint. Naturellement,
le point doit rester vivant (i.e. sa valeur de U0 doit pouvoir être revue à la baisse)
jusqu’à ce qu’il devienne lui-même le minimum des points vivants. En effet, il est
alors impossible de trouver un chemin géodésique plus court pour l’atteindre.
L’utilisation d’une structure de tas ordonné pour extraire à chaque instant le
point de valeur U0 minimale parmi les points vivants confère à l’algorithme une
complexité en O(N log N ). Les algorithmes de délinéation d’objets tels que le Live
Wire (FALCÃO et al., 1998) ou les Intelligent Scissors (M ORTENSEN et al., 1995 ;
M ORTENSEN et al., 1999) implantés dans des logiciels de traitement d’image
comme Gimp utilisent, de manière interactive, le même genre de méthode que
l’algorithme A∗ .
[Link]. Algorithme Fast Marching
Nous pouvons remarquer que l’ensemble des points vivants se comporte comme
un front, de valeur U0 à peu près constante, et progressant à partir de P0
à une vitesse spatiale inversement proportionnelle au potentiel local g̃. Cette
observation est à la base de l’algorithme Fast Marching de Sethian (S ETHIAN,
1996), qui considère le calcul de U0 comme le problème de propagation d’une
ligne de niveau L selon l’équation :
∂L 1
= N, (4.15)
∂t g̃
à partir d’un cercle infinitésimal centré en P0 . Notons que U0 peut s’interpréter
comme le temps d’arrivée t du front L à une distance euclidienne donnée (L. D.
C OHEN et K IMMEL, 1997), ce qui permet un parallèle avec l’algorithme des Level
Sets. En effet, U0 jouant le rôle de fonction hôte, son évolution selon (4.9) s’écrit :
∂U0 1 ∂t
∂t = g̃ |∇U0 | = ∂t = 1, et l’on retrouve l’équation eikonale. L’algorithme Fast
Marching peut donc être vu comme une formulation stationnaire du problème
5. Voir également (H ELMSEN et al., 1996).
LES COLLECTIONS DE L’IFSTTAR
115
Optimisation de formes en sciences de l’ingénieur
d’évolution de courbe (S ETHIAN, 1999), réservé au cas où la vitesse ne change
pas de signe au cours du temps.
À la différence de l’algorithme A∗ , dont il suit l’architecture, l’algorithme Fast
Marching ne procède pas par incrémentation locale de U0 , mais par résolution
de (4.14). Il est donc un peu plus coûteux, mais, en contrepartie, beaucoup plus
précis, puisque la métrique sous-jacente est euclidienne et non de type city-block.
Figure 4.6.
Exemple de suivi de ligne de fissure par contour actif géodésique entre plusieurs
extrémités. (a) Image originale et points désignés par l’utilisateur ; (b) surface
d’action minimale U0 propagée depuis P0 ; (c) résultats de l’extraction obtenu par
descente de gradient sur l’image (b) à partir des points P1 , P2 et P3 . Le contour
est épaissi pour une meilleure visualisation
(a) (b) (c)
La figure 4.6 montre un exemple d’application de cet algorithme dans le domaine
du génie civil (suivi de ligne de fissure dans du béton) 6 . Dans ce cas, le potentiel
image, g, est directement fonction du niveau de gris.
[Link]. Vitesse et précision
Simple à programmer et efficace, l’algorithme Fast Marching est très utilisé pour
les applications d’analyse d’images. Dans certains domaines, cependant, une
précision supérieure peut être intéressante. En effet, le schéma numérique le
plus courant correspond à une discrétisation au premier ordre de l’opérateur
de dérivation. Il s’ensuit que l’algorithme peine à générer de fortes courbures
des lignes de niveau. Ainsi, dans le cadre de la propagation d’une distance
euclidienne à partir d’un point, on observe que les premières courbes de
niveau ne sont pas parfaitement circulaires. De plus, le coût g̃ est considéré
constant autour de chaque point de la grille. Cela signifie qu’entre deux points
voisins, la vitesse d’évolution du front ne sera pas la même suivant le sens de
propagation considéré. Hassouna et al. (H ASSOUNA et al., 2007), Danielsson et
al. (DANIELSSON et al., 2003) ou, plus récemment, Appia et Yezzi (A PPIA et al.,
2013) ont proposé des schémas numériques plus précis et isotropes, demeurant
efficaces d’un point de vue calculatoire.
6. Cet algorithme est mis en œuvre (C HARBONNIER, G UILLARD et al., 1999 ; C HARBONNIER et
M OLIARD, 2002 ; C HARBONNIER et M OLIARD, 2003) dans le logiciel de traitement d’image PICTURE,
distribué par l’IFSTTAR jusqu’en 2016.
LES COLLECTIONS DE L’IFSTTAR
116
Optimisation globale pour les contours actifs
L’efficacité algorithmique est, en effet, un point primordial dans le contexte d’une
application interactive. Des techniques traitant les points par groupe (Group
Marching (S. K IM, 2001)), ou via une structure de gestion de priorités (YATZIV
et al., 2006) permettent d’atteindre une complexité en O(N ), sans perte
substantielle de précision. Enfin, une version abandonnant la propriété de
causalité de la propagation au profit d’une parallélisation de l’algorithme a été
proposée dans (J EONG et al., 2008), ce qui permet son implantation efficace sur
processeur graphique.
[Link]. Extension à la détection à partir d’un point unique
Il y a quelques années, Kaul et al. ont proposé une approche fondée sur la
recherche de chemins minimaux, permettant de détecter des lignes à partir
d’un seul point désigné par l’utilisateur (K AUL et al., 2012). L’idée, initialement
développée dans (B ENMANSOUR et al., 2009) vient de l’observation suivante : la
propagation de la distance géodésique est plus rapide (spatialement) le long des
lignes suivies que dans les régions homogènes.
Autrement dit, à partir d’un point situé le long de la ligne à détecter, le premier
point atteint par le front à une distance euclidienne λ donnée du point de départ
se situe également sur la ligne. Un rétro-parcours entre ce point et le point de
départ permet la détection d’un premier linéament. La procédure se poursuit, de
manière incrémentale, à partir de l’ensemble formé des deux points.
Par rapport à (B ENMANSOUR et al., 2009), la méthode proposée dans (K AUL
et al., 2012) résout le problème du test d’arrêt de la croissance de la courbe, en
exploitant l’information de distance entre points successifs. Moyennant quelques
modifications dans la gestion des tests d’arrêt, la méthode peut être étendue au
cas des courbes ramifiées, ainsi qu’aux courbes fermées.
Figure 4.7.
Application de la méthode de Kaul et al. sur une image synthétique
(d’après (K AUL et al., 2012))
Partie non détectée
8
Point cliqué 6 7
5
3 1
2
4
Point terminal
LES COLLECTIONS DE L’IFSTTAR
117
Optimisation de formes en sciences de l’ingénieur
La figure 4.7 montre un exemple d’application de cette méthode sur une image
synthétique. Le point terminal est le premier point détecté hors de la courbe par
le test proposé dans (K AUL et al., 2012).
Nous pouvons constater que la longueur de la courbe détectée diffère au plus
de sa longueur réelle de la valeur de λ (égale à 30 pixels, dans cet exemple).
Enfin, on remarquera que, si cette méthode apporte plusieurs améliorations par
rapport à la méthode initiale de Cohen et Kimmel (L. D. C OHEN et K IMMEL, 1997)
(un seul point de départ, traitement automatique des courbes fermées et des
ramifications), il n’est pas évident qu’elle demeure globalement optimale.
4.3.2. Cas des courbes fermées
La méthode de Cohen et Kimmel (L. D. C OHEN et K IMMEL, 1997) peut être
étendue à la segmentation de contours fermés de plusieurs autres façons que
celle proposée dans (K AUL et al., 2012). Le point P0 étant fixé, la première
variante consiste à rechercher le long du contour, un point P1 tel qu’il existe
deux courbes globalement optimales le reliant à P0 . Une méthode permettant
de déterminer de tels points (qui sont des points-selles de U0 ) est proposée
dans (L. D. C OHEN et K IMMEL, 1997). Cette technique est également utilisée
dans (L. D. C OHEN, 2001) pour mettre en place un outil de fermeture automatique
de contours par groupement perceptif (perceptual grouping).
Une autre façon d’étendre la méthode aux courbes fermées s’inspire de
recherches initialement motivées par les applications d’imagerie panoramique.
Dans cette approche, l’image est « dépliée » de manière radiale puis interpolée
sur une grille rectangulaire (technique du polar unwrapping) à partir d’un point
Pint désigné par l’utilisateur, voir figure 4.8. On transforme ainsi la recherche
d’une courbe optimale fermée entourant le point Pint en un problème de
recherche de chemin optimal circulaire 7 ou Circular Shortest Path (CSP) dans
l’image dépliée.
Figure 4.8.
(a) Image originale ; (b) image « dépliée » de manière radiale à partir du point
marqué d’une croix jaune dans (a).
(a) (b)
7. Un chemin circulaire (ici, horizontal) est 2π-périodique : l’ordonnée de son extrémité à gauche
de l’image est égale, éventuellement au pixel près, à celle de son extrémité droite.
LES COLLECTIONS DE L’IFSTTAR
118
Optimisation globale pour les contours actifs
L’approche « naïve » du problème consiste à l’aborder de manière exhaustive, en
recherchant l’ensemble des chemins optimaux reliant les points de la première
colonne de l’image à ceux (au pixel près) de la dernière colonne. Cette approche
est, évidemment, très coûteuse en temps de calcul. Dans (S UN et al., 2003),
Sun et Pallottino définissent trois méthodes alternatives, plus rapides mais
n’assurant pas que le chemin optimal résultant soit forcément circulaire. Des
techniques de type Branch and Bound (A PPLETON et S UN, 2003) ou recherche
dichotomique (DE L A G ORCE et al., 2006) ont été proposées par la suite pour
résoudre le problème de façon exacte, avec de meilleures performances.
Dans (A PPLETON et TALBOT, 2005), un principe légèrement différent est adopté :
il consiste à couper le plan image le long d’une demi-droite issue du point Pint .
À partir d’un point Pcut de cette demi-droite, des extrémités P0 et P1 peuvent
alors être définies de part et d’autre de la découpe (figure. 4.9). Une recherche
de chemin minimal par Fast Marching et rétro-parcours peut alors être effectuée
à partir de ces points de départ et d’arrivée.
Figure 4.9.
Découpage du plan image dans le cas d’un objet convexe (d’après (A PPLETON et
TALBOT, 2005))
L’avantage de cette variante est qu’elle peut s’adapter au cas où la courbe,
concave, traverse plusieurs fois le plan de coupe, moyennant une représentation
plus complexe, hélicoïdale, du domaine image. Tout le problème revient alors
à choisir le point Pcut optimal de la manière la plus efficace possible. Pour
cela, Appleton et Talbot proposent une adaptation de la technique de recherche
arborescente de (A PPLETON et S UN, 2003).
Si la méthode d’Appleton et Talbot permet de segmenter des objets non
convexes, on notera qu’elle ne gère pas directement les topologies complexes.
Ainsi, pour segmenter des objets à plusieurs composantes connexes, il est
nécessaire de positionner un point par composante. De plus, comme la méthode
originale de Cohen et Kimmel pour les courbes ouvertes, l’énergie minimisée est
une énergie de type frontière.
Ainsi, les algorithmes que nous venons de décrire ne permettent pas d’optimiser
des fonctionnelles région, dont on sait pourtant qu’elles sont souvent plus
performantes en segmentation.
LES COLLECTIONS DE L’IFSTTAR
119
Optimisation de formes en sciences de l’ingénieur
4.4. Optimisation globale pour les contours actifs région
Quelle que soit la modélisation considérée, classique, géodésique ou région, la
vitesse d’évolution des contours actifs n’est définie que sur la courbe en évolution.
De plus, suivant son initialisation, le contour actif n’explore qu’une partie du
domaine image. Ainsi, une courbe initialisée autour d’un objet comprenant un
trou capture les frontières externes de l’objet mais ne peut pas segmenter le
trou. Une illustration de ce problème est donnée sur la figure 4.10 (b-c), pour des
images de cellules, segmentées à l’aide du modèle de Chan et Vese.
Pour remédier à ce problème d’optimum local, lié à l’impossibilité d’explorer
complètement l’espace des solutions, une première tentative a été l’utilisation
de la notion de dérivée topologique, issue de recherches sur l’optimisation de
forme (D ELFOUR et al., 2001).
Définie sur l’ensemble du domaine image, celle-ci mesure la sensibilité de
l’énergie à une modification topologique des domaines étudiés, par introduction
de trous. Une fois celui-ci calculé, on peut se servir du gradient topologique de la
fonction d’énergie pour définir un algorithme de descente pour les contours actifs,
comme dans (S HI, 2005) (en reconstruction tomographique) ou dans (H E et al.,
2007) (en segmentation, selon le modèle de Chan et Vese). Cependant, l’emploi
d’un algorithme de Level sets, où la vitesse n’est en principe définie que le long
de l’interface, nécessite une adaptation (B URGER et al., 2004).
Ces premières tentatives n’ont, à notre connaissance, pas eu de suite, ces
méthodes ayant rapidement été dépassées par l’essor des techniques de
convexification.
Il s’agit de techniques variationnelles, issues de recherches sur le débruitage
d’images binaires (N IKOLOVA, 2004), d’études théoriques sur la régularisation
par variation totale (RUDIN et al., 1992 ; C HAN et E SEDO ḠLU, 2005) et de travaux
sur l’optimisation convexe (C HAMBOLLE, 2004). Ces investigations ont débouché
sur des méthodes rapides, précises et assurant dans certains cas l’optimalité
globale pour la segmentation à deux classes à partir de fonctionnelles orientées
région (N IKOLOVA et al., 2006 ; B RESSON et al., 2007).
Nous nous focaliserons ici sur les approches variationnelles continues, mais il
existe des méthodes d’un niveau équivalent dans le formalisme discret (ces
travaux ont, d’ailleurs, bien souvent inspiré le développement des méthodes
continues). C’est, en particulier, le cas des modèles de type max flow - min cut,
associés aux algorithmes de découpe de graphe ou graph cuts (B OYKOV et al.,
2001 ; A PPLETON et TALBOT, 2006).
4.4.1. Relaxation convexe : principe général
Reprenons le problème de segmentation par contour actif région, selon la
fonctionnelle de Chan et Vese (§ 4.2.3). On considère que l’image est une
fonction binaire, formée d’une région intérieure Ωint , d’intensité µint , et d’une
région extérieure Ωext = Ω\Ωint , d’intensité µext , séparées par une frontière Γ,
LES COLLECTIONS DE L’IFSTTAR
120
Optimisation globale pour les contours actifs
de sorte que :
I(x) = µint .χΩint (x) + µext .χΩext (x), (4.16)
où χΣ représente la fonction caractéristique, binaire, de la région Σ. Le problème
consiste à trouver la courbe qui minimise la fonctionnelle :
Z Z
ECV (Ωint ) = (I − µint )2 dx + (I − µext )2 dx + νP er(Ωint ), (4.17)
Ωint Ω\Ωint
où P er(Ωint ) = |Γ| est la longueur de l’interface entre les régions intérieure
et extérieure. Nous savons que ce problème n’a pas de solution unique car
l’ensemble des régions binaires n’est pas un ensemble convexe. Toute les
techniques d’optimisation, en particulier, celle des level-sets, conduisent donc
à des minima locaux. Il est montré que l’équation d’évolution de la courbe, éq.
(4.11), se traduit en termes d’ensembles de niveaux par :
∂ψ 2 2 ∇ψ
= δ(ψ) ((I − µint ) − (I − µext ) ) + νdiv . (4.18)
∂t |∇ψ|
où, en général, nous remplaçons la fonction Dirac δ, par une fonction continue, δ
de façon à régulariser le schéma numérique.
Comme cette dernière est à support étendu, des changements de signe de ψ
peuvent apparaître plus ou moins loin de la courbe. Ceci permet, par exemple
la capture de trous dans les objets à l’aide d’une courbe initialisée à l’extérieur
de ceux-ci. Cette propriété va dans le sens d’une exploration plus complète
du domaine image, nécessaire pour une optimisation globale. Nous pouvons
pousser plus loin cette idée, en remarquant que, puisque la fonction δ est
positive, la supprimer ne change pas l’ensemble des points stationnaires de
(4.18) et l’on peut donc appliquer, sur l’ensemble des courbes de niveau :
∂ψ 2 2 ∇ψ
= ((I − µint ) − (I − µext ) ) + νdiv . (4.19)
∂t |∇ψ|
Or, cette équation d’évolution correspond à une minimisation par descente de
gradient de :
Z Z
ECEN (ψ) = |∇ψ| + λ {(µint − I(x))2 − (µext − I(x))2 }ψ(x)dx, (4.20)
Ω Ω
qui est une fonctionnelle convexe par rapport à ψ. Cependant, on peut
noter que cette énergie est homogène de degré 1 (elle est linéaire en ψ :
ECEN (α.ψ) = α.ECEN (ψ)) et n’a donc pas de minimiseur. Une rapide étude de
l’équation d’évolution (4.19) associée permet de le comprendre 8 . Si on discrétise
8. Pour le justifier, on peut aussi remarquer qu’il existe une infinité de représentations d’une
courbe par un ensemble de niveaux (G OLDSTEIN et al., 2009a)
LES COLLECTIONS DE L’IFSTTAR
121
Optimisation de formes en sciences de l’ingénieur
cette équation en temps, l’évolution de la fonction hôte ψ est donnée par :
∇ψ t
ψ t+1 = ψ t + δt ((I − µint )2 − (I − µext )2 ) + νdiv . (4.21)
|∇ψ t |
Considérons le cas idéal où la courbe est parfaitement positionnée sur les
frontières de l’objet. On a, par convention, ψ(x) < 0 pour un point x appartenant à
Ωint . Si l’image est effectivement binaire, on a également I(x) ' µint . Autrement
dit, si l’on omet pour simplifier le terme de courbure, l’incrément appliqué à ψ
est négatif. De même, pour un point x situé à l’extérieur de l’objet, on a à la fois
ψ(x) > 0 et I(x) ' µext et l’incrément est positif. En d’autres termes, l’application
répétée de (4.21) aura pour effet de rendre toujours plus négatives les valeurs de
ψ à l’intérieur de l’objet et plus positives les valeurs de ψ à l’extérieur de celui-
ci. Donc, ψ va tendre vers une carte binaire à valeurs ±∞ selon l’appartenance
à la région Ωint . Cet écueil peut être évité de manière simple, en bornant la
fonction ψ : on choisit donc de remplacer ψ par une fonction 0 6 u(x) 6 1 et on
considére (N IKOLOVA et al., 2006) la minimisation de la fonctionnelle suivante :
Z Z
ECEN (u) = |∇u| + λ {(µint − I(x))2 − (µext − I(x))2 }u(x)dx, (4.22)
Ω Ω
sous la contrainte 0 6 u(x) 6 1.
Nous pouvons remarquer que non seulement la fonctionnelle (4.22) est convexe,
mais que u appartient également à un espace convexe, plus précisément
l’ensemble des fonctions à variations bornées sur [0, 1]. L’optimisation de ECEN
peut donc être conduite de manière globale. On remarque aussi que la convexité
a été obtenue en remplaçant la recherche de la région Ωint , que l’on peut
définir par sa fonction caractéristique binaire, par celle d’une fonction continue
sur [0, 1], donc en relâchant la contrainte de binarité. C’est ce qui donne le nom
de relaxation convexe 9 à cette approche.
On montre alors, et c’est sans doute le résultat le plus important de (N IKOLOVA
et al., 2006), que pour µint , µext ∈ R fixés, si u∗ (tel que u∗ (x) ∈ [0, 1]) minimise
ECEN , alors Ωint (µ) = {x : u∗ (x) > µ} est un minimiseur global de l’énergie
(4.17) pour presque tout µ ∈ [0, 1].
La preuve de ce théorème (N IKOLOVA et al., 2006), inspirée de travaux plus
anciens (S TRANG, 1982 ; S TRANG, 1983), utilise notamment la formule de la co-
aire, qui relie la variation totale de la fonction u à l’intégrale des longueurs de ses
courbes de niveau :
Z Z 1
|∇u| = P er({x : u(x) > µ})dµ, (4.23)
Ω 0
9. Cette notion est également exploitée, mais de manière différente, dans (C REMERS, S CHMIDT
et al., 2008).
LES COLLECTIONS DE L’IFSTTAR
122
Optimisation globale pour les contours actifs
et l’identité (où χ[a,b] (.) est la fonction caractéristique 1D de l’intervalle [a, b]) :
Z 1
u(x) = χ[0,u(x)] (µ)dµ, (4.24)
0
pour obtenir :
Z 1
ECEN (u) = ECV (Ωint (µ))dµ − C, (4.25)
0
où C est une constante. Il s’ensuit que si u∗ est un minimiseur de ECEN , alors
Ωint (µ) doit être un minimiseur de ECV pour toutes les valeurs de µ, à un
ensemble de mesure nulle près. Notons que ce théorème a été étendu pour
toutes les valeurs de µ, pour µ ∈ [0, 1) dans (B ERKELS, 2009).
En vertu de ce théorème de seuillage, le principe général de la méthode
d’optimisation globale par relaxation convexe consiste à minimiser (4.22) sous
contrainte u∗ (x) ∈ [0, 1], puis à seuiller le résultat pour obtenir la partition
souhaitée. Notons que n’importe quelle valeur de seuil peut être utilisée, d’après
le théorème, ce qui est cohérent avec le fait que le schéma numérique associé a
un effet binarisant, comme nous l’avons fait remarquer : en pratique les valeurs
de u∗ sont soit très proches de 0, soit très proches de 1 (N IKOLOVA et al., 2006).
4.4.2. Algorithmes d’optimisation
Le point clef de la méthode est la minimisation sous contrainte de (4.22).
Une descente de gradient est possible. C’est l’approche initialement retenue
dans (N IKOLOVA et al., 2006). Le problème est tout d’abord transformé en
remplaçant la contrainte u(x) ∈ [0, 1] par l’utilisation d’un terme supplémentaire
faisant intervenir une fonction « vallée », nulle sur [0, 1] et linéaire sur les bords de
cet intervalle. Toutefois, le terme L1 qui apparaît dans le critère ECEN nécessite
une régularisation et l’utilisation d’un pas de temps faible (B RESSON et al., 2007).
De plus, les méthodes régularisées ont le défaut de lisser les frontières dans
l’image u∗, ce qui rend la segmentation sensible au choix du seuil.
Des méthodes plus rapides et plus précises, fondées sur des formulations duales
développées notamment pour les décompositions d’image en structure et texture
(voir par exemple (C HAMBOLLE, 2004) ou (AUJOL et al., 2005)), peuvent être
appliquées pour accélérer l’optimisation.
Plus récemment (G OLDSTEIN et al., 2009a) la méthode dite Split-Bregman
a permis d’atteindre des temps de calcul comparables à ceux des Graph
Cuts. Nous avons, à titre d’exemple, appliqué cette méthode à une image de
cellule (figure 4.10). Les temps de calcul sont largement inférieurs à ceux des
algorithmes Level Sets, même accélérés, que nous utilisons habituellement.
Par ailleurs, on constate que les zones blanches à l’intérieur de certaines cellules
sont correctement segmentées, alors que les algorithmes Level Sets ne les
capturent qu’à proximité de la courbe initiale.
LES COLLECTIONS DE L’IFSTTAR
123
Optimisation de formes en sciences de l’ingénieur
Figure 4.10.
Initialisation pour les algorithmes Level Sets (a) et résultats de segmentation par
contour actif orienté région (modèle de Chan et Vese) d’une image 230 × 230 tirée
de (Y EZZI J R et al., 1999) (b,c,d). Algorithme levels sets (O SHER et S ETHIAN,
1988), implantation C+Matlab (A. Foulonneau) : temps de calcul environ 12
secondes (b). Algorithme Level Sets rapides de Shi et Karl (S HI et K ARL, 2005),
implantation Matlab (G. Gaullier) : temps de calcul environ 4s (c). Algorithme de
Goldstein et al. (G OLDSTEIN et al., 2009a), implantation C+Matlab (aimablement
fournie par [Link]) : temps de calcul environ 0,04s (d). Moyennes des
régions : µint = 202, µext = 87 pour (b,c) et µint = 205, µext = 86 (d).
(a) (b) (c) (d)
4.4.3. Extensions
La méthode de Chan et al. a été adaptée dans (B RESSON et al., 2007) en
utilisant une norme pondérée de ∇u en lieu et place de la norme L1 , reliant
ainsi les approches de Chan et Vese et de Mumford et Shah aux contours actifs
géodésiques. Par ailleurs, l’approche peut s’étendre à toute fonctionnelle de la
forme :
Z Z Z
E(u) = g(x(s))ds + λ rint (x)dx + λ rext (x)dx. (4.26)
Γ Ωint Ω\Ωint
Ainsi, elle est appliquée dans (H OUHOU et al., 2008) à un critère région de
dissimilarité (maximisation de la J-divergence) et dans (N I et al., 2009), à
un critère région d’homogénéité fondé sur l’utilisation d’histogrammes locaux.
Dans (M ORY et A RDON, 2007), une approche très voisine, appelée fuzzy region
competition, est proposée. Elle consiste à remplacer dans (4.26) la région Ωint
par une fonction d’appartenance floue u, non binaire. On obtient ainsi une
expression convexe, très proche de (4.22). Dans (M ORY, A RDON et T HIRAN,
2007), ce principe est appliqué à des fonctionnelles fondées sur des modèles
non paramétriques, par noyaux de Parzen, des densités de probabilité globales
des régions. Le modèle est ensuite adapté à des mesures plus locales.
L’extension de ce type de méthodes au cas multi-phases est un sujet difficile
et toujours d’actualité. La version proposée dans (P OCK et al., 2009) semble
s’approcher de l’optimum global. L’introduction de contraintes de forme dans
LES COLLECTIONS DE L’IFSTTAR
124
Optimisation globale pour les contours actifs
le formalisme de la relaxation convexe fait également l’objet de travaux de
recherche (W ERLBERGER et al., 2009).
4.4.4. Limitations
Il est très important de noter que les approches décrites précédemment ne
sont globales que vis-à-vis de l’optimisation de forme. En réalité, le modèle
de Chan et Vese comporte trois inconnues, puisque les moyennes (ou, dans
la formulation générale, les caractéristiques des régions) ne sont a priori pas
connues. L’approche usuelle, dans la lignée de ce qui se pratiquait avec
l’algorithme des level sets, est un schéma d’optimisation alternant ajustement
de forme et estimation des paramètres.
Malheureusement, nous n’avons plus aucune garantie qu’une solution globale
puisse être atteinte par ce type de schéma ! Plusieurs exemples où deux
solutions différentes sont obtenus à partir de deux initialisations différentes est
montré dans (B ROWN et al., 2011). Curieusement, ce problème a très peu été
exploré ces dernières années. Nous pouvons citer les travaux de Strandmark et
al. (S TRANDMARK et al., 2009) incluant un algorithme de type branch and bound
et, plus récemment, ceux de Brown et al. (B ROWN et al., 2011). Ces derniers
exploitent une technique de relaxation convexe proposée dans (G OLDSTEIN et al.,
2009b) pour estimer simultanément u et les paramètres des régions. L’optimalité
globale n’est pas assurée, mais un critère permettant de vérifier de combien la
solution calculée s’en éloigne est proposé.
4.5. Conclusion
Les contours actifs sont une catégorie très populaire de modèles déformables
et ont généré une littérature abondante et riche au cours des 25 dernières
années. Ceci s’explique, d’une part, par l’aspect très générique de leur principe,
qui les rend adaptés à un grand nombre d’applications. D’autre part, la difficulté
du problème abordé et les relatives faiblesses des premiers modèles proposés
ont également motivé un grand nombre de recherches. Enfin, ces approches
sont nourries de travaux menés dans disciplines variées comme la physique,
les méthodes numériques, la géométrie, les statistiques, ou encore la théorie de
l’optimisation.
Il est, évidemment, impossible de dresser un état de l’art exhaustif dans un
domaine aussi foisonnant et, dans la première partie de ce chapitre, nous
nous sommes limités à un tour d’horizon des approches les plus connues.
Nous pouvons toutefois remarquer que, parmi les principales problématiques
rencontrées et les variantes ou améliorations proposées, la question de
l’optimalité des solutions estimées est un sujet central, depuis l’origine de ces
méthodes.
En effet, selon un canevas usuel en reconnaissance des formes, les contours
actifs reposent sur la résolution d’un problème d’optimisation de paramètres ou,
plus généralement, de formes. Ce type de problème est connu pour sa difficulté,
LES COLLECTIONS DE L’IFSTTAR
125
Optimisation de formes en sciences de l’ingénieur
liée notamment à la présence d’optima locaux. Celle-ci peut être due à la non-
convexité de l’espace dans lequel sont recherchées les solutions (par exemple,
l’espace des fonctions caractéristiques binaires) ou bien à la non-convexité de
la fonctionnelle minimisée, voire même, des deux aspects combinés. Dans ce
chapitre, nous avons focalisé notre attention sur les principales approches ayant
abouti à des outils aujourd’hui opérationnels. Plus précisément, nous avons
présenté les techniques basées sur la recherche de chemins minimaux, qui
offrent des outils optimaux pour les contours actifs orientés frontière, avec un
certain besoin d’interactivité avec l’opérateur.
Nous avons ensuite expliqué le principe des techniques de relaxation convexe,
qui permettent d’optimiser certaines fonctionnelles orientées région. Ces
méthodes, souvent mises en concurrence avec les techniques de graph cuts,
qui représentent leur pendant dans un formalisme discret, ont connu un essor
important ces dernières années. Leur succès est dû à une certaine généricité
du formalisme proposé, à la présence de résultats théoriques concernant leur
optimalité. Il tient, surtout, à la disponibilité d’algorithmes d’optimisation efficaces
fondés notamment sur la notion de dualité. À l’heure actuelle, les approches
fondées sur l’optimisation convexe sont en pleine expansion dans le domaine
de la segmentation.
Si l’on fait le bilan de ces méthodes, on se rend compte que l’on est
progressivement passé au cours des années 1990 de représentations explicites,
sous forme de courbes, à des représentations implicites des formes, comme
les ensemble de niveaux ou, depuis le milieu des années 2000, les fonctions
caractéristiques. D’un problème d’optimisation de courbe, on se ramène
aujourd’hui à l’optimisation d’une fonction bidimensionnelle et l’on retrouve des
fonctionnelles très proches de critères définis dans le domaine de la restauration
d’images bruitées.
En fait, segmentation et restauration sont intimement liées, et les travaux
de Mumford et Shah (M UMFORD et al., 1989) continuent d’inspirer ces deux
domaines de recherches. En revenir à un problème de segmentation pourrait
passer pour un retour en arrière : dans le cas discret, par exemple, on retrouve
des fonctionnelles bien connues dans le domaine des champs Markoviens, très
en vogues à partir de la fin des années 1980. Ceci étant, les outils théoriques
et pratiques avec lesquels on revisite aujourd’hui ces méthodes ouvrent de
nouvelles possibilités et permettent de définir des outils de segmentation
innovants et efficaces.
Nous l’avons vu, les modèles et les algorithmes ont beaucoup progressé au cours
de ces 20 ans et on dispose d’un panel d’exemples de fonctionnelles adaptées à
des situations variées, et de plusieurs techniques optimales de segmentation. Les
besoins en recherche méthodologique sont cependant loin d’être taris. En effet,
tous les problèmes ne sont pas résolus, loin de là. Par exemple, nous avons noté
que dans le cas des modèles région binaires, l’optimalité n’était assurée que par
rapport à la forme, et non par rapport à l’ensemble « forme plus paramètres », ce
qui est rarement souligné dans les publications. Très peu de travaux ont abordé
LES COLLECTIONS DE L’IFSTTAR
126
Optimisation globale pour les contours actifs
cette question. Un autre exemple est celui de la segmentation globale simultanée
de plusieurs objets, et l’incorporation de contraintes de haut niveau portant sur la
forme ou la topologie des objets. Dans ces domaines, bien des progrès restent
à faire pour développer des modèles plus sophistiqués, en meilleure adéquation
avec l’extrême variété des situations rencontrées dans les applications pratiques.
Bibliographie
Vikram Appia et Yezzi Anthony. « Symmetric Fast Marching schemes for better
numerical isotropy ». In : IEEE Transactions on Pattern Analysis and Machine
Intelligence 35.9 (sept. 2013), pages 2298-2304.
Ben Appleton et Changming Sun. « Circular shortest paths by Branch and
Bound ». In : Pattern Recognition 36.11 (2003), pages 2513-2520.
Ben Appleton et Hugues Talbot. « Globally Minimal Surfaces by Continuous
Maximal Flows ». In : IEEE Transactions On Pattern Analysis And Machine
Intelligence 28.1 (2006), pages 106-118.
Ben Appleton et Hugues Talbot. « Globally Optimal Geodesic Active
Contours ». In : Journal of Mathematical Imaging and Vision 23.1 (2005),
pages 67-86.
Gilles Aubert, Michel Barlaud, Olivier Faugeras et Stéphanie Jehan-Besson.
« Image segmentation using active contours : calculus of variations or shape
gradients ? » In : SIAM, Journal on Applied Mathematics 63.6 (sept. 2003). RR-
INRIA 4483, juin 2002, pages 2128-2154.
Gilles Aubert et Laure Blanc-Féraud. An elementary proof of the equivalence
between 2D and 3D classical snakes and geodesic active contours. Rapport
de Recherche RR-3340. Sophia Antipolis : INRIA, jan. 1998.
Jean-François Aujol et Antonin Chambolle. « Dual Norms and Image
Decomposition Models ». In : International Journal of Computer Vision 63.1
(2005), pages 85-104.
Fethallah Benmansour et Laurent D. Cohen. « Fast Object Segmentation by
Growing Minimal Paths from a Single Point on 2D or 3D Images ». In : Journal
of Mathematical Imaging and Vision 33.2 (fév. 2009), pages 209-221. ISSN :
0924-9907. DOI : 10.1007/s10851-008-0131-0.
Marie-Odile Berger. « Les contours actifs : modélisation, comportement,
convergence ». Thèse de doctorat. Nancy : INPL, 1991.
Benjamin Berkels. « An unconstrained multiphase thresholding approach
for image segmentation ». In : Proceedings of the Second International
Conference on Scale Space Methods and Variational Methods in Computer
Vision (SSVM 2009). Tome 5567. Lecture Notes in Computer Science. 2009,
pages 26-37.
Yuri Boykov, Olga Veksler et Ramin Zabih. « Fast Approximate Energy
Minimization via Graph Cuts ». In : IEEE Transactions on Pattern Analysis and
Machine Intelligence 23.11 (nov. 2001), pages 1222-1239. ISSN : 0162-8828.
DOI : 10.1109/34.969114.
LES COLLECTIONS DE L’IFSTTAR
127
Optimisation de formes en sciences de l’ingénieur
Xavier Bresson, Selim Esedoḡlu, Pierre Vandergheynst, Jean-Philippe
Thiran et Stanley Osher. « Fast Global Minimization of the Active
Contour/Snake Model ». In : Journal of Mathematical Imaging and Vision 28.2
(2007), pages 151-167.
P. Brigger, J. Hoeg et M. Unser. « B-spline Snakes : A Flexible Tool for
Parametric Contour Detection ». In : IEEE Transactions on Image Processing
9.9 (sept. 2000), pages 1484-1496. ISSN : 1057-7149. DOI : 10 . 1109 / 83 .
862624.
Ethan S. Brown, Tony F. Chan et Xavier Bresson. « Completely convex
formulation of the Chan-Vese image segmentation model ». In : International
Journal of Computer Vision 98.1 (2011), pages 103-121.
Thomas Brox et Daniel Cremers. « On local region models and a statistical
interpretation of the piecewise smooth Mumford-Shah functional ». In :
International Journal of Computer Vision 84.2 (août 2009), pages 184-193.
Martin Burger, Benjamin Hackl et Wolfgang Ring. « Incorporating Topological
Derivatives into Level Set Methods ». In : Journal of Computational Physics
194.1 (fév. 2004), pages 344-362. ISSN : 0021-9991. DOI : 10.1016/[Link].
2003.09.033.
Vincent Caselles, Francine Catté, Tomeu Coll et Françoise Dibos. « A
geometric model for active contours in image processing ». In : Numerische
Mathematik 66 (oct. 1993), pages 1-31. DOI : 10.1007/BF01385685.
Vincent Caselles, Ron Kimmel et Guillermo Sapiro. « Geodesic active
contours ». In : International Journal of Computer Vision 22.1 (fév. 1997),
pages 61-79.
Antonin Chambolle. « An Algorithm for Total Variation Minimization and
Applications ». In : Journal of Mathematical Imaging and Vision 20.1-2 (jan.
2004), pages 89-97. ISSN : 0924-9907. DOI : 10.1023/B:JMIV.0000011325.
36760.1e.
Tony F. Chan et Selim Esedoḡlu. « Aspects of total variation regularized L1
function approximation ». In : SIAM Journal on Applied Mathematics 65.5
(2005), pages 1817-1837. DOI : 10.1137/040604297.
Tony F. Chan et Luminita A. Vese. « Active Contours Without Edges ». In : Trans.
Img. Proc. 10.2 (fév. 2001), pages 266-277. ISSN : 1057-7149. DOI : 10.1109/
83.902291.
Pierre Charbonnier. « Modèles de forme et d’apparence en traitement
d’images ». Habilitation à Diriger des Recherches. Université de Strasbourg,
sept. 2009.
Pierre Charbonnier. Optimisation globale pour les contours actifs. Rapport
bibliographique OR 11W101. IFSTTAR, mar. 2012.
Pierre Charbonnier et Olivier Cuisenaire. Une étude des contours actifs :
modèles classique, géométrique et géodésique. Rapport technique 163.
Laboratoire TELE, Place du Levant 2, 1348 LOUVAIN-LA-NEUVE (Belgique) :
Université Catholique de Louvain, juil. 1996.
LES COLLECTIONS DE L’IFSTTAR
128
Optimisation globale pour les contours actifs
Pierre Charbonnier, Yves Guillard et Xavier Clady. Détection automatique de
fissures sur ouvrages d’art par analyse d’images. Rapport technique FAER
283138. LCPC, avr. 1999.
Pierre Charbonnier et Jean-Marc Moliard. « Calculs de chemins minimaux,
suivi de fissures et autres applications ». In : Journées des Sciences de
l’Ingénieur du réseau des laboratoires des Ponts et Chaussées. Sous la
direction de LCPC. Actes des journées scientifiques du LCPC. Dourdan,
France, déc. 2003, pages 201-206.
Pierre Charbonnier et Jean-Marc Moliard. Implantation dans PICTURE d’un
algorithme de segmentation d’images par minimisation de distance géodésique
pour le suivi de bords ou de fissures. Rapport technique FAER 282410, OR
11A025. LCPC, fév. 2002.
Christophe Chesnaud, Philippe Réfrégier et Vlady Boulet. « Statistical Region
Snake-Based Segmentation Adapted to Different Physical Noise Models ». In :
IEEE Trans. Pattern Anal. Mach. Intell. 21.11 (nov. 1999), pages 1145-1157.
ISSN : 0162-8828. DOI : 10.1109/34.809108.
Laurent D. Cohen. « Multiple Contour Finding and Perceptual Grouping using
Minimal Paths ». In : Journal of Mathematical Imaging and Vision 14.3 (mai
2001), pages 225-236.
Laurent D. Cohen. « On active contour models and balloons ». In : Computer
Vision, Graphics, and Image Processing. Image Understanding 53.2 (1991),
pages 211-218.
Laurent D. Cohen, Éric Bardinet et Nicholas Ayache. Surface reconstruction
using active contour models. Rapport de Recherche RR-1824. Sophia
Antipolis : INRIA, fév. 1993.
Laurent D. Cohen et I. Cohen. « Finite-Element Methods for Active Contour
Models and Balloons for 2-D and 3-D Images ». In : IEEE Transactions on
Pattern Analysis and Machine Intelligence 15.11 (nov. 1993), pages 1131-
1147.
Laurent D. Cohen et Ron Kimmel. « Global Minimum for Active Contour Models :
A Minimal Path Approach ». In : International Journal of Computer Vision 24.1
(1997), pages 57-78.
Daniel Cremers, Mikael Rousson et Rachid Deriche. « A Review of Statistical
Approaches to Level Set Segmentation : Integrating Color, Texture, Motion and
Shape ». In : Int. J. Comput. Vision 72.2 (avr. 2007), pages 195-215. ISSN :
0920-5691. DOI : 10.1007/s11263-006-8711-1.
Daniel Cremers, Frank R. Schmidt et Frank Barthel. « Shape Priors in
Variational Image Segmentation : Convexity, Lipschitz Continuity and Globally
Optimal Solutions ». In : IEEE Conference on Computer Vision and Pattern
Recognition (CVPR). Anchorage, Alaska, juin 2008. DOI : 10.1109/CVPR.2008.
4587446.
LES COLLECTIONS DE L’IFSTTAR
129
Optimisation de formes en sciences de l’ingénieur
Per-Erik Danielsson et Qingfen Lin. « A Modified Fast Marching Method ».
In : Proceedings of the 13th Scandinavian Conference on Image Analysis.
SCIA’03. Halmstad, Sweden : Springer-Verlag, 2003, pages 1154-1161. ISBN :
3-540-40601-8.
Martin de La Gorce et Nikos Paragios. « Fast Dichotomic Multiple Search
Algorithm for Shortest Circular Path ». In : Proc. 18th International Conference
on Pattern Recognition (ICPR’06). Tome 2. 2006, pages 403-406.
Michel C. Delfour et Jean-Paul Zolésio. Shape and geometries : analysis,
differential calculus and optimization. Advances in design and control. SIAM,
2001.
Hervé Delingette et Montagnat Johan. Topology and Shape Constraints
on Parametric Active Contours. Rapport de Recherche RR-3880. Sophia
Antipolis : INRIA, 2000.
Thomas Deschamps. « Extraction de Courbes et Surfaces par Methodes
de Chemins Minimaux et Ensembles de Niveaux. Applications en Imagerie
Medicale 3D ». Olivier FAUGERAS Philippe CINQUIN Ron KIMMEL Francoise
DIBOS Wiro NIESSEN Nicolas ROUGON. Theses. Université Paris Dauphine
- Paris IX, déc. 2001.
Edsger W. Dijkstra. « A Note on Two Problems in Connexion with Graphs ».
In : Numer. Math. 1.1 (déc. 1959), pages 269-271. ISSN : 0029-599X. DOI :
10.1007/BF01386390.
Franck Dufrenois. « Étude d’un modèle déformable de Fourier pour la
segmentation et le suivi d’objets 2D et 3D ». In : Traitement du Signal 17.2
(2000), pages 153-178.
Roman Durikovic, Kazufumi Kaneda et Hideo Yamashita. « Dynamic contour :
a texture approach and contour operations ». In : The Visual Computer 11.6
(1995), pages 277-289.
Alexandre A. Falcão, Jayaral K. Udupa, Supun Samarasekera, Shoba
Sharma, Bruce Elliot Hirsch et Roberto de A. Lotufo. « User-steered image
segmentation paradigms : Live-wire and live-lane ». In : Graphical Models and
Image Processing 60.4 (juil. 1998), pages 233-260.
Sergey Fomel. A variational formulation of the fast marching eikonal solver.
Rapport Technique 95. Université de Standford : Stanford Exploration Project,
sept. 1997.
Alban Foulonneau. « Une contribution à l’introduction de contraintes
géométriques dans les contours actifs orientés région ». Thèse de doctorat.
Strasbourg : Université Louis Pasteur - Strasbourg I, déc. 2004.
Pascal Fua et Yvan G. Leclerc. « Model Driven Edge Detection ». In : Machine
Vision and Applications 3 (1990), pages 45-56.
Tom Goldstein, Xavier Bresson et Stanley Osher. Geometric Applications
of the Split Bregman Method : Segmentation and Surface Reconstruction.
Rapport de Recherche CAM09-06. UCLA, fév. 2009.
LES COLLECTIONS DE L’IFSTTAR
130
Optimisation globale pour les contours actifs
Tom Goldstein, Xavier Bresson et Stanley Osher. Global minimization of
Markov random fields with applications to optical flow. Rapport de Recherche
CAM09-77. UCLA, fév. 2009.
Steve R. Gunn et Mark S. Nixon. « A Robust Snake Implementation ; A Dual
Active Contour ». In : IEEE Trans. Pattern Anal. Mach. Intell. 19.1 (jan. 1997),
pages 63-68. ISSN : 0162-8828. DOI : 10.1109/34.566812.
Sabry M. Hassouna et Aly A. Farag. « Multistencils Fast Marching Methods :
A highly accurate solution to the Eikonal equation on cartesian domains ». In :
IEEE Transactions On Pattern Analysis And Machine Intelligence 29.9 (sept.
2007), pages 1563-1574.
Lin He et Stanley Osher. « Solving the Chan-Vese Model by a Multiphase Level
Set Algorithm Based on the Topological Derivative ». In : Proceedings of the 1st
International Conference on Scale Space and Variational Methods in Computer
Vision. SSVM’07. Ischia, Italy : Springer-Verlag, 2007, pages 777-788. ISBN :
978-3-540-72822-1.
John Helmsen, Elbridge Puckett, Phillip Colella et Milo Dorr. « Two new
methods for simulating photolithography development in 3D ». In : 2726 (juin
1996), pages 253-261. DOI : 10.1117/12.240959.
Nawal Houhou, Jean-Philippe Thiran et Xavier Bresson. « Fast texture
segmentation model based on the shape operator and active contour ». In :
IEEE Conference on Computer Vision and Pattern Recognition (CVPR’2008).
Anchorage, USA, 2008, pages 1-8.
Won-Ki Jeong et Ross Whitaker. « A Fast Iterative Method for Eikonal
Equations ». In : SIAM Journal of Scientific Computing 30.5 (juil. 2008),
pages 2512-2534. DOI : [Link].8943.
Michael Kass, Andrew Witkin et Demetri Terzopoulos. « Snakes : active
contour models ». In : International Journal of Computer Vision 1.4 (jan. 1988),
pages 321-331. DOI : 10.1007/BF00133570.
Vivek Kaul, Anthony Yezzi et Yichang Tsai. « Detecting curves with unknown
endpoints and arbitrary topology using minimal paths ». In : IEEE Transactions
on Pattern Analysis and Machine Intelligence 34.10 (oct. 2012), pages 1952-
1965. DOI : 10.1007/BF00379537.
Satyanad Kichenassamy, Arun Kumar, Peter Olver, Allen Tannenbaum et
Anthony Jr Yezzi. « Conformal curvature flows : From phase transitions to
active vision ». In : Archive for Rational Mechanics and Analysis 134 (sept.
1996), pages 275-301.
Junmo Kim, John W. Fisher, Anthony Yezzi, Mujdat Çetin et Alan S. Willsky.
« A nonparametric statistical method for image segmentation using information
theory and curve evolution ». In : IEEE Transactions on Image Processing
14.10 (oct. 2005), pages 1486-1502. DOI : 10.1109/TIP.2005.854442.
Seongjai Kim. « An O(N) level set method for eikonal equation ». In : SIAM
Journal on Scientific Computing 22.6 (2001), pages 2178-2193. DOI : 10.1137/
S1064827500367130.
LES COLLECTIONS DE L’IFSTTAR
131
Optimisation de formes en sciences de l’ingénieur
Shawn Lankton et Allen Tannenbaum. « Localizing region-based active
contours ». In : IEEE Transactions on Image Processing 17.11 (nov. 2008),
pages 1-11.
Bertrand Leroy, Isabelle L. Herlin et Laurent D. Cohen. « Multi-resolution
algorithms for active contour models ». In : Proc. 12th International Conference
on Analysis and Optimization of Systems : Images, Wavelets and PDE’s
(ICAOS’96). Tome 219/1996. Lecture Notes in Control and Information
Sciences. Paris : Springer, juin 1996, pages 58-65. DOI : 10 . 1007 / 3 - 540 -
76076-8_117.
Chunming Li, Chiu-Yen Kao, J. C. Gore et Zhaohua Ding. « Minimization of
Region-Scalable Fitting Energy for Image Segmentation ». In : Trans. Img. Proc.
17.10 (oct. 2008), pages 1940-1949. ISSN : 1057-7149. DOI : 10.1109/TIP.
2008.2002304.
R. Malladi, James A. Sethian et B. Vemuri. « Shape modeling with front
propagation : a level set approach ». In : IEEE Transactions on Pattern Analysis
and Machine Intelligence 17.2 (fév. 1995), pages 158-175.
Tim McInerney et Demetri Terzopoulos. « Topologically Adaptable Snakes ».
In : Proceedings of the Fifth International Conference on Computer Vision.
ICCV ’95. Washington, DC, USA : IEEE Computer Society, 1995, pages 840-.
ISBN : 0-8186-7042-8.
Sylvie Menet, Philippe Saint-Marc et Gerard Medioni. « B-snakes :
Implementation and application to stereo ». In : Proc. 3rd International
Conference on Computer Vision (ICCV’90). 1990, pages 720-726.
Eric N. Mortensen et William A. Barrett. « Intelligent Scissors for Image
Composition ». In : Proceedings of the 22Nd Annual Conference on Computer
Graphics and Interactive Techniques. SIGGRAPH ’95. New York, NY, USA :
ACM, 1995, pages 191-198. ISBN : 0-89791-701-4. DOI : 10 . 1145 / 218380 .
218442.
Eric N. Mortensen et William A. Barrett. « Toboggan-Based Intelligent Scissors
with a Four-Parameter Edge Model ». In : Proc. IEEE Computer Society
Conference on Computer Vision and Pattern Recognition (CVPR). Tome 2. Ft.
Collins, USA, juin 1999, pages 2452-2458. DOI : 10.1109/CVPR.1999.784720.
Benoit Mory et Roberto Ardon. « Fuzzy region competition : a convex two-
phase segmentation framework ». In : Proceedings of the 1st international
conference on Scale space and variational methods in computer vision.
SSVM’07. Ischia, Italie, 2007, pages 214-226.
Benoit Mory, Roberto Ardon et Jean-Philippe Thiran. « Variational
Segmentation using Fuzzy Region Competition and Local Non-Parametric
Probability Density Functions ». In : IEEE 11th International Conference on
Computer Vision, ICCV. Rio de Janeiro, Brésil, oct. 2007, pages 1-8.
David Mumford et Jayant Shah. « Optimal approximations by piecewise smooth
functions and associated variational problems ». In : Communications on Pure
and Applied Mathematics 42.5 (1989), pages 577-685. ISSN : 00103640. DOI :
10.1002/cpa.3160420503.
LES COLLECTIONS DE L’IFSTTAR
132
Optimisation globale pour les contours actifs
K. Ni, Xavier Bresson, Tony F. Chan et Selim Esedoḡlu. « Local Histogram
Based Segmentation Using the Wasserstein Distance ». In : International
Journal of Computer Vision 84.1 (août 2009), pages 97-111.
Mila Nikolova. « A variational approach to remove outliers and impulse noise ».
In : Journal of Mathematical Imaging and Vision 20 (2004), pages 99-120.
Mila Nikolova, Selim Esedoḡlu et Tony F. Chan. « Algorithms for Finding
Global Minimizers of Image Segmentation and Denoising Models ». In : SIAM
Journal on Applied Mathematics 66.5 (2006). (UCLA CAM Report 04-54,
2004), pages 1632-1648.
Stanley Osher et R. Fedkiw. Level set methods and dynamic implicit surfaces.
Applied mathematical science. New York, USA : Springer, 2003. ISBN : 0-387-
95482-1.
Stanley Osher et James A. Sethian. « Fronts propagating with curvature-
dependant speed : algorithms based on Hamilton-Jacobi formulations ». In :
Journal of Computational Physics 79.1 (nov. 1988), pages 12-49.
Nikos Paragios et Rachid Deriche. « Geodesic Active Regions for Supervised
Texture Segmentation ». In : Proceedings of the International Conference on
Computer Vision-Volume 2 - Volume 2. ICCV ’99. Washington, DC, USA : IEEE
Computer Society, 1999, pages 926-. ISBN : 0-7695-0164-8.
Alex Petland et Bradley Horowitz. « Recovery of Nonrigid Motion and
Structure ». In : IEEE Trans. Pattern Anal. Mach. Intell. 13.7 (juil. 1991),
pages 730-742. ISSN : 0162-8828. DOI : 10.1109/34.85661.
Thomas Pock, Antonin Chambolle, Daniel Cremers et Horst Bischof. « A
Convex Relaxation Approach for Computing Minimal Partitions ». In : IEEE
Computer Society Conference on Computer Vision and Pattern Recognition
(CVPR). 2009, pages 810-817.
Frederic Precioso et Michel Barlaud. « B-Spline active contour with handling of
topology changes for fast video segmentation ». In : Eurasip Journal on Applied
Signal Processing, special issue : image analysis for multimedia interactive
services - PART II 2002.6 (juin 2002), pages 555-560. DOI : 10 . 1155 /
s1110865702203121.
Fuhao Qin, Yi Luo, Kim B. Olsen, Wenying Cai et Gerard Schuster. « Finite-
difference solution of the eikonal equation along expanding wavefronts ». In :
Geophysics 57.3 (1992), pages 478-487. DOI : 10.1190/1.1443263.
Rémi Ronfard. « Region-based Strategies for Active Contour Models ». In : Int.
J. Comput. Vision 13.2 (oct. 1994), pages 229-251. ISSN : 0920-5691. DOI :
10.1007/BF01427153.
Elisabeth Rouy et Agnès Tourin. « A Viscosity Solutions Approach to Shape-
from-shading ». In : SIAM J. Numer. Anal. 29.3 (juin 1992), pages 867-884.
ISSN : 0036-1429. DOI : 10.1137/0729053.
LES COLLECTIONS DE L’IFSTTAR
133
Optimisation de formes en sciences de l’ingénieur
Leonid I. Rudin, Stanley Osher et Emad Fatemi. « Nonlinear total variation
based noise removal algorithms ». In : Physica D : Nonlinear Phenomena 60.1
(1992), pages 259-268. ISSN : 0167-2789. DOI : 10 . 1016 / 0167 - 2789(92 )
90242-F.
Christoph Schnörr. « Computation of Discontinuous Optical Flow by Domain
Decomposition and Shape Optimization ». In : Int. J. Comput. Vision 8.2 (août
1992), pages 153-165. ISSN : 0920-5691. DOI : 10.1007/BF00127172.
James A. Sethian. « A fast marching level set method for monotonically
advancing fronts ». In : Proc. Nat. Acad. Sci. 93.4 (1996), pages 1591-1595.
James A. Sethian. Level set methods and fast marching methods : evolving
interfaces in computational geometry, fluid mechanics, computer vision and
material sciences. Cambridge Monographs on Applied and Computational
Mathematics. Cambridge University Press, 1999.
Yonggang Shi. « Object-Based Dynamic Imaging With Level Set Methods ».
Thèse de doctorat. Université de Boston, USA, 2005.
Yonggang Shi et W. C. Karl. « A fast level set method without solving PDEs ». In :
IEEE International Conference on Acoustics, Speech, and Signal Processing
(ICASSP). Tome 2. Mar. 2005, pages 97-100.
Jan Sokolowski et Jean-Paul Zolésio. Introduction to shape optimization :
shape sensitivity analysis. Tome 16. Springer Series in Computational
Mathematics. Berlin, Heidelberg, New York : Springer Verlag, juil. 1992.
Lawrence H. Staib et James S. Duncan. « Boundary Finding with Parametrically
Deformable Models ». In : IEEE Trans. Pattern Anal. Mach. Intell. 14.11 (nov.
1992), pages 1061-1075. ISSN : 0162-8828. DOI : 10.1109/34.166621.
Petter Strandmark, Frederik Kahl et Niels Chr. Overgaard. « Optimizing
parametric total variation models. » In : IEEE International Conference on
Computer Vision. 2009, pages 2240-2247. DOI : 10.1109/ICCV.2009.5459464.
Gilbert Strang. « L1 and L∞ and approximation of vector fields in the plane ». In :
Nonlinear Partial Differential Equations in Applied Science. Sous la direction de
H. Fujita, P. Lax et G. Strang. Tome 5. Lecture Notes in Num. Appl. Anal. 1982,
pages 273-288. DOI : 10.1016/S0304-0208(08)72097-8.
Gilbert Strang. « Maximal Flow Through a Domain ». In : Math. Program. 26.2
(juin 1983), pages 123-143. ISSN : 0025-5610. DOI : 10.1007/BF02592050.
Changming Sun et Stefano Pallottino. « Circular Shortest Path in images ». In :
Pattern Recognition 36.3 (mar. 2003), pages 709-719. DOI : 10.1016/S0031-
3203(02)00085-7.
Demetri Terzopoulos, Andrew Witkin et Michael Kass. « Constraints on
deformable models : recovering 3D shape and nongrid motion ». In : Artificial
Intelligence 36.1 (1988), pages 91-123.
John N. Tsitsiklis. « Efficient algorithms for globally optimal trajectories ». In :
IEEE Transactions on Automatic Control 40.9 (sept. 1995), pages 1528-1538.
LES COLLECTIONS DE L’IFSTTAR
134
Optimisation globale pour les contours actifs
Fernandio A. Velasco et L. Marroquin José. « Robust parametric active
contours : the Sandwich Snakes ». In : Machine Vision and Applications 12
(2001), pages 238-242. DOI : 10.1007/s001380050143.
Luminita A. Vese et Tony F. Chan. « A multiphase level set framework for image
segmentation using the Mumford ans Shah model ». In : International Journal
of Computer Vision 50.3 (2002), pages 271-293.
Manuel Werlberger, Thomas Pock, Markus Unger et Horst Bischof. « A
Variational Model for Interactive Shape Prior Segmentation and Real-Time
Tracking ». In : Proceedings of the Second International Conference on Scale
Space and Variational Methods in Computer Vision. SSVM ’09. Voss, Norway :
Springer-Verlag, 2009, pages 200-211. ISBN : 978-3-642-02255-5. DOI : 10 .
1007/978-3-642-02256-2_17.
Chenyang Xu, Yezzi Anthony et Jerry L. Prince. « On the relationship
between parametric and geometric active contours ». In : Proc. 34th Asilomar
Conference on Signal, Systems and Computers. Oct. 2000, pages 483-489.
Chenyang Xu, Dzung L. Pham et Jerry L. Prince. « Medical Image
Segmentation Using Deformable Models ». In : Handbook of Medical Imaging –
Volume 2 : Medical Image Processing and Analysis. Tome PM80. SPIE Press,
juin 2000. Chapitre 3, pages 129-174.
Chenyang Xu et Jerry L. Prince. « Snakes, Shapes, and Gradient Vector Flow ».
In : IEEE Transactions on Image Processing 7.3 (mar. 1998), pages 359-369.
Liron Yatziv, Albero Bartesaghi et Guillermo Sapiro. « O(N) implementation of
the fast marching algorithm ». In : Journal of computational physics 212 (2006),
pages 393-399. DOI : 10.1016/[Link].2005.08.005.
Anthony Yezzi Jr, Andy Tsai et Alan Willsky. « A Statistical Approach
to Snakes for Bimodal and Trimodal Imagery ». In : Proceedings of the
International Conference on Computer Vision-Volume 2 - Volume 2. ICCV ’99.
Washington, DC, USA : IEEE Computer Society, 1999, pages 898-. ISBN : 0-
7695-0164-8.
Song Chun Zhu et Alan Yuille. « Region Competition : Unifying Snakes, Region
Growing, and Bayes/MDL for Multiband Image Segmentation ». In : IEEE Trans.
Pattern Anal. Mach. Intell. 18.9 (sept. 1996), pages 884-900. ISSN : 0162-8828.
DOI : 10.1109/34.537343.
LES COLLECTIONS DE L’IFSTTAR
135
Chapitre 5
Optimisation de fonctions
pseudo-booléennes
Laurent CARAFFA 1 , Jean-Philippe TAREL1 , Mathias PAGET1
Résumé – Une approche pour faire du traitement d’image consiste à
poser les problèmes comme la minimisation d’une énergie sur l’espace
des images qui sont représentées par des fonctions 2D. L’optimisation de
ce type d’énergie passe par le développement de schémas numériques et
donc par la nécessaire discrétisation de l’espace des fonctions choisies et
de l’énergie utilisée. Les images étant en pratique représentées de façon
discrétisée, une autre approche consiste à poser les problèmes comme
la minimisation d’une énergie directement dans le domaine discret. Cela
conduit généralement à introduire une représentation de l’image sous la
forme d’un graphe afin de pouvoir modéliser les interactions entre voisins.
Avec cette approche, nous disposons du cadre théorique de l’optimisation
quadratique pseudo-booléenne (QPBO) dans le cas où les variables
sont binaires et de certaines extensions aux cas non-binaires. Dans ce
chapitre, les principaux résultats obtenus dans ce cadre théorique QPBO
sont présentés de façon succincte afin d’introduire les outils disponibles
actuellement.
Enfin, l’utilisation de ces outils est illustrée sur le problème de la
reconstruction 3D à partir de paires stéréoscopiques, mais ils peuvent
s’appliquer à bien d’autres problèmes au delà du traitement d’image.
1. IFSTTAR
LES COLLECTIONS DE L’IFSTTAR
137
Optimisation de formes en sciences de l’ingénieur
5.1. Introduction
En traitement d’images et dans d’autres domaines, de nombreux problèmes
conduisent à la recherche d’un optimum global d’une énergie multi-labels. La
solution recherchée est alors représentée par un ensemble de variables indexées
par les sommets d’un graphe et prenant leurs valeurs parmi un ensemble de
labels (entiers). Soit L = {0, · · · , m} l’ensemble des labels, par exemple {0, 1}
pour une segmentation binaire, {0, · · · , 255} pour la restauration d’une image
8 bits, {0, · · · , m} pour un problème de reconstruction 3D à partir de paires
stéréoscopiques avec m la disparité maximale admissible. Dans ces exemples,
le graphe associé a pour sommets les pixels et les arrêtes codent les voisinages
entre pixels.
Soit n le nombre de variables et de sommets, f : Ln → R est une fonction déduite
du modèle du problème à traiter, où chaque configuration x de Ln correspond une
valeur d’énergie :
X X X
f (x) = ϑu (Lu ) + ϑuv (Lu , Lv ) + ϑuvw (Lu , Lv , Lw ) + · · · (5.1)
u∈C1 u,v∈C2 u,v,w∈C3
où Ck est l’ensemble des sous-ensembles de k sommets et ϑ est la fonction
de coût de chaque sous-ensemble. Lorsque le modèle dérive d’un modèle
probabiliste, les solutions les plus probables ont les énergies les plus faibles,
on essayera donc de résoudre le problème de minimisation suivant :
min f (x). (5.2)
x∈Ln
La recherche des labels qui minimisent (5.1) est généralement complexe. Le
développement de modèles nécessite donc la connaissance des techniques
d’optimisation disponibles.
En optimisation, il est primordial de savoir s’il est possible de trouver, et dans
quels délais, le minimum global d’une fonction. Si on peut trouver le minimum
global d’une énergie, il n’y a pas d’ambiguïté sur le résultat de l’optimisation, et
l’on peut évaluer si le modèle proposé est bien en adéquation avec le problème
à résoudre. Inversement, lorsque seulement un minimum local est obtenu, on ne
sait pas si les erreurs viennent de ce que l’on n’a pas atteint le minimum global
de la fonction, ou si c’est le modèle qui est incorrect.
Lorsque le nombre de configurations possibles n’est pas important, il est assez
simple de trouver le minimum de l’énergie. Une recherche exhaustive sur
l’ensemble des configurations est suffisante pour permettre de trouver celle
qui minimise l’énergie. Mais quand il existe des interactions locales entre les
variables, le nombre de configurations possibles devient très important avec le
nombre de variables. Par exemple, considérons le cas de l’optimisation d’un
champ de Markov binaire sur une image 512 × 512 avec prise en compte des
LES COLLECTIONS DE L’IFSTTAR
138
Optimisation de fonctions pseudo-booléennes
voisinages deux à deux ; il existe alors 2512×512 configurations possibles. Sachant
que les images actuelles sont constituées de plusieurs millions de pixels et que
la cardinalité de l’ensemble des labels peut être beaucoup plus importante (256
pour du débruitage, ou encore plus pour la stéréovision avec une grande base),
il est donc de toute évidence impossible de parcourir l’ensemble des solutions.
Des algorithmes spécialisés ont donc dû être conçus pour optimiser ce type de
problème avec un grand espace de recherche.
En optimisation continue, lorsqu’une fonction est convexe, tous les minima
locaux sont globaux. De façon semblable à l’optimisation continue, il existe en
optimisation discrète une classe de fonctions qui permet, malgré une croissance
exponentielle de l’espace de recherche, de trouver un minimum global en un
temps polynomial. Ce sont les fonctions dites sous-modulaires, qu’il est important
de distinguer des fonctions non sous-modulaires. Une des méthodes les plus
utilisées pour optimiser les fonctions sous-modulaires est connue sous le nom de
coupe de graphe (graph-cuts), voir par exemple (KOLMOGOROV et al., 2002).
Toutefois, l’espace des fonctions sous-modulaires est assez restreint. De plus,
au delà d’une certaine cardinalité des tailles des voisinages, pouvoir dire d’une
fonction qu’elle est sous-modulaire s’avère être un problème NP-Difficile. Il
arrive aussi fréquemment que l’on veuille optimiser des fonctions non sous-
modulaires, il est donc utile dans ce cas, de disposer de méthodes spécifiques
d’optimisation même si les résultats obtenus sont partiels. Compte tenu de
l’importance de ce type d’optimisation dans différents champs d’application, de
nombreux algorithmes ont vu le jour.
L’une des approches les plus efficaces pour optimiser le type d’énergies (5.2)
est celle fondée sur l’optimisation de fonctions pseudo-booléennes. L’étude de
l’optimisation des fonctions pseudo-booléennes date des années 50. Observées
initialement dans la théorie des jeux, ce fut l’une des principales motivations
de leur étude en recherche opérationnelle. Par la suite, la découverte de la
présence récurrente de fonctions pseudo-booléennes dans un spectre très large
d’applications et de domaines a fortement influé sur l’évolution et le gain d’intérêt
de ce domaine.
Dans le cas des labels binaires, on nomme B = {0, 1} l’ensemble des labels. Une
fonction f : Bn → R est dite pseudo-booléenne. Elle peut être écrite de façon
unique comme un polynôme de n variables de la façon suivante :
n
X X X
f (x1 , · · · , xn ) = c0 + ci xi + cij xi xj + cijk xi xj xk +· · · . (5.3)
i=1 1≤i≤j≤n 1≤i≤j≤k≤n
Dans le cas binaire, l’énergie (5.1) peut être réécrite comme une fonction pseudo-
booléenne, voir la partie 5.2.2. Dans le cas non binaire, le passage à des
fonctions pseudo-booléennes est décrit dans la partie 5.3.2.
Nous avons choisi d’introduire dans la partie 5.2 l’optimisation de fonctions
pseudo-booléennes, en suivant la présentation faite dans (B OROS et Peter L
LES COLLECTIONS DE L’IFSTTAR
139
Optimisation de formes en sciences de l’ingénieur
H AMMER, 2002). Cette partie est donc une synthèse partielle de cet article
d’introduction sur l’état de l’art de l’optimisation de fonctions pseudo-booléennes.
L’ensemble des théorèmes que nous présentons est limité à une partie de cet
article.
Certaines notions sont détaillées par des exemples complémentaires à ceux de
l’article. Cette présentation est asez différente de celle proposée habituellement
en coupe de graphe, même si on retrouve comme un cas particulier la coupe de
graphe habituelle comme expliqué en partie 5.2.7. La partie suivante 5.3 présente
des algorithmes pour l’optimisation approchée de fonctions multi-labels fondées
sur la théorie de l’optimisation de fonctions pseudo-booléennes. Enfin, dans
la partie 5.4, trois exemples d’utilisation de l’optimisation de fonctions pseudo-
booléennes sont discutés afin d’expliquer comment utiliser en pratique ce type
d’optimisation.
5.2. Optimisation de fonctions pseudo-booléennes
5.2.1. Notations
Dans la suite, on nomme V = {1, 2, · · · , n} l’ensemble des indices de 1 à
n, où n est le nombre de variables. x = (x1 , · · · , xn ) est un vecteur binaire
et par définition x̄i = 1 − xi est le complément pour i ∈ V. On note
X = {x1 , x̄1 , · · · , xn , x̄n } l’ensemble de ces symboles.
5.2.2. Représentations
On dispose d’au moins deux représentations pour la même fonction pseudo-
booléenne.
[Link]. Forme multilinéaire polynomiale unique
X Y
f (x) = cS xj (5.4)
S⊆V j∈S
On appelle degré de f la taille du plus grand ensemble S ⊆ V pour lequel cS 6= 0.
Cette représentation est utile pour étudier certaines propriétés de f .
[Link]. Posiforme
Une fonction pseudo-booléenne peut toujours être représentée par un polynôme
à coefficients positifs, au terme constant près, ou posiforme de la forme suivante :
X Y
φ(x) = a∅ + aT u (5.5)
T ⊆X u∈T
où aT ≥ 0. Pour représenter une fonction pseudo-booléenne par une posiforme,
une façon de procéder consiste à remplacer le premier élément x par 1 − x̄
dans chaque terme où cS < 0 dans la forme multilinéaire unique. Cette dernière
opération est nommée complémentation.
LES COLLECTIONS DE L’IFSTTAR
140
Optimisation de fonctions pseudo-booléennes
Table 5.1.
Table de vérité de la fonction pseudo-booléenne de l’exemple 5.1. Les
minimums de f1 sont en gras
00 0 0000011 1 11 1 1 1
x 00 0 0111100 0 01 1 1 1
00 1 1001100 1 10 0 1 1
01 0 1010101 0 10 1 0 1
f1 (x) 0 0 13 4 0 0 9 0 5 5 14 5 5 12 14 12
Il existe plusieurs posiformes pour une même fonction pseudo-booléenne, donc
pour une même table de vérité. On notera P(f ) la famille des posiformes
représentant la même fonction f .
Exemple 5.1. Ces deux posiformes :
φ11 (x) = 5x1 + 4x̄1 x̄2 x3 + 7x1 x2 x4 + 9x3 x̄4
φ12 (x) = x1 + 4x1 x2 + 4x1 x̄2 x̄3 + 7x1 x2 x4 + 4x̄2 x3 + 9x3 x̄4
ont la même forme multilinéaire polynomiale unique :
f1 (x) = 5x1 + 13x3 − 4x1 x3 − 4x2 x3 − 9x3 x4 + 4x1 x2 x3 + 7x1 x2 x4 .
En effet, ces trois fonctions pseudo-booléennes vérifient la même table de vérité,
table. 5.1.
5.2.3. Propriétés des fonctions pseudo-booléennes
La structure de posiforme permet de vérifier certaines propriétés. En effet, une
posiforme ne possédant aucun terme négatif, la valeur de la posiforme ne peut
être inférieure à 0, à la constante près. Dans un sens, minimiser une posiforme
équivaut à essayer d’annuler le plus de termes possible. Il en découle que
minimiser une posiforme est équivalent au problème d’optimisation de satisfabilité
booléenne maximale MAX-SAT (Maximum Satisfiability problem), qui est NP-
complet. Sous l’hypothèse P 6= N P , on est alors seulement capable de trouver
en un temps polynomial une affectation partielle des variables binaires qui est
dans l’optimum ((B OROS et Peter L H AMMER, 2002), p.18).
On appelle affectation partielle, un vecteur binaire y ∈ BS correspondant à un
sous-ensemble S ⊆ V. De plus, pour un sous-ensemble S ⊆ V d’indices et un
vecteur y ∈ BS , on note par x[S] ∈ BS le vecteur correspondant aux indices dans
S, c’est-à-dire x[S] = (xi |i ∈ S). Pour une affectation partielle y ∈ BS et pour un
LES COLLECTIONS DE L’IFSTTAR
141
Optimisation de formes en sciences de l’ingénieur
vecteur x ∈ Bn , on définit l’échange de x comme le vecteur binaire z par :
(
xj si j 6∈ S
zj = (5.6)
yj si j ∈ S
et on le note par z = x[S ← y]. Par exemple, si n = 5, S = {1, 2, 5} et y est
l’affectation partielle y1 = 1, y2 = 0 et y5 = 1 alors l’affectation de x = (1, 1, 1, 0, 0)
par y va être le vecteur z = (1, 0, 1, 0, 1).
Soit une fonction pseudo-booléenne f , un vecteur x ∈ Bn et une affectation
partielle y ∈ Bn pour un sous-ensemble S ⊆ V, alors on a les définitions
suivantes.
Persistance forte Pour f aux valeurs de y, si pour tout x ∈ ArgminBn (f ), alors
x[S] = y. En d’autres termes, on dit qu’une affectation est persistante forte si
l’ensemble des valeurs de l’affectation y appartient à tous les minima globaux de
la fonction f .
Persistance faible Pour f aux valeurs de y, si pour tout x ∈ ArgminBn (f ),
alors x[S ← y] ∈ ArgminBn (f ). On dit qu’une affectation est persistante faible si
toutes les valeurs de x appartenant à tous les minima globaux de la fonction f le
sont encore après affectation.
Exemple 5.1. Pour illustrer les deux notions précédentes, reprenons la fonction
f1 de l’exemple 5.1 et sa posiforme φ11 . On considère l’affectation partielle
y∗ = (0) ∈ B{1} . Nous pouvons constater avec la table 5.1 que pour tous les
minima globaux, x1 = (0). L’affectation y est donc persistante forte.
Soit z∗ = (0, 1) ∈ B{1,2} une autre affectation partielle. Les solutions
x = (0, 0, 0, 0) et x = (0, 0, 0, 1) appartiennent au minimum global de la fonction f1 ,
pourtant leur deuxième valeur x2 est différente de 1. L’affectation n’est donc pas
persistante forte. Néanmoins, l’application de l’affectation z∗ sur x = (0, 0, 0, 0)
et de x = (0, 0, 0, 1) donne x = (0, 1, 0, 0) et x = (0, 1, 0, 1). Ces deux vecteurs
appartiennent bien au minimum global de la fonction donc cette affectation est
persistante faible.
5.2.4. Fonction pseudo-booléenne quadratique
L’optimisation d’une fonction pseudo-booléenne quadratique est un problème
abondamment étudié. L’une des principales propriétés de ce type d’optimisation
est qu’il est possible de trouver en un temps polynomial une borne inférieure
aux valeurs de la fonction appelée la roof duality. Une fois cette borne inférieure
atteinte, il est possible d’en déduire une affectation partielle ayant comme
propriété d’être persistante forte.
On nomme F2 la famille des fonctions pseudo-booléennes quadratiques. Une
fonction pseudo-booléenne quadratique peut être représentée par sa forme
LES COLLECTIONS DE L’IFSTTAR
142
Optimisation de fonctions pseudo-booléennes
multilinéaire polynomiale unique :
n
X X
f (x) = c0 + ci xi + cij xi xj (5.7)
i=1 1≤i≤j≤n
ou par une posiforme quadratique de la forme suivante :
X X
φ(x) = a0 + au u + auv uv (5.8)
u∈X u,v∈X,u6=v
où au ≥ 0 et auv ≥ 0. Généralement, a0 est nommé terme constant, les termes
de degré 1 terme linéaire, et ceux de degré 2 terme quadratique. Comme dans
(B OROS et Peter L H AMMER, 2002), le terme constant a0 de la posiforme φ
est noté C(φ). On notera aussi P2 (f ) la famille des posiformes quadratiques
représentant la même fonction f .
5.2.5. Roof duality
Trouver le minimum d’une fonction pseudo-booléenne quadratique quelconque
est un problème NP-complet, mais on peut calculer une borne inférieure aux
valeurs de la fonction appelée roof duality en un temps polynomial. Une façon
intuitive d’interpréter la roof duality est de trouver quelle est la posiforme φ dans
un ensemble de fonctions pseudo-booléennes vérifiant la même table de vérité,
dont le terme constant C(φ) est le plus grand.
En effet, les coefficients d’une posiforme étant tous positifs, le terme constant
maximum de φ est une borne inférieure de f .
Ce problème a été étudié en optimisation de fonctions pseudo-booléennes
quadratiques et il existe plusieurs techniques permettant de calculer cette borne
inférieure de la fonction. Elle est notée :
— M2 (f ) quand elle est obtenue par majorisation,
— C2 (f ) par la complémentation,
— L2 (f ) par la linéarisation,
— autres quand on utilise le Lagrangien, paved duality, etc.
Un résultat important est que toutes ces bornes sont les mêmes et égales à
maxφ∈P2 (f ) C(φ).
Les méthodes pour les obtenir sont donc équivalentes.
Théorème 5.1. Pour toutes fonctions pseudo-booléennes quadratiques f ∈ F2 ,
alors (voir (B OROS et Peter L H AMMER, 2002)) :
M2 (f ) = C2 (f ) = L2 (f ) ≤ minn f (x).
x∈B
Une fois la roof duality atteinte (c’est à dire après avoir transformé la posiforme
d’origine en une posiforme avec la plus grande constante possible) la propriété
suivante permet d’extraire un sous-ensemble persistant fort.
LES COLLECTIONS DE L’IFSTTAR
143
Optimisation de formes en sciences de l’ingénieur
Théorème 5.2. (Persistance forte) Soit une fonction pseudo-booléenne
quadratique f ∈ F2 , soit φ ∈ P2 (f ) une posiforme la représentant tel que
C(φ) = C2 (φ), si au > 0 pour des labels u ∈ X, alors u = 0 dans tous les
vecteurs binaires x ∈ Argmin(f ) minimisant f (voir (B OROS et Peter L H AMMER,
2002)).
Autrement dit, s’il reste un terme linéaire dans la formule obtenue après
avoir atteint la roof duality, alors chaque affectation annulant le terme linéaire
appartiendra à tous les minima globaux.
5.2.6. Réduction
Trouver la roof duality est un problème de classe polynomiale. En effet, elle
peut être obtenue en résolvant un problème de programmation linéaire. Comme
précédemment indiqué, plusieurs méthodes existent pour calculer cette borne.
Dans cette partie, nous allons détailler une méthode fondée sur la théorie des
graphes. Cette méthode est très efficace car fondée sur des algorithmes de la
théorie des graphes très étudiés et optimisés. Ces algorithmes sont donc parmi
les plus rapides pour les problèmes discrets.
L’algorithme est décomposé en plusieurs étapes : tout d’abord, la posiforme est
traduite sous la forme d’un graphe dit induit. Ensuite, il faut effectuer la réduction
de la fonction pseudo-booléenne pour obtenir la valeur de la roof duality. Cela
se fait en pratique par poussage de flot sur le graphe induit et conduit à la
détermination d’un graphe résiduel. Enfin, les affectations persistantes fortes sont
obtenues à partir du parcours du graphe réduit.
[Link]. Construction du graphe induit
Soit une fonction pseudo-booléenne quadratique f ∈ F2 donnée par la posiforme
φ ∈ P2 (f ) de forme (5.8). On associe à cette posiforme quadratique un graphe
orienté Gφ = (N, A) où l’ensemble de sommets est défini par N = X ∪ {0, 0̄}.
Il y a deux sommets par variable : le sommet xi , noté i dans le graphe,
représentant le cas xi = 1 et le sommet x̄i , noté ī dans le graphe, représentant
le cas x̄i = 1, plus deux sommets x0 et x̄0 représentant les cas x0 = 1 et x̄0 = 1.
Ces deux sommets sont notés 0 et 0̄, respectivement, dans le graphe induit.
Les arcs sont définis à partir des termes de la posiforme. À chaque terme
−→ −→
quadratique auv uv correspond deux arcs (u, v̄) et (v, ū) avec chacun un poids
1 −−→ −−→
2 auv . À chaque terme linéaire au u correspond aussi deux arcs (u, x̄0 ) et (x0 , ū)
avec chacun comme poids 21 au (voir (B OROS et Peter L H AMMER, 2002)).
Exemple 5.2. Soit la posiforme quadratique suivante :
φ2 (x) = 10x1 + 8x̄1 x2 + 6x̄2 x3 + 4x̄3 . (5.9)
−−−−−→ −−−−−→
Le premier terme va induire deux arcs orientés (x1 , x¯0 ) et (x0 , x¯1 ) de poids 5.
−−−−−→ −−−−−→
Le deuxième terme va induire deux arcs orientés (x¯1 , x¯2 ) et (x2 , x1 ) de poids 4.
LES COLLECTIONS DE L’IFSTTAR
144
Optimisation de fonctions pseudo-booléennes
−−−−−→ −−−−−→
Le troisième terme va induire deux arcs orientés (x¯2 , x¯3 ) et (x3 , x2 ) de poids 3.
−−−−−→ −−−−−→
Le quatrième terme va induire deux arcs orientés (x¯3 , x¯0 ) et (x0 , x3 ) de poids 2.
Le graphe induit est montré dans la figure 5.1(a).
[Link]. Calcul de la borne inférieure par flot maximum
Une fois le graphe induit construit, nous allons voir qu’il a équivalence entre une
somme alternée dans une équation pseudo-booléenne et un chemin augmentant
le flot dans le graphe induit de la posiforme φ. La caractéristique d’une somme
alternée est qu’il est possible de faire apparaître, par une identité algébrique,
une constante, et par conséquent, d’augmenter le terme constant C(φ) de la
posiforme pour atteindre la valeur de roof duality C2 (φ). Cette réduction est
réalisée en pratique par un algorithme de poussage de flot sur le graphe induit
grâce à l’équivalence entre somme alternée et chemin augmentant.
[Link]. Équivalence entre somme alternée et chemin augmentant
Un flot possible dans un graphe G = (N, A) avec comme source x0 et comme
puits x̄0 est une application ζ : A → R+ respectant les contraintes :
ζ(u, v) ≤ cu,v pour tous les arcs (−
u,→
v) ∈ A, et (5.10)
X X
ζ(u, v) = ζ(v, w) pour tous les sommets v ∈ X. (5.11)
(−→
u,v)∈A (−−
→
v,w)∈A
La première contrainte indique que le flot ne peut pas dépasser la capacité de
chaque arc. La seconde contrainte impose que le flot total entrant soit égal au flot
total sortant en chaque sommet.
Pour un graphe donné G = (N, A) et un flot possible ζ dans ce graphe, on appelle
graphe réduit G[ζ] = (N, Aζ ) avec comme capacités :
cuv − ζ(u, v) pour (−
u,→
(
ζ v) ∈ A
cuv = −→ (5.12)
ζ(u, v) pour (v, u) ∈ A
Quand u1 , u2 , · · · , uk ∈ X, on appelle somme alternée, la forme quadratique
suivante :
u1 + ū1 u2 + ū2 u3 + · · · + ūk−1 uk + ūk . (5.13)
On remarque que cette forme quadratique est bien homogène et alternée
en introduisant x̄0 et x0 . Une posiforme quadratique φ contient une somme
alternée (5.13) de poids ω si nous avons au1 ≥ ω, aūj uj+1 ≥ ω pour j = 1, · · · , k−1
et aūk ≥ ω pour tous les coefficients correspondants de φ (voir (B OROS et
Peter L H AMMER, 2002)).
Proposition 5.1. L’identité suivante est vérifiée pour les sommes alternées :
u1 + ū1 u2 + · · · + ūk−1 uk + ūk = 1 + u1 ū2 + · · · + uk−1 ūk . (5.14)
LES COLLECTIONS DE L’IFSTTAR
145
Optimisation de formes en sciences de l’ingénieur
Cela se démontre en changeant xi en 1 − x̄i . Avec cette identité, une
posiforme quadratique φ qui contient une somme alternée (5.13) de poids ω
peut être transformée en une posiforme équivalente ayant un terme constant plus
important. Pour ce faire, il faut dans un premier temps réécrire φ en :
0
φ = ω[u1 + ū1 u2 + ū2 u3 + · · · + ūk−1 uk + ūk ] + φ .
0
Par construction, φ est aussi une posiforme quadratique. Par conséquent, en
appliquant l’identité (5.14), on obtient :
0
φ = ω + ω[u1 + ū1 u2 + ū2 u3 + · · · + ūk−1 uk + ūk ] + φ .
En construisant le graphe induit d’une somme alternée suivant les régles
précédentes, on voit qu’il y a une correspondance entre une somme alternée
contenue dans une posiforme φ de poids ω et un chemin augmentant de capacité
ω dans le graphe induit de φ. La proposition suivante peut donc être énoncée :
Proposition 5.2. On considère une posiforme φ ∈ P2 (f ) et un flot possible ζ
dans le graphe G = Gφ . Alors x0 , u1 , · · · , uk , x¯0 est un chemin augmentant de
capacité ω > 0 dans ce flot si et seulement si u1 + ū1 u2 + · · · + ūk−1 uk + ūk est
une somme alternée de poids ω dans la posiforme φ.
Exemple 5.2. Reprenons la posiforme φ2 de l’exemple précédent. Son graphe
induit est montré en figure 5.1(a). Nous allons illustrer l’équivalence entre la
capacité d’un chemin augmentant le flot sur le graphe induit et le poids d’une
somme alternée utilisée lors de la réduction de la posiforme.
Tous les coefficients de φ2 sont supérieurs ou égaux à 4. On choisit donc ω = 4
et on effectue le regroupement suivant :
φ2 (x) = 4 (x1 + x̄1 x2 + x̄2 x3 + x̄3 ) + 6x1 + 4x̄1 x2 + 2x̄2 x3
|{z} (5.15)
| {z } | {z }
ω somme alternée forme résiduelle φ0
= 4(1 + x1 x̄2 + x2 x̄3 ) + 6x1 + 4x̄1 x2 + 2x̄2 x3 (5.16)
= 4 + 6x1 + 4x1 x̄2 + 4x̄1 x2 + 2x̄2 x3 + 4x2 x̄3 . (5.17)
| {z }
forme réduite ψ
En appliquant l’identité (5.14) sur la somme alternée qui est maintenant
dans (5.15), un terme constant apparaît dans l’équation (5.16). Ceci a comme
conséquence, une fois (5.16) développée, d’atteindre la valeur de roof duality
dans ce cas.
Ces manipulations algébriques ont leur équivalent en terme de poussage de flot
sur le graphe. En effet, à partir de la figure 5.1(b), on voit que le flot maximum
jusqu’à saturation est obtenu en faisant passer un flot de 2 dans les deux chemins
possibles entre 0 et 0̄. Ces deux chemins qui sont symétriques correspondent à
la somme alternée dans l’équation (5.15). Nous pouvons aussi constater que
ω = 2 + 2 = 4. En construisant le graphe réduit avec (5.12) et en simplifiant
LES COLLECTIONS DE L’IFSTTAR
146
Optimisation de fonctions pseudo-booléennes
Figure 5.1.
Équivalence entre la réduction de la posiforme et le poussage de flot sur le graphe
induit. (a) montre le graphe induit par la posiforme de l’exemple 5.2. (b) montre le
poussage de flot maximum. (c) montre le graphe réduit
5 2/5
4 4 2/4 2/4
5 2/5
3 3 2/3 2/3
2 2 2/2 2/2
(a) graphe induit (b) ω = 4, graphe avec le flot saturé
3
2 2 2 2
3
1 2
2 1
(c) graphe réduit
au niveau des arcs qui partent ou arrivent de x0 et x¯0 (cela correspond à la
réduction des termes linéaires par complémentation), on arrive au graphe réduit
affiché en figure 5.1(c). On voit qu’il correspond exactement à la forme réduite ψ
dans l’équation (5.17). Les arcs en pointillés ont une capacité nulle.
[Link]. Lien entre le flot maximum et la valeur de roof duality
La réduction précédente doit être réalisée jusqu’à ce qu’il ne soit plus possible
de factoriser de nouvelles sommes alternées. Alors, la propriété fondamentale
de cette réduction est que la valeur roof duality C2 (f ) est atteinte en sommant
le terme constant de la posiforme initiale avec la valeur du flot maximum atteinte
par l’algorithme de poussage de flot.
Théorème 5.3. Soit une fonction pseudo-booléenne quadratique f , et une
posiforme quadratique la représentant φ ∈ P2 (f ), et ζ ∗ la valeur du flot maximum
dans Gφ , alors :
C2 (f ) = C(φ) + ζ ∗ .
Après avoir calculé le flot maximum, et donc la valeur de roof duality, il est
possible de trouver les affectations persistantes fortes. Une façon efficace est
d’utiliser le graphe réduit.
Théorème 5.4 (Persistance forte et flot maximum). Soit φ ∈ P2 (f ) pour une
fonction pseudo-booléenne quadratique f , soit ζ ∗ un flot maximum dans G = Gφ ,
soit S ∈ L l’ensemble des sommets dans G qui peuvent être atteints en partant
de x0 par un chemin avec une capacité résiduelle positive, alors u(x∗ ) = 1 pour
tout u ∈ S et pour tous les vecteurs x∗ ∈ Argmin(f ).
LES COLLECTIONS DE L’IFSTTAR
147
Optimisation de formes en sciences de l’ingénieur
En d’autres termes, pour toutes variables pouvant être atteintes dans le graphe
réduit en partant de la source x0 par des capacités strictement positives, leur
affectation à 1 est persistante forte.
[Link]. Récapitulatif
Pour résumer, les affectations persistantes fortes pour une fonction pseudo-
booléenne quadratique f sont calculées de la façon suivante :
— Trouver une posiforme quadratique φ de même table de vérité que f .
— Construire le graphe induit Gφ de φ.
— Calculer le flot maximum ζ ∗ de Gφ .
— Construire le graphe réduit Gψ de Gφ à partir du flot maximum ζ ∗ .
— Pour tous les sommets pouvant être atteints à partir de la source x0 ,
affecter les variables correspondantes à 1.
Figure 5.2.
(a) montre le graphe induit de l’exemple 5.3 et (b) le graphe réduit
1 1
2
1 1
2 2
2 1 1
1 1
1 1
3 3
2 2
1
1 2
2
1 1
1 1 1 1
(a) graphe induit (b) graphe réduit
Exemple 5.3. La figure 5.2(a) montre le graphe induit. En observant la
figure 5.2(a), on peut constater qu’il est possible de faire passer 6 flots de poids
1 sur chacun des chemins suivants :
x0 →x1 → x̄2 → x̄3 → x̄0 et x0 → x3 → x2 → x̄1 → x̄0 , (5.18)
x0 → x3 → x̄4 → x̄0 et x0 → x4 → x̄3 → x̄0 , (5.19)
x0 →x3 → x̄4 → x̄5 → x̄0 et x0 → x5 → x4 → x̄3 → x̄0 . (5.20)
Soit la fonction pseudo-booléenne quadratique suivante :
f3 (x) = 10 − 4x1 − 4x3 − 2x4 + 4x4 x2 − 2x2 x3 + 4x3 x4 − 2x4 x5 .
LES COLLECTIONS DE L’IFSTTAR
148
Optimisation de fonctions pseudo-booléennes
Table 5.2.
Table de vérité de la fonction pseudo-booléenne de l’exemple 5.3. Les
minimums de f3 sont en gras
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
x 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
f3 (x) 10 10 8 6 6 6 8 6 10 10 8 6 4 4 6 4
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
x 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
f3 (x) 6 6 4 2 2 2 4 2 10 10 8 6 4 4 6 4
En substituant avec l’identité x = 1 − x̄ chaque terme quadratique ayant un
coefficient négatif, on a la posiforme suivante :
φ3 (x) = −4 + 4x̄1 + 6x̄3 + 2x̄4 + 2x̄5 + 4x1 x2 + 2x̄2 x3 + 4x3 x4 + 2x̄4 x5 .
Ces flots pouvant être poussés séquentiellement, ce sont des chemins
augmentants. Ces chemins augmentants correspondent respectivement aux
sommes alternées suivantes :
x̄1 + x1 x2 + x̄2 x3 + x̄3 et x̄3 + x3 x̄2 + x2 x1 + x̄1 , (5.21)
x̄3 + x3 x4 + x̄4 et x̄4 + x4 x3 + x̄3 , (5.22)
x̄3 + x3 x4 + x̄4 x5 + x̄5 et x̄5 + x5 x̄4 + x4 x3 + x̄3 . (5.23)
On remarque qu’il n’y a pas d’autre chemin augmentant dans le graphe
Fig. 5.2(a). Le nombre de chemins augmentants maximum a été atteint, et la
valeur du flot maximum est donc de ζ ∗ = 6. Le graphe réduit peut être construit
comme montré en figure 5.2(b). Le graphe réduit correspond à la posiforme
quadratique suivante :
ψ3 (x) = 2x̄1 + 2x1 x2 + 2x̄1 x̄2 + 2x2 x̄3 + 4x̄3 x̄4 + 2x4 x̄5
qu’il est aussi possible de retrouver en faisant algébriquement la réduction sur la
posiforme φ3 .
LES COLLECTIONS DE L’IFSTTAR
149
Optimisation de formes en sciences de l’ingénieur
Comme le flot maximum est ζ ∗ = 6, on a : φ3 (x) = C(φ3 )+ζ ∗ +ψ3 (x) = 2+ψ3 (x),
d’où C2 (f3 ) = 2. Le graphe réduit figure 5.2(b) a deux sommets directement
atteignables à partir de la source : le sommet 1 et 2̄. D’après le théorème 5.4, les
affectations x1 = 1 et x2 = 0 sont donc vérifiées pour chaque minimum global de
f3 . Nous pouvons donc affecter ces valeurs à ψ3 (x). Ainsi, minimiser f3 équivaut
maintenant à minimiser ψ3∗ (x) = 4x̄3 x̄4 + 2x4 x̄5 . Les affectations (x) qui annulent
cette fonction sont persistantes faibles. Ceci se vérifie sur la table 5.2.
5.2.7. Cas sous-modulaire
[Link]. Définition
Une fonction f sur les ensembles est sous-modulaire si :
f (X) + f (Y ) ≥ f (X ∪ Y ) + f (X ∩ Y ) ∀X, Y (5.24)
est respecté pour tous les sous-ensembles X,Y . Le pendant algébrique de cette
définition, pour une fonction pseudo-booléenne f : Bn → R quadratique, est :
∂f
(x) ≤ 0. (5.25)
∂xi ∂xj
Autrement dit, une fonction pseudo-booléenne quadratique est sous-modulaire
si, sous sa forme multilinéaire polynomiale unique (5.7), ses dérivées secondes
sont toutes négatives ou nulles. Cela implique que tous ses termes quadratiques
ont un coefficient de signe négatif. Nous allons maintenant voir que trouver
le minimum global d’une fonction sous-modulaire est aussi équivalent à la
recherche de la coupe minimale d’un graphe, avec certaines simplifications par
rapport au cas général de la roof duality vu précédemment.
[Link]. Posiforme quadratique sous-modulaire
Quand une fonction est sous-modulaire, il est toujours possible de l’écrire comme
une posiforme φ sous la forme (à une constante près) :
X X X
φ(x) = ai xi + aj x̄j + aij xi x̄j (5.26)
i∈P j∈N 1≤i≤j≤n
où P, N ⊆ V et tous les coefficients ai (i=P ∪ N ) et aij (1 ≤ i ≤ j ≤ n) sont
positifs.
[Link]. Construction du graphe induit
Comme expliqué dans la partie [Link] précédente, il est possible de construire
le graphe induit de la posiforme 5.26. Comme il n’y a pas de terme en xi xj ou
x̄i x̄j , il n’y a pas d’arcs entre les sommets i et ī dans le graphe induit et par
conséquent, le graphe réduit peut être partagé en deux graphes indépendants
et symmétriques l’un de l’autre. Cela implique qu’il est possible d’associer à φ le
graphe plus simple Nφ = (V, A) construit de la façon suivante :
— l’ensemble des sommets est V = {s, t} ∪ V.
LES COLLECTIONS DE L’IFSTTAR
150
Optimisation de fonctions pseudo-booléennes
— l’ensemble des arcs est
−−−→ −−→ −−→
A = {(s, j)|j ∈ N } ∪ {(i, t)|i ∈ P } ∪ {(i, j)|1 ≤ i ≤ j ≤ n}
où les capacités des arcs sont respectivement csj = aj pour
j ∈ N, ci,t = ai pour i ∈ P et cij = aij pour 1 ≤ i < j ≤ n.
En d’autres termes, l’ensemble des sommets V est composé de l’ensemble des
indices V ainsi qu’une source s et un puits t. On construit, pour chaque terme
unitaire, un arc. Quand le terme est une variable xi , un arc du sommet i au puits
t est créé, avec comme poids le coefficient ai . Quand le terme est le complément
d’une variable x̄j , un arc de la source s au sommet j est créé, avec comme poids
le coefficient aj . Enfin, on construit pour chaque terme aij xi x̄j un arc entre i
et j. C’est ce type de graphe induit qui est construit plus habituellement dans
les méthodes dites par coupe de graphe, voir par exemple (KOLMOGOROV et al.,
2002).
[Link]. Minimisation par coupe de graphe
Il y a une correspondance entre une coupe qui sépare la source s et le puits t
def
dans le graphe et le vecteur binaire x ∈ Bn ↔ Sx == {s} ∪ {j|xj = 1}. Il est donc
facile de voir qu’avec cette définition, on a pour tout x ∈ Bn :
X
φ(x) = ai,j (5.27)
i∈Sx
j ∈S
/ x
avec la convention que seuls les arcs traversants de s à t comptent. Un minimum
de φ(x) correspond à une coupe de poids minimal de Nφ . Une coupe minimale
peut être trouvée par une méthode de maximisation du flot à travers le graphe
Nφ . Cela permet donc de trouver une affectation de toutes les variables de x qui
atteint la valeur minimale de φ.
Exemple 5.4. On cherche à minimiser la posiforme suivante :
φ4 (x) = 3x̄1 + 6x1 + 4x̄2 + x2 + 2x2 x̄1 . (5.28)
Il est aisé de vérifier que cette posiforme est sous-modulaire.
En se plaçant dans le cas général, avec les règles de la partie [Link], on peut
construire le graphe induit montré en figure 5.3(a). Ce graphe se décompose
clairement en deux graphes indépendants. En suivant les règles précédentes, on
construit alternativement le graphe induit simplifié dans le cas sous-modulaire,
comme montré en figure 5.3(b).
La figure 5.3(c) montre les quatre coupes possibles. Elles sont respectivement
de poids 7, 6, 10 et 7. Par exemple pour la coupe c2 de la figure 5.3(c), son poids
est de 3 + 2 + 1 = 6 car les arcs (s, 1), (1, 2) (2, t) sont coupés, tous en allant de
la source au puits.
LES COLLECTIONS DE L’IFSTTAR
151
Optimisation de formes en sciences de l’ingénieur
Pour la coupe c3 , son poids est 4 + 6 = 10 car seuls les arcs (s, 2) et (1, t) sont
coupés en allant de la source au puits. Les capacités des 4 coupes correspondent
bien aux valeurs de la table de vérité de φ4 en table 5.3.
En conséquence, la capacité de la coupe minimale dans le graphe induit
figure 5.3(b)) est égale à la valeur minimum de la fonction φ4 dans (5.28).
Figure 5.3.
Graphes induit dans le cas sous-modulaire quadratique de l’exemple 5.4
1 6
2
4 1
(a) Graphe induit dans le cas général (b) Graphe induit dans le cas sous-modulaire
c1 c2 c3 c4
1 6
2
4 1
(c) Coupes possibles de poids w(c1 ) = 7,
w(c2 ) = 6, w(c3 ) = 10 et w(c4 ) = 7.
Table 5.3.
Table de vérité de la fonction pseudo-booléenne de l’exemple 5.4. Le minimum
est en gras
x 00 1 1
01 0 1
f4 (x) 7 6 10 7
La coupe minimale peut être obtenue en cherchant le flot maximum. Dans cet
exemple, on voit que l’on peut faire passer un flot de valeur 2 de s à t en passant
par les sommets 2 puis 1, un flot de 1 en passant par le sommet 2 et un flot de 3
en passant par le sommet 1. On vérifie donc que les 3 arcs coupés par la coupe
c2 sont bien saturés par le flot maximum.
LES COLLECTIONS DE L’IFSTTAR
152
Optimisation de fonctions pseudo-booléennes
Avec la coupe minimum, seule le sommet 2 est du côté de la source s, donc
x2 = 1. Inversement, le sommet 1 étant du côté du puits t, x1 = 0. On retrouve
bien la solution qui atteint la valeur minimum de φ4 dans la table 5.3. Nous
pouvons vérifier que l’on trouve le même résultat en procédant sur le graphe
induit dans le cas général.
5.2.8. Optimisation de fonctions pseudo-booléennes de degré
supérieur ou égal à 3
Il est difficile d’optimiser une fonction pseudo-booléenne de degré supérieur ou
égal à 3, à cause de la présence de minima locaux, surtout, dans le cas non sous-
modulaire. Pour optimiser de telles fonctions, deux approches ont néanmoins
été proposées. La première approche consiste à décomposer une fonction
de degré quelconque en fonction pseudo-booléenne quadratique possédant le
même minimum et à l’optimiser avec la méthode par roof duality. La seconde
approche est de généraliser directement le principe de roof duality au cas de
degré strictement supérieur à deux (K AHL et al., 2011).
Ceci est difficile. Nous allons maintenant seulement résumer la méthode
proposée dans (I SHIKAWA, 2009) qui est fondée sur le principe de substitution.
[Link]. Substitution
Une première méthode pour décomposer une fonction pseudo-booléenne d’ordre
n à l’ordre 2 à été introduite en 1975 (R OSENBERG, 1975). Elle consiste à
ajouter une variable auxiliaire afin de décomposer les termes de grands ordres
en plusieurs termes d’ordres inférieurs. Cette méthode est itérative et fonctionne
pour un degré quelconque.
Cette méthode de substitution qui permet, en remplaçant le produit de deux
variables par une variable auxiliaire, de réduire le degré maximum d’une fonction
pseudo-booléenne. On considère ces deux équivalences :
xy = z ⇐⇒ xy − 2xz − 2yz + 3z = 0 (5.29)
xy 6= z ⇐⇒ xy − 2xz − 2yz + 3z > 0 (5.30)
Les deux équivalences peuvent être facilement vérifiées en faisant les tables de
vérité.
Il est donc possible, dans une fonction pseudo-booléenne, de remplacer le produit
xy par z dans un terme de degré supérieur à deux, et d’ajouter l’expression
xy − 2xz − 2yz + 3z comme un terme de pénalité, avec un grand coefficient
multiplicatif. Alors, d’après (R OSENBERG, 1975), le vecteur minimisant la nouvelle
équation permet d’obtenir le vecteur minimisant l’équation de départ en omettant
les variables introduites en plus, ce qui se traduit par :
min wxy = min wz + µ(xy − 2xz − 2yz + 3z) (5.31)
w,x,y w,x,y,z
où w, x, y sont les variables de départ et z est la variable ajoutée. µ est le
coefficient multiplicatif. Il doit être assez grand, pour cela, il peut être initialisé
LES COLLECTIONS DE L’IFSTTAR
153
Optimisation de formes en sciences de l’ingénieur
Table 5.4.
Tables de vérité des fonctions pseudo-booléennes de l’exemple 5.5. Le
minimum est en gras
x 0000111 1
0011001 1
0101010 1
f5 (x) 0 0 0 0 0 0 0 -1
0 0 0 0 00001111111 1
x 0 0 0 0 11110000111 1
0 0 1 1 00110011001 1
0 1 0 1 01010101010 1
f50 (x) 0 18 0 15 0 6 0 3 0 6 0 3 8 2 8 -1
P
avec µ = 1 + S∈V |cS |. Cette étape de substitution peut être itérée jusqu’à ce
que le degré maximum du résultat soit égal à deux.
Exemple 5.5. Soit la fonction pseudo-booléenne :
f5 (x1 , x2 , x3 ) = 2x1 x2 − 3x1 x2 x3 . (5.32)
En substituant x1 x2 par une nouvelle variable x4 avec µ = 1 + 2 + 3 = 6, la
fonction (5.32) se réécrit en :
f50 (x1 , x2 , x3 , x4 ) = 2x1 x2 − 3 x1 x2 x3 + 6(x1 x2 − 2x1 x4 − 2x2 x4 + 3x4 )
| {z }
x4
= 18x4 + 8x1 x2 − 3x3 x4 − 12x1 x4 − 12x2 x4 . (5.33)
En observant la table de vérité 5.4 de la forme originale f5 (5.32) et de la forme
quadratique f50 (5.33), on constate que le minimum de f50 est atteint pour le
vecteur x = (1111). Si on omet la variable ajoutée x4 lors de la décomposition, le
vecteur des variables d’origine est alors x = (111) et il permet bien d’atteindre le
minimum global de f5 , comme on le vérifie facilement dans la table de vérité.
LES COLLECTIONS DE L’IFSTTAR
154
Optimisation de fonctions pseudo-booléennes
[Link]. Autres substitutions
Le principal défaut de la méthode par substitution précédente, est que, pour
chaque substitution, un terme non sous-modulaire est ajouté. Au fil des itérations,
le nombre de termes non sous-modulaires augmente donc. Or, le nombre
d’affectations persistantes fortes lors du calcul de la roof duality dépend
directement du nombre et des coefficients des termes quadratiques non sous-
modulaires dans la forme multilinéaire polynomiale unique. Comme constaté
dans (G ALLAGHER et al., 2011), plus il y a de termes non sous-modulaire, et
plus leurs coefficients sont importants, et moins il y a d’affectations fortes lors du
calcul de la roof duality.
Après ce constat, de nouvelles méthodes ont été proposées afin de minimiser
l’amplitude et le nombre des termes non sous-modulaire, donc de coefficient
positifs, lors de la décomposition d’un degré quelconque en termes de degré
quadratique (I SHIKAWA, 2009).
En effet, plusieurs types de décompositions sont donc possibles pour un même
terme (KOLMOGOROV et al., 2002 ; R OSENBERG, 1975 ; I SHIKAWA, 2009).
Ces méthodes ont permis d’augmenter considérablement le nombre de
persistances fortes lors du calcul de la roof duality, ce qui a permis de beaucoup
mieux optimiser les problèmes d’origine. Néanmoins, le choix de la bonne
substitution n’est pas simple. Dans (G ALLAGHER et al., 2011), il est donc proposé,
pour chaque terme, de choisir entre différents types de décompositions. Pour
cela, une technique d’inférence est proposée pour permettre de choisir le type
de décomposition en minimisant soit, le nombre d’arcs non sous-modulaires, soit
l’amplitude des termes non sous-modulaires dans la fonction pseudo-booléenne
finale. Cette méthode a l’avantage de tirer parti de chaque type de substitution et
d’augmenter le nombre d’affectations persistantes fortes.
D’autres méthodes ont par la suite été proposées pour améliorer le taux
d’affectation et la rapidité de la réduction. En effet, il est possible de décomposer
directement une fonction de degré quelconque en un degré quadratique.
Dans (I SHIKAWA, 2011), la méthode par substitution proposée fonctionne quel
que soit le degré de la fonction.
Une autre méthode est proposée dans (F IX et al., 2011) par coupe de graphe.
5.3. Extension au cas multi-labels
5.3.1. Optimum global
Une des propriétés les plus remarquables est la possibilité de trouver en
temps polynomial une solution qui minimise globalement une fonction pseudo-
booléenne sous-modulaire. Cette propriété a pu être étendue au cas multi-labels
lorsque la fonction ou l’énergie (5.1) contient au maximum des termes à deux
variables et que la fonction réelle associée à ces termes est convexe (I SHIKAWA,
2003).
LES COLLECTIONS DE L’IFSTTAR
155
Optimisation de formes en sciences de l’ingénieur
5.3.2. Stratégie de fusion
L’optimisation multi-labels d’une fonction discrète peut être approchée comme
une succession de sous-problèmes binaires. En effet, si nous prenons deux
vecteurs de labels, il est possible de trouver grâce aux méthodes d’optimisation
binaires précédentes, quelle est la combinaison des composantes de ces deux
vecteurs qui minimise la fonction. Ce procédé est nommé une fusion (L EMPITSKY
et al., 2010).
La stratégie la plus courante est de considérer le vecteur Lt des labels de la
solution courante et un nouveau vecteur de labels Lp . L’objectif de la fusion est
de trouver la meilleur sélection des labels Lt+1 , c’est à dire celle pour laquelle
l’énergie (5.1) est la plus faible. Pour chaque variable, un choix booléen doit être
réalisé. Afin de combiner les vecteurs Lt et Lp , la combinaison Lb (B) est définie
par la fonction booléenne auxiliaire suivante :
L(x) = x̄.Lt + [Link] (5.34)
où x est un vecteur de variables booléennes et où le produit noté avec un point
est terme à terme. Il y a donc une variable binaire xi par site i. Quand xi = 0, le
label courant Lti est conservé pour le site i. Au contraire, quand xi = 1, c’est le
label proposé Lpi qui est sélectionné.
Une fois que le meilleur x∗ est obtenu par optimisation quadratique pseudo-
booléenne, la meilleure combinaison de labels devient la solution courante :
Lt+1 = L(x∗ ). (5.35)
Pour trouver x∗ , on doit minimiser la fonction suivante :
φ(x) = f (L(x)). (5.36)
Soit en utilisant la définition de f à partir de (5.1) :
X
φ(x) = ϑu (Ltu )x̄u + ϑu (Lpu )xu
u∈C1
X
+ ϑuv (Ltu , Ltv )x̄u x̄v + ϑuv (Ltu , Lpv )x̄u xv
u,v∈C2
+ϑuv (Lpu , Ltv )xu x̄v + ϑuv (Lpu , Lpv )xu xv
X
+ ··· . (5.37)
u,v,w∈C3
Si la fonction pseudo-bouléenne (5.37) est sous-modulaire, alors toutes les
variables de x pourront être déterminées à cette étape. Si elle n’est pas sous-
modulaire, seul un sous-ensemble de variable sera déterminé, dans un premier
temps, en utilisant la roof duality. Dans un deuxième temps, les affectations
persistantes faibles seront calculées en minimisant l’équation réduite. En cas
LES COLLECTIONS DE L’IFSTTAR
156
Optimisation de fonctions pseudo-booléennes
d’indétermination, plusieurs stratégies sont possibles, la plus simple est de garder
la solution courante.
Si la fonction (5.37) a un degré supérieur à 2, elle peut être décomposée en une
forme de degré quadratique, et ensuite optimisée comme vu précédemment.
5.3.3. Stratégie d’exploration
Dans la méthode itérative précédente, il faut choisir à chaque itération une
proposition intéressante à fusionner. Ce choix est particulièrement critique car il
détermine l’espace des solutions qui peuvent être explorées durant l’optimisation.
Même si l’étape de fusion binaire trouve un minimum global car la fonction à
minimiser est sous-modulaire, cela n’implique en rien que l’itération des fusions
arrive à converger vers un minimum même local de la fonction multi-labels. En
effet, c’est seulement un minimum local dans l’espace des solutions explorées qui
sera obtenu, d’où l’importance de la stratégie d’exploration. La façon de choisir
les propositions va aussi déterminer si les sous-problèmes binaires sont sous-
modulaires ou pas.
[Link]. α-expansion
C’est la stratégie d’exploration dites par α-expansion qui semble la plus efficace
jusqu’à présent. La méthode par α-expansion consiste à effectuer une succession
de fusions, avec comme proposition Lp un vecteur de valeurs identiques. Les
itérations sont effectuées de façon cyclique sur les différentes valeurs de labels
possibles jusqu’à stabilisation (B OYKOV et al., 2001).
On montre, comme par exemple dans (PAGET et al., 2015), qu’avec l’α-
expansion, les sous-problèmes seront toujours sous-modulaires dès que
l’énergie (5.1) contient au maximum des termes à deux variables et que la
fonction réelle associée à ces termes est symétrique et concave pour les
valeurs positives. Ainsi, chaque sous-problème binaire peut être optimisé de
façon globale par une recherche de coupe de graphe minimale, ce qui permet
d’assigner la totalité des labels (voir la partie [Link]). Si le minimum global
de chaque sous-problème binaire est trouvé lors de la fusion, c’est seulement
un minimum local de l’énergie multi-labels qui sera obtenu dans l’espace de
recherche des α-expansions, nommé α-expansion move (B OYKOV et al., 2001).
Il faut noter que l’algorithme α-expansion original n’est pas introduit comme nous
venons de le faire avec l’aide de la programmation pseudo-booléenne. Cette
façon de l’introduire permet de dériver une implantation originale et plus facile
à programmer que la méthode α-expansion d’origine.
[Link]. β-jump
Une autre stratégie d’exploration dites par β-jump est possible même si elle n’est
pas aussi efficace en pratique. La méthode par β-jump consiste à fusionner la
solution courante avec une proposition qui est la solution courante décalée d’un
même incrément des labels. L’intérêt du β-jump réside dans la condition suffisante
que doit vérifier l’énergie pour conduire à des sous-problèmes sous-modulaires.
Cette condition suffisante est que l’énergie contient au maximum des termes
LES COLLECTIONS DE L’IFSTTAR
157
Optimisation de formes en sciences de l’ingénieur
à deux variables et que la fonction réelle associée à ces termes est convexe,
voir (PAGET et al., 2015).
[Link]. Alternée
Les conditions sur l’énergie avec α-expansion et β-jump étant assez
complémentaires, il est possible d’alterner les deux méthodes afin de traiter
des énergies qui ne vérifient aucune de ces deux conditions, comme cela a
été proposé dans (PAGET et al., 2015). Alterner α-expansion et β-jump apparaît
comme une approche alternative à l’utilisation de la roof duality.
Exemple 5.6. Soit l’énergie suivante :
f6 (l1 , l2 , l3 ) = (l1 − 2)2 + (l2 − 3)2 + (l3 − 2)2 + λ|l1 − l2 | + λ|l2 − l3 |. (5.38)
Cette énergie correspond à un problème de débruitage d’une image à 3 × 1 pixels
de valeurs d’intensité (2, 3, 2) avec un terme de régularisation de type L1 (ou
variation totale) entre paires de voisins connexes. Les intensités prennent leurs
valeurs ou labels dans l’intervalle des entiers [0, 4]. On cherche à optimiser cette
énergie par α-expansion à partir de la solution initiale L0 = (1, 3, 1). Commençons
par faire une expansion avec α = 2. La solution proposée est donc Lp = (2, 2, 2).
On constate que la combinaison booléenne auxiliaire peut être écrite comme
L(x) = (2−x̄1 , 2+x̄2 , 2−x̄3 ). Le sous-problème binaire est donc après substitution
de L(x) dans f6 :
f6 (L(x)) = (x̄1 )2 + (x̄2 − 1)2 + (x̄3 )2 + λ|x̄1 + x̄2 | + λ|x̄2 + x̄3 |
= x̄1 + x2 + x̄3 + λ(x̄1 + x̄2 + x̄2 + x̄3 )
= 1 + (1 + λ)x̄1 + (2λ − 1)x̄2 + (1 + λ)x̄3
après simplifications en utilisant le fait que le carré d’un variable binaire est
égale à la variable et que la valeur absolue sur une valeur positive s’élimine.
On déduit de la dernière expression que le minimum du sous-problème binaire
est atteint pour x∗ = (1, 1, 1). Le vecteur de labels sélectionné est donc (2, 2, 2).
En effectuant les autres étapes de l’α-expansion, on verra que cette solution est
stable. C’est donc la solution finale qui sera obtenue par α-expansion. Elle est
d’énergie 1 et dans ce cas là, elle est de valeur minimale pour f6 .
5.4. Exemples d’utilisation
Afin d’illustrer l’intérêt des méthodes d’optimisation présentées dans ce chapitre,
nous allons décrire trois applications, leur modèle, et la façon de les optimiser.
Le premier exemple est celui de la segmentation binaire d’une image à mettre en
relation avec les méthodes décrites dans le chapitre précédent. Ce problème est
binaire et sous-modulaire. Le deuxième exemple est celui de la reconstruction
3D à partir de paires stéréoscopiques. Le problème est multi-labels et conduit
à des sous-problèmes sous-modulaires. Enfin, le troisième et dernier exemple
est le débruitage. Le problème est multi-labels et conduit à des problèmes non
LES COLLECTIONS DE L’IFSTTAR
158
Optimisation de fonctions pseudo-booléennes
sous-modulaires. D’autres exemples sont décrits, par exemple, dans (C ARAFFA
et TAREL, 2013a ; C ARAFFA et TAREL, 2013b ; C ARAFFA, 2013).
5.4.1. Segmentation binaire d’une image
Le problème de la segmentation binaire d’une image a été traitée dans le chapitre
précédent avec une approche continue. Il est aussi possible de traiter de ce
problème de façon discrète par coupe de graphe.
Ainsi, pour l’image Iij , (i, j) ∈ Ω, utilisée dans la figure 4.10, nous savons
qu’elle peut-être segmentée en deux régions d’intensité moyenne µext = 86 et
µint = 205. L’énergie discrète à minimiser est donc à partir de (4.17) :
X
f7 (x) = (Iij − µint )2 xij + (Iij − µext )2 x̄ij + ν|xij − xi+1,j | + ν|xij − xi,j+1 |.
(i,j)∈Ω
(5.39)
Du fait de l’égalité binaire |x − y| = xȳ + yx̄, la fonction précédente est
sous-modulaire et peut être minimisée globalement. Le résultat est montré en
figure 5.4(c) et comparé au résultat de la méthode dite Split-Bergman qui donne
aussi la solution au minimum global (figure 5.4(b)).
Figure 5.4.
L’image de la figure 4.10(a) est segmentée avec une méthode d’optimisation
continue dite de Split-Bregman (b) et par un méthode discrète par coupe de
graphe (c). Les mêmes valeurs de moyennes de région sont utilisés : µint = 205
et µext = 86. Les deux résultats sont assez proches. Le temps de calcul par
coupe de graphe est de 40ms (ν = 800)
(a) (b) (c)
5.4.2. Reconstruction stéreoscopique
La reconstruction à partir de paires stéréoscopique consiste à retrouver le modèle
3D de la scène à partir de deux vues dont l’une est décalée horizontalement
sur le plan focal par rapport à l’autre. Grâce à cette disposition, dite à géométrie
épipolaire rectifiée, la projection d’un point de la scène 3D dans les deux caméras
se fera sur la même ligne horizontale.
Si l’on connaît cette projection dans les deux images, alors, il est possible,
par triangulation, de retrouver la profondeur. La différence de colonne d’une
LES COLLECTIONS DE L’IFSTTAR
159
Optimisation de formes en sciences de l’ingénieur
projection entre les deux images s’appelle la disparité. L’ensemble des disparités
d’une image est appelée la carte de disparité.
Supposons que nous avons deux images rectifiées I g et I d de la même scène. La
reconstruction stéréoscopique consiste à estimer la carte de disparité D à partir
des deux images. L’ensemble des pixels est noté Ω et est indicé par le couple
d’indices (i, j).
L’énergie du modèle dans le cas le plus simple est la suivante :
X g d
f8 (D) = (Iij − Ii(j+Dij )
)2 + ν|Dij − Di(j+1) | + ν|Dij − D(i+1)j |. (5.40)
(i,j)∈Ω
Le premier terme de l’énergie représente le terme d’attache aux données, c’est à
dire l’appariement entre l’image gauche I g et l’image droite I d . C’est simplement
la différence de leurs intensités sachant la disparité. Quand l’intensité de l’image
gauche est proche de celle de l’image droite, le score est faible.
Inversement, quand les deux intensités sont différentes, le score est fort. Le
second terme de l’énergie est un terme de régularisation dit L1 ou variation totale
qui a pour but de favoriser l’égalité des disparités entre pixels voisins.
Nous cherchons à optimiser l’énergie f8 par rapport à la variable discrète
D. L’avantage de cette énergie est son caractère sous-modulaire. En effet, le
terme d’attache aux données est unaire, c’est à dire que chaque terme est
fonction d’une seule variable de Dij . Le terme de régularisation est fonction de
deux variables, paire et concave pour les valeurs positives. En conséquence,
l’énergie (5.40) conduit toujours à des sous-problèmes sous-modulaires quand
on utilise α-expansion. Le terme de régularisation est aussi convexe, donc
l’énergie (5.40) conduit toujours à des sous-problèmes sous-modulaires quand
on utilise β-jump.
La figure 5.5 montre la solution minimale de l’énergie (5.40) avec l’algorithme
α-expansion pour différentes valeurs de ν sur une paire stéréoscopique de la
base KITTI Vision Benchmark Suite 2 . Nous pouvons voir que lorsque ν = 0, c’est
à dire sans régularisation, le résultat n’est pas bon à cause d’ambiguïtés. Avec
ν = 1, la carte de disparité obtenue est plus lisse. Il reste cependant quelques
zones comme le bas de la chaussée mal reconstruites. Avec ν = 4, la chaussée
est plus lisse et donc mieux reconstruite.
Avec ν = 16, la chaussée au loin est encore mieux reconstruite, cependant,
un plan fronto-parallèle s’est formé au niveau de bord droit dû au fort poids du
terme de régularisation. Ce phénomène est encore plus important avec ν = 32 et
ν = 64. Pour cette scène, ν = 4 semble donc être un bon compromis.
2. [Link]
LES COLLECTIONS DE L’IFSTTAR
160
Optimisation de fonctions pseudo-booléennes
Figure 5.5.
Résultat de reconstruction par α-expansion sur (5.40) en fonction de la valeur de
ν. Première ligne : l’image gauche et droite de la scène. Seconde ligne : ν = 0 et
ν = 1. Troisième ligne : ν = 4 et ν = 16. Quatrième ligne : ν = 32 et ν = 64
Pour pallier au problème de la reconstruction de la chaussée, il est possible de
faire une étape de fusion entre la carte de disparité obtenue par minimisation
de l’énergie (5.40) et une carte de disparité consistant au plan de la route. Le
résultat de cette fusion est montré sur une autre paire d’images plus faciles à
comprendre en figure 5.6. Nous constatons que les profondeurs sur les objets
fronto-parallèles sont bien préservées et que la route est mieux reconstruite.
Figure 5.6.
Reconstruction raffinée par fusion avec un modèle a priori de la route. De
gauche à droite : l’image gauche et droite, la carte de disparité obtenue par la
minimisation de (5.40), la carte de disparité de la route et le résultat de la fusion
Ig Id Dt Dp D∗
5.4.3. Débruitage d’une image
Le problème du débruitage d’une image consiste à enlever le bruit en chaque
pixel. Cela peut se faire par lissage des zones uniformes en préservant les bords
importants.
LES COLLECTIONS DE L’IFSTTAR
161
Optimisation de formes en sciences de l’ingénieur
Étant donné une image bruité I, et dans le cas d’un bruit supposé additif,
indépendant et gaussien, le problème du débruitage peut être posé comme la
minimisation de l’énergie suivante par rapport à la variable D qui représente
l’image débruitée :
X
f9 (D) = (Iij − Dij )2 + λg(|Dij − Di(j+1) |) + λg(|Dij − D(i+1)j |) (5.41)
(i,j)∈Ω
où g est une fonction croissante sur les valeurs positives. Le premier terme est le
terme d’attache aux données qui empêche l’image D de s’éloigner trop de l’image
bruitée I. Les deux derniers termes sont des termes de régularisation qui force
D à être lisse. Lorsque g est l’identité, on retrouve à nouveau la régularisation L1
ou variation totale.
Si ce choix est assez efficace en terme de lissage, il a le défaut de faire apparaître
des marches d’escaliers sur les zones où l’intensité varie de façon assez lente
comme par exemple sur la joue de Lena dans la figure 5.7.
Figure 5.7.
Image originale (a) et un zoom (b). La même image bruitée par un bruit gaussien
(c) et son zoom (d). L’image débruitée avec une régularisation L1 (e) et son zoom
(f). Enfin, l’image débruitée avec une régularisation L1 modifiée par une petite
cuvette en zéro (g) et son zoom (h). Le débruitage avec L1 est obtenu par α-
expansion et par une méthode alternant α-expansion et β-jump dans le cas L1
modifiée
(a) (b) (c) (d)
(e) (f) (g) (h)
Il est donc préférable d’utiliser pour g une fonction L1 en modifiant la forme en
zéro pour avoir une petite cuvette quadratique au lieu d’un angle droit. Cela
permet d’obtenir des dégradés plus lisses comme illustré en figure 5.7. La
LES COLLECTIONS DE L’IFSTTAR
162
Optimisation de fonctions pseudo-booléennes
fonction n’étant plus concave, il faut utiliser la méthode alternée pour résoudre
chaque sous-problème binaire.
5.5. Conclusion
Le cadre de l’optimisation des fonctions pseudo-booléennes a fait apparaître
l’importance de la distinction entre fonction non sous-modulaire et fonction sous-
modulaire. Dans ce dernier cas, des algorithmes en temps polynomial permettent
de trouver un minimum global de l’énergie par exemple par coupe de graphe.
Mais, l’ensemble des fonctions sous-modulaires est assez restreint. En effet,
dans le cadre binaire, seuls les énergies avec des termes d’ordres au maximum
2 à coefficients négatifs sont sous-modulaires et il est alors possible de les
optimiser globalement en un temps polynomial. Les fonctions binaires avec des
termes d’ordre supérieur à 2 ne sont généralement pas sous-modulaires. Il existe
des techniques qui permettent de transformer une fonction pseudo-booléenne
quelconque en une fonction pseudo-booléenne quadratique partageant le même
minimum global. Mais ces techniques de transformation entraînent l’apparition
de termes non sous-modulaires. Il n’est donc plus possible d’appliquer les
algorithmes d’optimisation globale sous-modulaire.
Étonnamment, et malgré le caractère non sous-modulaire de la fonction à
minimiser, certaines affectations de labels, appartenant au minimum global,
peuvent néanmoins être trouvées en un temps polynomial. En effet, la structure
éparse de certains graphes permet de détecter, pour un sous-ensemble de
variables, si l’affectation d’un label pour une variable donnée appartient au
minimum global ou non. Cette propriété est importante car elle permet, même
si le minimum global d’une énergie ne peut pas être atteint complètement
du fait de sa non sous-modularité, d’identifier un sous-ensemble de variables
pour lesquelles on peut trouver l’affectation appartenant au minimum global. La
méthode pour le faire est la roof duality.
Pour passer à l’optimisation multi-labels, une heuristique est de décomposer le
problème en une succession de sous-problèmes binaires, nommés fusions, où
il faut choisir entre une solution courante, et une proposition de label. Chaque
étape de fusion sélectionne une solution globale de l’énergie du sous-problème
binaire, si elle est sous-modulaire. Pour autant, en itérant les fusions, il n’y a pas
de garantie de converger vers un minimum local.
Enfin, nous avons vu que l’optimisation de fonctions pseudo-booléennes
quadratiques apporte un cadre assez large pour optimiser les énergies
rencontrées en traitement d’image et peut être aussi utilisée dans d’autres
contextes.
Il faut noter que cette présentation succincte ne représente qu’une petite
partie de l’optimisation des fonctions pseudo-booléennes. Pour aller plus loin,
l’article (B OROS, Peter L. H AMMER et al., 2006) propose de nouvelles méthodes
pour l’optimisation de fonctions pseudo-booléennes quadratiques tel que le
probing qui permet d’améliorer le calcul de la roof duality. Autre exemple, la
LES COLLECTIONS DE L’IFSTTAR
163
Optimisation de formes en sciences de l’ingénieur
thèse (S TRANDMARK, 2012), soutenue en 2012, propose un état de l’art complet
sur l’optimisation discrète appliquée au domaine de la vision par ordinateur.
5.5.1. Récapitulatif
Pour résumer, les points clés à retenir de l’optimisation des fonctions pseudo-
booléennes sont :
— N’importe quelle fonction pseudo-booléenne peut être transformée en une
posiforme.
— Les affectations vérifiant la persistance forte avec la roof duality
peuvent être trouvées en un temps polynomial par poussage de flot.
— Les affectations persistantes faibles peuvent être trouvées en résolvant
la posiforme réduite.
— Si la fonction pseudo-booléenne est sous-modulaire, alors on peut trouver
un minimum global en un temps polynomial.
— Une fonction pseudo-booléenne quelconque peut toujours être réduite en
une posiforme quadratique en ajoutant des variables supplémentaires, et
ayant le même minimum global.
— Il existe plusieurs réductions possibles.
— La réduction entraîne l’apparition de termes non sous-modulaires.
— Le nombre et les coefficients des termes non sous-modulaires
dépendent directement de la réduction utilisée.
— Le nombre et les coefficients des termes non sous-modulaires influent
sur le nombre d’affectations persistantes fortes.
— Nous pouvons décomposer un problème multi-labels en une série de sous-
problèmes binaires en utilisant la fusion et diverses stratégies d’exploration
(α-expansion, β-jump, alternée), mais on n’obtient alors pas forcément un
minimum global.
5.5.2. Outils libres
Plusieurs implantations d’algorithmes sous licence libre sont disponibles pour
résoudre les différents problèmes abordés dans ce chapitre :
— α-expansion : [Link]
— Optimisation de fonction pseudo-booléenne quadratique :
[Link]
— Réduction de fonction pseudo-booléennes quelconques en quadratique :
[Link]
Bibliographie
Endre Boros et Peter L Hammer. « Pseudo-boolean optimization ». In : Discrete
applied mathematics 123.1 (2002), pages 155-225. DOI : 10 . 1016 / S0166 -
218X(01)00341-9.
Endre Boros, Peter L. Hammer et Gabriel Tavares. Preprocessing of
unconstrained quadratic binary optimization. Rapport technique. Rutgers
University, 2006.
LES COLLECTIONS DE L’IFSTTAR
164
Optimisation de fonctions pseudo-booléennes
Yuri Boykov, Olga Veksler et Ramin Zabih. « Fast Approximate Energy
Minimization via Graph Cuts ». In : Pattern Analysis and Machine Intelligence,
IEEE Transactions on 23 (11 nov. 2001), pages 1222-1239. DOI : 10.1109/34.
969114.
Laurent Caraffa. « Reconstruction 3D à partir de paires stéréoscopiques en
conditions dégradées ». Thèse de doctorat. Université Pierre et Marie Curie,
2013.
Laurent Caraffa et Jean-Philippe Tarel. « Markov Random Field Model for
Single Image Defogging ». In : Proceedings of IEEE Intelligent Vehicle
Symposium (IV’2013). Gold Coast, Australia, juin 2013, pages 994-999.
Laurent Caraffa et Jean-Philippe Tarel. « Stereo Reconstruction and Contrast
Restoration in Daytime Fog ». In : Proceedings of Asian Conference on
Computer Vision (ACCV’12). Tome IV. LNCS. Daejeon, Korea : Springer, 2013,
pages 13-25.
Alexander Fix, Aritanan Gruber, Endre Boros et Ramin Zabih. « A graph cut
algorithm for higher-order Markov Random Fields ». In : Proceedings of the
2011 International Conference on Computer Vision. ICCV ’11. Washington, DC,
USA : IEEE Computer Society, 2011, pages 1020-1027. ISBN : 978-1-4577-
1101-5. DOI : 10.1109/ICCV.2011.6126347.
Andrew C. Gallagher, Dhruv Batra et Devi Parikh. « Inference for order
reduction in Markov random fields ». In : Proceedings of the 2011 IEEE
Conference on Computer Vision and Pattern Recognition. CVPR ’11.
Washington, DC, USA : IEEE Computer Society, 2011, pages 1857-1864.
ISBN : 978-1-4577-0394-2. DOI : 10.1109/CVPR.2011.5995452.
Hiroshi Ishikawa. « Exact optimization for Markov random fields with convex
priors ». In : Pattern Analysis and Machine Intelligence, IEEE Transactions on
25.10 (2003), pages 1333-1336. DOI : 10.1109/TPAMI.2003.1233908.
Hiroshi Ishikawa. « Higher-order clique reduction in binary graph cut ». In :
2009 IEEE Computer Society Conference on Computer Vision and Pattern
Recognition (CVPR 2009), 20-25 June 2009, Miami, Florida, USA. IEEE, 2009,
pages 2993-3000. ISBN : 978-1-4244-3992-8. DOI : 10 . 1109 / CVPRW . 2009 .
5206689.
Hiroshi Ishikawa. « Transformation of General Binary MRF Minimization to the
First-Order Case ». In : IEEE Transactions On Pattern Analysis And Machine
Intelligence 33.6 (2011), pages 1234-1249. DOI : 10.1109/TPAMI.2010.91.
Fredrik Kahl et Petter Strandmark. « Generalized roof duality for pseudo-
boolean optimization ». In : Proceedings of the 2011 International Conference
on Computer Vision. ICCV ’11. Washington, DC, USA : IEEE Computer
Society, 2011, pages 255-262. ISBN : 978-1-4577-1101-5. DOI : 10.1109/ICCV.
2011.6126250.
Vladimir Kolmogorov et Ramin Zabih. « What Energy Functions Can Be
Minimized via Graph Cuts ? » In : Proceedings of the 7th European Conference
on Computer Vision-Part III. ECCV ’02. London, UK, UK : Springer-Verlag,
2002, pages 65-81. ISBN : 3-540-43746-0.
LES COLLECTIONS DE L’IFSTTAR
165
Optimisation de formes en sciences de l’ingénieur
Victor Lempitsky, Carsten Rother, Stefan Roth et Andrew Blake. « Fusion
Moves for Markov Random Field Optimization ». In : IEEE Transactions On
Pattern Analysis And Machine Intelligence 32.8 (août 2010), pages 1392-1405.
ISSN : 0162-8828. DOI : 10.1109/TPAMI.2009.143.
Mathias Paget, Jean-Philippe Tarel et Laurent Caraffa. « Extending
α-expansion to a larger set of regularization functions ». In :
Proceedings of International Conference on Image Processing (ICIP’15).
http ://[Link]/[Link]-philippe/publis/[Link]. Quebec City, Canada,
2015.
Ivo G. Rosenberg. « Reduction of bivalent maximization to the quadratic case. »
In : Cahiers du Centre d’Etudes de Recherche Operationnelle (1975), 17 :7174.
Petter Strandmark. « Discrete Optimization in Early Vision ». Thèse de doctorat.
Centre for Mathematical Sciences LTH, Lund University, Sweden, 2012.
LES COLLECTIONS DE L’IFSTTAR
166
Conclusion
Les différents chapitres qui composent cet ouvrage ont permis de mettre
en évidence comment des problèmes d’optimisation de forme apparaissent
naturellement dans différents domaines d’application tels que la conception
de structures (chapitres 1-2), l’analyse d’images (chapitres 4-5), ou l’étude du
comportement de matériaux à changement de phase (chapitre 3). Des traits
communs émergent des différentes problématiques qui ont été abordées. Ainsi,
les passages entre formulation discrète et formulation continues ont souvent été
discutées : la formulation la plus naturelle du problème est souvent de nature
discrète, au sens où elle porte sur des quantités à valeurs dans {0, 1} (ou {0, n}).
En conception de structures, la quantité mise en jeu est de nature binaire et
correspond à la présence ou non de matière au point x. En analyse d’images,
la quantité mise en jeu est le niveau de gris en chaque pixel. Pour l’étude des
transformations de phase, la quantité mise en jeu est à valeurs dans {0, n} et
indique la phase présente au point x.
Afin de faciliter la résolution, certaines des approches présentées consistent à
passer de la formulation discrète à une formulation continue, c’est-à-dire à une
formulation où la quantité mise en jeu peut varier continûment dans un intervalle
(par exemple). C’est le cas de la relaxation convexe présentée au chapitre 4 ou
encore des méthodes d’optimisation topologique présentées au chapitre 1. Pour
certains des problèmes étudiés, la quantité continue ainsi introduite bénéficie
d’une interprétation physique claire (par exemple, en conception de structures, la
densité locale de matière). Notons que ce passage du discret vers le continu n’est
pas systématiquement nécessaire : les méthodes de l’optimisation quadratique
pseudo-booléenne (chapitre 5) portent directement sur la formulation discrète.
Signalons également que les passages entre formulation discrète et continue se
font dans les deux sens. Ainsi, pour les problèmes d’optimisation de structure
(chapitre 1 par exemple), une étape de "discrétisation" est effectuée sur la
solution du problème continu afin de générer une forme constructible.
Une autre caractéristique commune des problèmes abordés est qu’ils font
apparaître des problèmes de minimisation "mal posés", au sens où la
fonction à minimiser (qui s’interprète souvent à une énergie) possèdent de
nombreux minima locaux. Les minima globaux (qui sont ceux recherchés)
et les minima locaux ne coïncident que dans quelques cas particuliers.
LES COLLECTIONS DE L’IFSTTAR
167
Optimisation de formes en sciences de l’ingénieur
En optimisation quadratique pseudo-booléenne (chapitre 5), cette situation
particulière correspond au cas d’une fonction énergie sous-modulaire. Dans
l’étude des matériaux à changement de phase, elle correspond au cas
d’une énergie convexe (ce qui est vérifié seulement lorsque les phases sont
géométriquement compatibles deux à deux, au sens explicité au chapitre 3). Ces
situations très particulières ne couvrent pas l’éventail des problèmes rencontrés
en pratique. Aussi, la multiplicité des minima locaux demeure une difficulté
dans la plupart des problèmes traités, ce qui se traduit par une dépendance
de la solution obtenue vis-à-vis de l’estimation initiale choisie pour démarrer la
résolution.
Au travers de différents domaines d’application, plusieurs méthodes ont
été abordées : optimisation topologique, algorithmes génétiques, level-sets,
optimisation quadratique pseudo-booléenne pour ne citer que quelques
exemples. Il convient de noter que ces méthodes ne sont pas restreintes au
domaine d’application dans lequel elles ont été présentées dans cet ouvrage. De
par la similitude déjà soulignée des problèmes mathématiques sous-jacents, les
méthodes numériques utilisées en traitement d’images (par exemple) pourraient
probablement être pertinentes en conception de structures. De fait, les méthodes
de type level-sets (décrites au chapitre 5) sont actuellement de plus en plus
utilisées en conception de structures. Il pourrait en aller de même d’autres
méthodes.
Notons finalement que les progrès constants en outils de calcul (matériels et
logiciels) et de traitement de données ouvrent de nouveaux horizons. Il en va
de même des techniques de fabrication additives, actuellement en plein essor,
qui offrent un moyen de construire les formes optimales issues d’un calcul de
conception de structures, sans fortes contraintes de fabricabilité.
LES COLLECTIONS DE L’IFSTTAR
168
Liste des figures
1.1. Chargement mécanique pour le problème de dimensionnement . 13
1.2. Recherche d’un pont optimal. Positionnement du problème . . . 19
1.3. Recherche d’un pont optimal. Solution relaxée ρ obtenue par la
méthode d’homogénéisation . . . . . . . . . . . . . . . . . . . . 20
1.4. Recherche d’un pont optimal. Solution ρ̃ obtenue par
homogénéisation, après filtrage . . . . . . . . . . . . . . . . . . . 20
1.5. Optimisation d’une poutre console . . . . . . . . . . . . . . . . . 22
1.6. Solutions obtenues par la méthode SIMP, pour deux états initiaux
différents. Maillage à 4586 éléments . . . . . . . . . . . . . . . . 22
1.7. Solutions obtenues par la méthode d’homogénéisation, avant
(gauche) et après (droite) filtrage. Maillage à 4586 éléments . . . 22
1.8. Solutions obtenues par la méthode d’homogénéisation, avant
(gauche) et après (droite) filtrage. Maillage à 8201 éléments . . . 23
1.9. Solutions obtenues par la méthode d’homogénéisation, avant
(gauche) et après (droite) filtrage. Maillage à 12913 éléments . . 23
[Link] robuste d’une poutre en flexion . . . . . . . . 28
[Link]ésentation de la fonction a(r) (gauche) et d’une suite
maximisante (droite) pour un problème de dimensionnement
robuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
[Link] maximal en fonction du niveau d’incertitude sur le
module d’Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.13.États initiaux (notés E0 , E1 , E2 ) utilisés . . . . . . . . . . . . . . 39
[Link] critiques obtenues pour chacun des 3 états initiaux
E0 , E1 , E2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
[Link] critiques obtenues pour chacun des 3 états initiaux
E0 , E1 , E2 (problème régularisé) . . . . . . . . . . . . . . . . . . 41
169
Optimisation de formes en sciences de l’ingénieur
[Link] bidimensionnel par éléments finis . . . . . . . . . . . . . . 42
2.1. Représentation symbolique du domaine Ω ainsi que d’un objet
plongé dans Ω de contour Γ . . . . . . . . . . . . . . . . . . . . . 47
2.2. Courbes d’absorption des 9 matériaux retenus pour l’optimisation 50
2.3. Exemple d’optimisation avec un seul critère . . . . . . . . . . . . 58
2.4. Exemple d’optimisation avec 2 critères . . . . . . . . . . . . . . . 59
2.5. Schéma récapitulatif d’une optimisation globale, une fois les
paramètres d’environnement fixés . . . . . . . . . . . . . . . . . 63
2.6. Résultat de l’optimisation globale en pondérant l’indicateur ACOU
à 100% . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.7. Résultat de l’optimisation globale en pondérant l’indicateur ENV à
100% . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.8. Résultat de l’optimisation globale en pondérant l’indicateur COST
à 100% . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.1. Transformation cubique-tétragonale . . . . . . . . . . . . . . . . 70
3.2. Transformation tétragonale-orthorombique . . . . . . . . . . . . . 71
3.3. Interprétation de l’effet mémoire de forme en termes de
changement de phase (T désigne la température) . . . . . . . . 72
3.4. Répartition géométrique des phases dans le domaine Ω (ici carré). 76
3.5. Exemple de déformations (à gauche la configuration avant
déformation, à droite la configuration après déformations) . . . . 83
3.6. Valeurs de (ω, τ ) telles que ē(ω, τ ) ∈ QK ( CuAlNi) . . . . . . . . 83
3.7. Structure laminée . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.8. Structure laminée de rang 2 . . . . . . . . . . . . . . . . . . . . . 87
3.9. Bornes par laminations de rang 1 pour un problème à 4 phases . 90
[Link] par laminations de rang 2 pour un problèmes à 4 phases 90
[Link] par laminations de rang 3 pour un problèmes à 4 phases 91
[Link]ésentation schématique des bornes pour les problèmes à 12
phases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
[Link] sur les valeurs (ω, τ ) telles que ē(ω, τ ) ∈ QKI . . . . . . 99
II
[Link] sur les valeurs (ω, τ ) telles que ē(ω, τ ) ∈ QK . . . . . . 99
4.1. Exemples de modèles déformables. . . . . . . . . . . . . . . . . 104
LES COLLECTIONS DE L’IFSTTAR
170
Liste des figures
4.2. (a) Illustration de la force interne FIN T dans le cas purement
élastique. (b) Illustration de la force image. . . . . . . . . . . . . 106
4.3. Partitionnement du domaine image . . . . . . . . . . . . . . . . . 110
4.4. Interprétation de la force image . . . . . . . . . . . . . . . . . . . 111
4.5. Exemple de segmentation par contour actif orienté-region. . . . . 112
4.6. Exemple de suivi de ligne de fissure par contour actif géodésique
entre plusieurs extrémités. . . . . . . . . . . . . . . . . . . . . . . 116
4.7. Application de la méthode de Kaul et al. sur une image synthétique 117
4.8. (a) Image originale ; (b) image « dépliée » de manière radiale à
partir du point marqué d’une croix jaune dans (a). . . . . . . . . 118
4.9. Découpage du plan image dans le cas d’un objet convexe
(d’après (A PPLETON et TALBOT, 2005)) . . . . . . . . . . . . . . 119
[Link] pour les algorithmes Level Sets . . . . . . . . . . . . 124
5.1. Équivalence entre la réduction de la posiforme et le poussage de
flot sur le graphe induit. . . . . . . . . . . . . . . . . . . . . . . . 147
5.2. (a) montre le graphe induit de l’exemple 5.3 et (b) le graphe réduit 148
5.3. Graphes induits dans le cas sous-modulaire . . . . . . . . . . . . 152
5.4. Méthodes de segmentation binaire . . . . . . . . . . . . . . . . . 159
5.5. Résultat de reconstruction par α-expansion sur (5.40) en fonction
de la valeur de ν . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.6. Reconstruction raffinée par fusion avec un modèle a priori de la
route. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.7. Méthodes de débruitage . . . . . . . . . . . . . . . . . . . . . . . 162
LES COLLECTIONS DE L’IFSTTAR
171
Liste des tables
1.1. Résultats numériques (r = 1.5) . . . . . . . . . . . . . . . . . . . 39
1.2. Valeur maximale de la contrainte de Von Mises . . . . . . . . . . 42
2.1. Exemple de coût de construction et de démolition en fonction de la
hauteur de l’écran . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2. Exemple de coût de maintenance des matériaux utilisés . . . . . 55
2.3. Critères environnementaux liés aux matériaux considérés . . . . 56
2.4. Description de 4 familles d’écran . . . . . . . . . . . . . . . . . . 57
2.5. Seuils de performance à atteindre en termes de gain relatif pour
les trois critères acoustiques . . . . . . . . . . . . . . . . . . . . 57
2.6. Nombre de générations de populations concernant l’optimisation 59
2.8. Système de notation pour l’indicateur ACOU . . . . . . . . . . . 61
2.9. Système de notation pour l’indicateur ENV . . . . . . . . . . . . 61
[Link]ème de notation pour l’indicateur COST . . . . . . . . . . . . 61
[Link]és considérées pour l’optimisation extrinsèque . . . . . 62
3.1. Transformation cubique-orthorombique . . . . . . . . . . . . . . . 81
3.2. Transformation cubique-monoclinique-I . . . . . . . . . . . . . . . 96
3.3. Transformation cubique-monoclinique-II . . . . . . . . . . . . . . 96
3.4. Mesures des différentes bornes (exprimées en fonction de |CK|) 97
5.1. Table de vérité de la fonction pseudo-booléenne de l’exemple 5.1 141
5.2. Table de vérité de la fonction pseudo-booléenne de l’exemple 5.3 149
5.3. Table de vérité de la fonction pseudo-booléenne de l’exemple 5.4 152
5.4. Tables de vérité des fonctions pseudo-booléennes de l’exemple 5.5. 154
173
Fiche bibliographique
Collection
Ouvrages scientifiques
ISSN ISBN Réf.
2558-3018 Papier 978-2-85782-743-6 OSI3
PDF 978-2-85782-744-3
Titre
Optimisation de formes en sciences de l’ingénieur
Sous-titre
Méthodes et applications
Cordinateur
Michaël PEIGNEY
Auteurs
Michael PEIGNEY, Christophe HEINKELE, Thomas LEISSING, Jérôme
DEFRANCE, Pierre CHARBONNIER, Jean-Philippe TAREL, Laurent
CARAFFA, Mathias PAGET
Date de publication Langue
Novembre 2018 Français
Résumé
Ce recueil donne un aperçu des méthodes d’optimisation de formes et
de leurs applications en sciences de l’ingénieur, en mettant l’accent sur
quelques contributions récentes de l’IFSTTAR, du CEREMA, et du CSTB.
Les applications présentées concernent des thématiques physiques autour
des matériaux et structures ainsi que des thématiques en traitement d’images
numériques. Au fil de cet ouvrage, nous mettons en évidence certains liens
et similitudes qui existent entre des problématiques au premier abord très
différentes. Cet ouvrage a été rédigé avec un souci pédagogique constant pour
être accessible au lecteur non spécialiste.
Mots clés
optimisation de formes – éco-conception de stuctures – traitement d’images –
matériaux à changement de phase
Nbre de pages Prix
175 p. Papier Gratuit
PDF Gratuit
LES COLLECTIONS DE L’IFSTTAR
174
Publication data form
Collection
Scientific book
ISSN ISBN Ref.
2558-3018 Paper 978-2-85782-743-6 OSI3
PDF 978-2-85782-744-3
Title
Shape optimization in engineering sciences
Subtitle
Methods and applications
Editor
Michaël PEIGNEY
Author(s)
Michaël PEIGNEY, Christophe HEINKELE, Thomas LEISSING, Jérôme
DEFRANCE, Pierre CHARBONNIER, Jean-Philippe TAREL, Laurent
CARAFFA, Mathias PAGET
Publication date Language
November 2018 French
Abstract
This collective book aims at presenting some general methods used in shape
optimization together with relevant applications in engineering science. Special
emphasis is put on recent research results achieved by IFSTTAR, CEREMA and
CSTB in the field. The applications presented cover material sciences, structural
design, and numerical images processing. There exist some deep connections
between those seemingly far apart applications, as will be shown throughout the
book. This book has been intended to be accessible to non-specialist readers
wanting to learn about shape optimization.
Keywords
shape optimization – eco-design of structures – numerical images processing –
phase transformation
Page number Price
175 p. Paper Free
PDF Free
LES COLLECTIONS DE L’IFSTTAR
175
■ OUVRAGES SCIENTIFIQUES
OSI3
C e recueil donne un aperçu des méthodes d’optimisation de formes et de
leurs applications en sciences de l’ingénieur, en mettant l’accent sur
quelques contributions récentes de l’IFSTTAR, du CEREMA et du CSTB. Les
applications présentées concernent des thématiques physiques autour des
matériaux et structures ainsi que des thématiques en traitement d’images
numériques. Au fil de cet ouvrage, nous mettons en évidence certains liens
Optimisation de formes
et similitudes qui existent entre des problématiques au premier abord très
différentes. Cet ouvrage a été rédigé avec un souci pédagogique constant en sciences de l’ingénieur
pour être accessible au lecteur non spécialiste.
Méthodes et applications
T his collective book aims at presenting some general methods used in
shape optimization together with relevant applications in engineering
Optimisation de formes en sciences de l’ingénieur
science. Special emphasis is put on recent research results achieved by
IFSTTAR, CEREMA and CSTB in the field. The applications presented cover
material sciences, structural design, and numerical images processing.
There exist some deep connections between those seemingly far apart
applications, as will be shown throughout the book. This book has been
intended to be accessible to non-specialist readers wanting to learn about
shape optimization.
Michaël PEIGNEY est ingénieur en chef des Ponts, Eaux et Forêts et chercheur
au laboratoire Navier. Il enseigne à l’École Polytechnique, à l’École des Ponts
ParisTech et à l’ENSTA. Ses thèmes de recherche concernent la mécanique des
solides, notamment le développement de méthodes numériques en mécanique non
linéaire, les approches multi-échelles et l’étude des transformations de phase.
sous la direction de Michaël PEIGNEY
Ouvrages scientifiques
Illustration de la couverture : résultats d’un calcul numérique d’optimisation
de formes pour un pont bidimensionnel (Source IFSTTAR)
ISBN : 978-2-85782-744-3
ISSN : 2558-3018
Réf : OSI3
Novembre 2018
LES COLLECTIONS DE L’IFSTTAR