0% ont trouvé ce document utile (0 vote)
102 vues7 pages

Modelisation Et Simulation de Systemes Complexes: de La Theorie A L'Application

Transféré par

Ando Randriamihoatra
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
102 vues7 pages

Modelisation Et Simulation de Systemes Complexes: de La Theorie A L'Application

Transféré par

Ando Randriamihoatra
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

MODELISATION ET SIMULATION DE SYSTEMES COMPLEXES : DE LA THEORIE A L’APPLICATION

Julien RAJOMALAHY et Lala ANDRIANAIVO

Université d’Antananarivo, Ecole Supérieure Polytechnique, Petroleum Engineering Department, Laboratoire Exergie et
Géoingénierie, BP 1500 Antananarivo 101, Madagascar, julienrajomalahy@[Link]

Résumé

La modélisation numérique se situe de plus en plus au cœur même du métier de l'ingénieur, dont
l'environnement de travail a beaucoup évolué au cours des dernières années, et continuera de le faire
dans l'avenir. De plus en plus, il bénéficiera d'outils informatisés pour lui faciliter la tâche et notamment
lui permettre d'effectuer ses calculs scientifiques avec davantage de précision que par le passé et un gain
de temps significatif. Cette évolution, qui semble irréversible, a pour effet de modifier sensiblement le
travail même de l'ingénieur. Il importe moins qu'auparavant qu'il connaisse dans le détail la manière
dont les calculs sont effectués, mais il est essentiel qu'il sache exploiter les résultats que lui fournissent
les logiciels, tout en étant capables de les critiquer et d'en connaître les limites. L'idée de cet article est la
suivante : les technologies de l'information sont en train de révolutionner les modes d'acquisition, de
capitalisation et de transmission du savoir. Dans ces conditions, l'ingénieur manipule de moins en moins
souvent directement des équations. Il utilise des modèles numériques qui les encapsulent et permettent
de les mettre en œuvre de manière efficace grâce à des puissants environnements de modélisation. Pour
étayer cette idée, nous commencerons par présenter brièvement comment élaborer un modèle de calcul
dans l'environnement Matlab, ce qui nous permettra de montrer ce que peut apporter un
environnement de modélisation adapté. Au-delà de la résolution immédiate d'un problème donné, la
modélisation, si elle se veut efficace, doit avoir pour objectif d'être économique, sûre et réutilisable. Sur
la base des travaux menés dans ce domaine depuis quelques temps, il apparaît que ceci implique que la
modélisation soit modulaire, et que l'assemblage de modèles complexes soit facilité par des outils
appropriés : les environnements de modélisation numérique.

Mots-clefs : Modèle numérique/ Méthodologie/ Approche multi-physique/ Vérification/ Validation

1. INTRODUCTION

Les modèles numériques sont sans doute les outils de base les plus puissants pour étudier les systèmes
complexes. La modélisation est une nécessité ; elle ne supplante pas l'expérimentation ; elle la complète
en abaissant le coût des études et en permettant de comprendre des fonctionnements par ailleurs
inaccessibles à l'observation directe. Un modèle numérique est une représentation mathématique
simplifiée (ou représentation abstraite approximative) du système étudié, qui permet d'en analyser le
comportement. Il s'agit d'un outil opératoire que développe l'ingénieur ou le physicien pour résoudre les
différents problèmes qui lui sont posés.

Il importe de noter qu'un modèle est faux par définition. De ce fait, il peut posséder des comportements
qui lui sont propres, distincts de ceux du système étudié. D'autre part, il peut faillir à représenter certains
comportements du système. Ce qui est important, c'est que ces approximations n'aient pas d'influence
sur les interprétations que l'on fait. En ce sens, il n'y a pas de mauvais modèles, il n'y a que des modèles
inadaptés ou improprement utilisés. Nous pouvons définir une modélisation analytique, basée sur une
décomposition du problème et l'application de lois de la physique, et une modélisation empirique, basée

MADA-HARY, ISSN 2410-0315, vol. 12, 2022 Page 114


sur des corrélations ou lois établies à partir de données expérimentales (notamment lorsque la
complexité ou le caractère aléatoire du problème étudié interdit une démarche analytique). Dans les
faits, les modèles utilisés seront fréquemment le fruit d'un compromis entre ces deux manières d'opérer.

2. MODELISATION ANALYTIQUE OU DEDUCTIVE

En fonction des objectifs poursuivis et de la nature des problèmes à résoudre, nous aurons recours, selon
les cas, à des modèles de sophistication variable (Figure 01): par exemple, de par sa plus grande
robustesse, une commande en boucle fermée se satisfera d'un modèle beaucoup plus frustre qu'une
commande en boucle ouverte. Trois types de modèles analytiques peuvent ainsi être définis :

• les modèles d'approche, simples mais assez grossiers, ont pour objet de dégrossir le problème en
choisissant une représentation simplifiée, "au premier ordre" par exemple, en vue de se faire
une idée des principales tendances du comportement du système, et d'identifier les principaux
paramètres qui le régissent. Il n'est pas toutefois toujours possible de les établir a priori, du
moins avec une précision suffisante en pratique.
• Les modèles de connaissance, très détaillés mais souvent lourds et coûteux d'emploi, se situent à
l'autre bout de l'échelle. Basés sur une analyse physique fine des phénomènes en jeu, leur
avantage est la précision, mais leur inconvénient est la complexité et la lourdeur de mise en
œuvre. Pour être valables, ils doivent être validés, ce qui peut être une tâche extrêmement
compliquée. Ils se présentent comme d'impressionnants empilages d'équations aux nombreux
paramètres dont il est difficile de discerner a priori ceux qui sont les plus significatifs.
• Les modèles réduits constituent en quelque sorte le compromis entre la simplicité de mise en
œuvre des modèles d'approche et la précision des modèles de connaissance dont ils sont
algorithmiquement issus. Ils traduisent le fait que le comportement d'ensemble d'un système,
même complexe, est parfois relativement simple. Les procédures de réduction permettent ainsi
de faire le lien théorique entre les lois de la physique (modèles de connaissance) et le
comportement d'ensemble des systèmes (modèles identifiés).

MADA-HARY, ISSN 2410-0315, vol. 12, 2022 Page 115


Figure 01 : Principe de la méthode

3. MODELISATION EMPIRIQUE OU INDUCTIVE

Lorsque le degré de complexité du système est très élevé, le nombre des constituants, des interactions
et des paramètres descriptifs ne rend pas toujours possible une approche déductive. Dans ce cas, il
existe des techniques qui, à partir des données expérimentales (entrées-sorties), permettent de
constituer des modèles mathématiques simplifiés cohérents, dits modèles de comportement. Lorsqu'une
modélisation déductive est possible, celle-ci permet de donner la forme générale d'un tel modèle. Nous
trouvons ici les concepts de boîte noire ou boîte grise introduits par l'approche systémique. Cette
démarche de modélisation non phénoménologique ne permet ni d'améliorer ni d'optimiser le système
étudié. Par contre elle permet de caractériser un système existant, de le simuler, ou encore de le
commander.

Les méthodes utilisées sont empruntées pour la plupart à l'automatique et aux sciences statistiques :
(régressions, corrélations, identification,...). Parmi celles-ci, l'identification ouvre des perspectives
particulièrement attrayantes : une étude du type boîte noire peut permettre, en analysant les seules
entrées et sorties d'un système, d'obtenir de bons modèles de comportement, même en l'absence d'une
mise en équation préalable sur la base des lois de la physique. Les méthodes d'identification offrent donc
un éclairage complémentaire de l'approche physicienne traditionnelle. Au sens le plus large,
l'identification est la phase qui consiste à déterminer les valeurs numériques des paramètres utilisés
dans le modèle, le critère de choix étant de minimiser l'erreur entre les grandeurs calculées et les
grandeurs relevées expérimentalement.

Dans une approche déductive, la plupart des paramètres introduits dans le modèle ont un sens physique.
Parmi ces paramètres, certains ont été mesurés et sont connus avec précision ; d'autres sont connus

MADA-HARY, ISSN 2410-0315, vol. 12, 2022 Page 116


dans des fourchettes de précision trop larges ou impossibles à mesurer. Enfin, plus le modèle prend des
libertés par rapport à la phénoménologie, plus apparaissent des paramètres n'ayant aucun sens
physique, quelquefois appelés paramètres de calage. A la limite, dans une approche purement inductive
(Figure 02), les paramètres n'ont souvent aucun sens physique direct. Les techniques d'identification
sont empruntées aux mathématiques appliquées (techniques statistiques) et à l'automatique : pour
minimiser l'erreur entre grandeurs calculées et valeurs expérimentales, on fait appel à des algorithmes
d'identification :

• identification en-ligne et hors-ligne


• méthodes du gradient, des moindres carrés, récursive.

Figure 02 : Panoplie des techniques de modélisation

3. RESULTATS ET INTERPRETATION

Comme indiqué plus haut, un modèle ne constitue qu'une représentation abstraite de la réalité
physique, et il importe de garder en permanence à l'esprit cette limite. Cependant, l'expérience prouve
que, dès lors qu'un modèle a été élaboré, on y a recours très fréquemment. Une précaution élémentaire,
quoique quelquefois difficile à mettre en œuvre, consiste à valider ce modèle en le comparant à des
résultats expérimentaux. Cette démarche soulève en pratique de nombreuses difficultés.

3.1. L'expérimentation et l'instrumentation

L'objectif premier de la modélisation étant de reproduire le plus fidèlement possible le comportement


d'un système réel, il est très important d'être capable d'observer quantitativement ce système; d'où le
rôle fondamental de l'instrumentation et les difficultés qui s'y rattachent :

• le choix d'instruments de précision suffisante et adaptés au système étudié (constantes de


temps, domaine de validité des mesures)

MADA-HARY, ISSN 2410-0315, vol. 12, 2022 Page 117


• la connaissance des biais et des erreurs systématiques introduits par la présence de l'instrument
(biais entre la grandeur du modèle et la valeur mesurée, incertitudes).
• le choix des paramètres numériques introduits dans le modèle (conditions expérimentales
différentes, bibliographie incertaine).

3.2. La procédure de validation

Il ne suffit pas de disposer de données expérimentales de qualité pour pouvoir valider un modèle. Il faut
encore que le modèle soit suffisamment sensible aux conditions d'essais pour que des conclusions fiables
puissent être obtenues. A titre d'exemple, on sait que, dans un émetteur de chauffage parcouru par de
l'eau en circulation forcée, la résistance thermique entre l'eau et le métal est très faible devant celle qui
existe entre le métal et l'air ambiant. Compte tenu des imprécisions sur la seconde, on ne pourra
généralement pas obtenir la valeur de la première par une expérimentation en conditions réelles, si
bonne soit-elle. La validation des modèles de connaissance de dimensions significatives pose donc des
problèmes méthodologiques très complexes, qui d'ailleurs sont confirmées partiellement par les théories
de réduction de modèles et de l'identification, qui montrent bien qu'étant donné un jeu d'entrées et de
sorties (données expérimentales), il est loin d'y avoir unicité de modèle de connaissance.

4. APPLICATION

4.1. Simulation numérique de la vaporisation de l’eau dans une conduite verticale : cas de
l’écoulement de fluide géothermique

Ce travail est axé sur l'étude numérique de la vaporisation de l’eau dans un tube chauffé en utilisant le
modèle « Two phase Flow » en MATLAB Simulink qui calcule les propriétés thermodynamiques et de
transport de l’eau et de la vapeur saturée variant avec la température. L’étude de l’ébullition dans des
tubes est une préoccupation majeure de plusieurs chercheurs. Le présent travail étudie numériquement
l’écoulement d’ébullition pour un tube vertical de section circulaire dont le diamètre interne varie dans
un intervalle compris entre 0,25 à 0,40 m en utilisant l’eau comme fluide de fonctionnement. On peut
dire que l’exploitation géothermique est fondée sur la température, la pression et le débit massique du
réservoir. Les courbes de la qualité de vapeur ont montré la fraction de vapeur récupérable pour
plusieurs paramètres d’entrées différentes. La vaporisation de l’eau est influencée par la pression du
réservoir ainsi que le débit massique. L’eau entre dans la conduite à 423,15 K à un débit massique
compris entre l’intervalle : 0,5 ≤ M ≤ 1 kg/s. La conduite est sectionnée en quatre sections qui sont
chauffées à des températures différentes. La vapeur ainsi récupérée peut être utilisée pour l’exploitation
géothermique [1].

4.2. Modélisation et simulation du comportement dynamique d’un train de tiges de forage géothermal
: cas de vibration de torsion

Le but de ce travail est de comprendre la vibration de torsion causée par le phénomène stick-slip ou
adhérence glissement. Lors des opérations de forage géothermal, des problèmes qui nuisent l’efficacité
du travail et cause des pertes en allongeant le coup du travail subsistent souvent. La quasi-totalité de ces
problèmes vient des vibrations indésirables qui affectent en premier la garniture en les procurant une
fatigue accrue et provoquant leur rupture prématurée. Pour mieux illustrer, un modèle de contact outil-
roche est donné. Ce modèle est fait pour observer les paramètres qui causent les vibrations, donnant

MADA-HARY, ISSN 2410-0315, vol. 12, 2022 Page 118


une possibilité de les éviter dans la réalité. Ce modèle a été traité avec un frottement sec au niveau BHA
(Bottom Hole Assembly). Pour montrer la simulation du phénomène stick-slip, des paramètres étaient
donnés et simulés sous MATLAB avec le système de motorisation. Afin d’échapper au frottement sec la
combinaison de variation des trois paramètres tels que l’augmentation de vitesse de la table de rotation,
la diminution du poids sur l’outil et la multiplication de la viscosité dynamique de la boue de forage
permet d’annuler le phénomène stick-slip. Pendant l’opération de forage, tous les paramètres qui
affectent directement ou indirectement l’efficacité du travail seront pris en compte et ne doivent pas
être mis à l’écart d’une modification afin de réduire le plus possible la durée de l’opération tout en
évitant l’usure des matérielles, donc de minimiser le coup du travail [2].

4.3. Mesure de la température par fibre optique dans le domaine de la géothermie : résolution
numérique de la diffusion de Raman

La métrologie joue un rôle important dans le domaine de la géothermie. L’article ici présent a pour
objectif de démontrer comment on mesure la température par fibre optique dans cette application ainsi
que de déterminer quel type de fibre optique résisterait à l’environnement, difficile qu’est la profondeur
du sous-sol. Ici le paramètre étudié est principalement la température. Dans notre cas, la mesure RDTS
ou Raman Distributed Temperature Sensor nous a servi de méthode afin de déterminer la température
captée par la fibre optique en profondeur. Nous avons étudié le cas de deux types de fibres qui se
différencient physiquement par leurs revêtements, l’une équipée d’un revêtement en or, et l’autre, d’un
revêtement polyimide, toutes les deux conditionnées dans la même gamme de température. Après
simulation sous MATLAB, nous avons ainsi conclu que la fibre optique à revêtement or est celle qui
résiste le plus à des températures allant jusqu’à 350°C voire même plus et donc la plus adéquate pour la
mesure de température dans le domaine de la géothermie [3].

4.4 Modélisation et simulation du comportement thermomécanique d’un pipeline géothermal au


niveau d’une t-jonction

Ces études portent principalement sur le comportement dans la jonction sous l’effet de la pression
interne et de la variation de la température. La principale jonction étudiée est la T jonction. Le but étant
de calculer les champs de contraintes couplés à la variation de la température. Ce couplage définit de
façon réaliste le comportement thermomécanique de la jonction et notamment à l’intersection où on
constate des concentrations importantes de contraintes. La jonction est un élément très utilisé dans les
installations industrielles telles que les circuits de traitement des centrales géothermiques qui sont
soumis à des fluctuations de température dues au mélange des fluides, c’est ce qu’on appelle les zones
de mélange. Ces fluctuations peuvent engendrer des endommagements et fissurations par fatigue
thermique ou mécanique dans les circuits causant des fuites. La modélisation numérique est réalisée sur
le code de calcul ANSYS, se basant sur la méthode des éléments finis [4].

5. CONCLUSION

Les modèles numériques constituent des outils très efficaces pour aider l'ingénieur d'études à mobiliser
ses connaissances scientifiques pour résoudre les problèmes qui se posent à lui :

• concevoir de nouveaux dispositifs, avec le souci d'en optimiser le dimensionnement,


• commander des systèmes conçus ou existants,

MADA-HARY, ISSN 2410-0315, vol. 12, 2022 Page 119


• caractériser des composants ou sous-systèmes.

Le cerveau humain seul ne suffisant plus lorsqu'il s'agit d'optimiser le dimensionnement d'un système
dynamique soumis à des sollicitations multiples, ou d'ajuster un modèle de comportement sur la base de
milliers de données expérimentales, le recours à des environnements de modélisation informatisés
s'impose de plus en plus. Compte tenu de la complexité des phénomènes en jeu, et du degré de
précision demandé, le niveau de sophistication de ces outils informatiques ne cesse d'augmenter. Deux
possibilités se présentent alors à l'ingénieur : soit développer lui-même les modèles dont il a besoin, soit
utiliser des logiciels polyvalents existants.

Notre attitude était jusqu'à il y a quelques années la règle. Tant que les modèles recherchés n'étaient
pas trop complexes, il pouvait en effet sembler plus intéressant de les élaborer soi-même. Cependant,
avec le temps, il est apparu que créer le modèle informatique précis d'un système complexe est en
réalité une tâche extrêmement difficile, relevant d'une série de démarches très sophistiquées. C'est
aujourd'hui une affaire de spécialistes, qui demande une vaste culture en matière de technique de
construction de modèles et la connaissance des lois phénoménologiques fondamentales, faute de quoi le
produit final reste nécessairement limité, soit en généralité et possibilité d'évolution, soit en précision et
justesse. De plus, il s'agit d'un travail long et coûteux, qui n'est justifié que dans la mesure où le modèle
spécialisé que l'on développe est amené à être utilisé de nombreuses fois.

BIBLIOGRAPHIE

[1] Julien Rajomalahy and Lala Andrianaivo: 2021 - Simulation numérique de la vaporisation de l’eau dans
une conduite verticale : cas de l’écoulement de fluide géothermique. MADA-HARY, ISSN 2410-0315, vol.
10, 2021

[2] Julien Rajomalahy, Vololomihaja Andriamifidisoa et Lala Andrianaivo: 2021 - Modélisation et


simulation du comportement dynamique d’un train de tiges de forage géothermal : Cas de vibration de
torsion. MADA-HARY, ISSN 2410-0315, vol. 11, 2021

[3] Julien Rajomalahy, Vololomihaja Andriamifidisoa et Lala Andrianaivo: 2021 - Mesure de la


température par fibre optique dans le domaine de la géothermie : Résolution numérique de la diffusion
de Raman. MADA-HARY, ISSN 2410-0315, vol. 11, 2021

[4] Julien Rajomalahy, Vololomihaja Andriamifidisoa et Lala Andrianaivo: 2021 - Modélisation et


simulation du comportement thermomécanique d’un pipeline géothermal au niveau d’une t-jonction.
MADA-HARY, ISSN 2410-0315, vol. 11, 2021

MADA-HARY, ISSN 2410-0315, vol. 12, 2022 Page 120

Vous aimerez peut-être aussi