Pac Solaire
Pac Solaire
par
Julien NOU
J e voudrais tout d’abord exprimer mes plus sincères remerciements à ma directrice de thèse,
Monique Polit, qui m’a permis d’effectuer cette thèse au sein du laboratoire. C’est en
effet grâce à sa direction énergique du laboratoire et à ses nombreuses ressources que j’ai pu
obtenir un financement sur un sujet intéressant et d’actualité, traité en collaboration avec le
Bureau de Recherche Géologique et Minière et l’entreprise Dominguez-Energie, spécialiste
dans le domaine de la géothermie.
Je suis très reconnaissant envers Thierry Talbert, mon co-directeur de thèse. Durant
ces trois années de thèse, il a été d’un soutien scientifique indéniable, d’une aide et d’une
disponibilité au quotidien remarquables. Toujours présent pour m’accompagner d’un bout
à l’autre de la France ou du monde pour les congrès. Ses compétences scientifiques dans
de nombreux domaines et notamment l’électronique et l’informatique m’ont été d’une aide
précieuse pour mes travaux de recherche. Plus encore, ses qualités humaines et ses contacts
dans différents domaines de la recherche m’ont permis parfois d’avancer très rapidement sur
des domaines où être seul se serait avéré délicat.
Je voudrais également adresser des remerciements sincères à Adama Traoré, qui m’a appuyé
et encadré tout au long de ma thèse. Ses compétences scientifiques très pointues dans le
domaine de l’automatique ont été pour moi d’une aide précieuse et m’ont permis de mener à
bien mes premiers travaux de recherche et la rédaction des articles.
Les principaux travaux de recherche présentés par ce manuscrit de thèse se sont déroulés
en collaboration avec l’entreprise Dominguez-Energie. Je souhaite donc remercier Antoine
Dominguez pour ses grandes connaissances dans le domaine de la géothermie, son profession-
nalisme mais avant tout pour ses fortes convictions dans ce domaine. Il a pu faire avancer
le déroulement des sites expérimentaux qui ont fait l’objet de mes travaux et a permis une
collaboration qui n’était pas évidente à mettre en place au premier abord, tant le nombre
d’interlocuteurs impliqués était important. Je lui adresse pour tout cela un grand merci.
Je voudrais également exprimer ma gratitude la plus sincère au président de jury et aux
deux rapporteurs de thèse, respectivement, Frédéric Kratz, Jean-Marc Thiriet et Boutaieb
Dahhou, qui ont passé beaucoup de temps à lire, et analyser ce mémoire de thèse afin de
l’améliorer au mieux, en apportant un regard objectif sur les travaux de recherche présentés.
Je souhaite exprimer également ma reconnaissance à Denis Nguyen, qui a fait l’effort
iv Remerciements
d’apprécier d’un œil critique mon travail de recherche et qui m’a fait l’honneur de venir
participer à ma soutenance de thèse.
Faire une thèse implique souvent de travailler sur un projet personnel, cependant, au cours
de ma thèse, j’ai eu plusieurs fois l’occasion de travailler avec d’autres doctorants sur des
projets transversaux. C’est ainsi que j’ai eu le plaisir de travailler pendant près de deux ans
avec Julien Eynard. C’est avec lui que j’ai réalisé mes premiers travaux. Ses connaissances
scientifiques, sa rigueur, sa disponibilité, sa gentillesse ont été de forts atouts pour aborder
ensemble certains problèmes.
En marge de mon travail de recherche, je garde un très bon souvenir de mes premières
années dans l’enseignement supérieur. Préparer des TD a été un travail aussi instructif
qu’intéressant. Le contact avec les étudiants et la transmission des connaissances sont très
gratifiants. Je remercie tout particulièrement Mathieu Roba qui m’a initié lors de mes
premiers travaux pratiques aux joies de l’enseignement. Je le remercie également pour tous
ces moments passés au sein du laboratoire et en dehors. Si j’avais dû compter et raconter,
dans ce manuscrit, les heures de fous rires passés ensemble, j’aurais certainement dû écrire
trois ou quatre chapitres supplémentaires.
Je désire remercier l’ensemble des professeurs, maı̂tres de conférences, ATER, doctorants
et stagiaires du laboratoire avec qui j’ai passé de très bons moments, faits de travail mais
aussi de bonne humeur.
Je remercie bien évidemment ma famille et Sophie qui m’ont été d’une aide incontestable
durant ces trois années et qui ont su me supporter durant la période préférée de la famille du
doctorant, surtout lorsque celle-ci a lieu en été : la phase de rédaction.
Enfin, je remercie toutes les personnes que j’ai pu croiser et qui ont éclairé de leur savoir,
de leur aide ou plus simplement de leur soutien, les trois années de l’expérience unique que
représente la préparation d’un doctorat. Le travail d’un thésard est fait de longues journées
de travail mais aussi de moments de détente, propices à éclaircir les idées. C’est pourquoi je
n’oublie pas non plus les personnes que j’ai pu fréquenter de façon moins formelle en dehors
du laboratoire, au détour d’une soirée, d’un poker, d’un petit foot, ou d’un basket. . .
À tous je vous dis un grand merci.
Titre i
Remerciements iii
Introduction générale 3
Nomenclature 177
Bibliographie 179
Table des figures
3.20 Variables d’entrée et de sortie utilisées pour le modèle de la pompe à chaleur . 128
3.21 Variables d’entrée et de sortie utilisées pour le modèle de la pompe à chaleur . 129
3.22 Comportement des différentes variables d’entrée et de sortie de la pompe à
chaleur pour 3 cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3.23 Erreur absolue moyenne sur l’estimation de TP (m)/M en fonction du nombre
d’itérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.24 Sortie du modèle de température de sortie de la pompe à chaleur côté plancher
chauffant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.25 Erreur absolue moyenne sur l’estimation de TP (m)/G en fonction du nombre
d’itérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3.26 Coefficient de ressemblance FIT sur l’estimation de TP (m)/G en fonction du
nombre d’itérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
3.27 Sortie du modèle de température de sortie de la pompe à chaleur côté forage . 133
3.28 Plan du rez-de-chaussée de la maison . . . . . . . . . . . . . . . . . . . . . . . . . 135
3.29 Plan du 1er étage de la maison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
3.30 Températures simulées de la véranda et du séjour du 1er étage (sans ventilation)137
3.31 Températures simulées de la véranda et du séjour du 1er étage (sans ventilation)137
3.32 Exemple de températures simulées pour deux pièces (avec ventilation) . . . . . 138
3.33 Exemple de températures simulées pour deux pièces (avec infiltrations) . . . . 138
3.34 Simulation des besoins mensuels de chauffage de la maison . . . . . . . . . . . . 140
ces cas une structure d’équations générique dont la complexité et la souplesse permet de
modéliser un grand nombre de types de relations entrées/sorties.
Dans la suite du chapitre, nous présenterons, l’ensemble des modèles développés pour les
différents sous-systèmes de l’installation du projet GÉOHELIOS suivant les méthodologies de
modélisation et d’identification énoncées. Ces sous-systèmes sont : le champ solaire, l’échangeur
thermique, le forage, la pompe à chaleur ainsi que les différents circuits hydrauliques. Enfin les
résultats obtenus seront présentés et une attention particulière sera accordée à la comparaison
entre les valeurs estimées et les données expérimentales.
Enfin, ce chapitre s’achèvera par la modélisation, via le logiciel de simulation thermique
TRNSYS, de l’habitat du projet GÉOHELIOS (Saint-Pierre Dels-Forcats). Cette modélisation
prendra en compte les différents matériaux utilisés pour la structure du bâti, les orientations
des murs et cloisons, les épaisseurs et tout autre paramètre thermique agissant sur les variations
de température des pièces, sans oublier les divers scénarios d’occupation des pièces par les
habitants et les scénarios d’utilisation des appareils électriques qui ont un rôle prépondérant
dans les puissances thermiques mises en jeu. Ce modèle global permettra de simuler les
besoins de chaleur nécessaires au confort des habitants.
La Terre est soumise à des changements climatiques observables. On peut alors se poser la
question de savoir à quoi correspond la notion de « changement climatique » et s’il s’agit
uniquement de modifications causées par l’homme ou bien de changements à la fois de nature
anthropique et naturelle. Selon le GIEC [49], le changement climatique correspond à une
variation de l’état du climat que l’on peut déceler (par exemple au moyen de tests statistiques)
par des modifications de la moyenne et/ou de la variabilité de ses propriétés et qui persiste
pendant une longue période, généralement pendant des décennies ou plus. Il se rapporte à
tout changement du climat dans le temps, qu’il soit dû à la variabilité naturelle ou à l’activité
humaine. Cette définition diffère de celle figurant dans la Convention-Cadre des Nations
Unies sur les changements climatiques (CCNUCC), selon laquelle les changements climatiques
désignent des changements qui sont attribués directement ou indirectement à une activité
humaine altérant la composition de l’atmosphère mondiale et qui viennent s’ajouter à la
variabilité naturelle du climat observée au cours de périodes comparables.
Afin de pouvoir connaı̂tre les effets de l’Homme sur les changements climatiques, et en se
référant à la définition du changement climatique donnée par le GIEC, il est nécessaire, dans
un premier temps, de mettre en évidence les causes principales des variations climatiques
naturelles sur le climat.
8 Chapitre 1 : Enjeux énergétiques pour le chauffage de bâtiments
Cela signifie que dans 4,7 milliards d’années la puissance provenant du Soleil et reçue
par la Terre aura augmenté des deux tiers de sa valeur actuelle, à savoir près de 2300 W/m2 .
Cependant, dans 10 000 ans elle n’aura augmenté que d’un millième de W/m2 .
Au-delà de cette augmentation progressive de la puissance solaire, ou des cycles journaliers
(jour/nuit) et annuels (saisons) connus de tous, d’autres changements périodiques de l’activité
solaire ont déjà été constatés. En effet, des observations des taches solaires sont réalisées,
de manière systématique, depuis près de 500 ans. En 1843, l’astronome, Samuel Schawbe,
a découvert que la variation du nombre de ces taches et de leur orientation (Figure 1.1)
avaient lieu avec une périodicité d’environ 11 ans (Figure 1.2). En 1849, il établit alors une
méthode de calcul de l’activité solaire reposant sur le nombre de taches solaires et donc sur
ce cycle. A son maximum, le soleil est composé de taches et des éruptions solaires éclatent,
le soleil projette alors des milliards de tonnes de gaz électrifié dans l’espace. La variation
de l’irradiation solaire émise par le Soleil et perçue par la Terre est par conséquent issue en
partie de ces taches solaires d’une périodicité de 11 ans.
La période de ce cycle, d’une valeur moyenne de 10,7 ans, peut d’ailleurs varier de 8 à 16
ans et l’amplitude de ses maxima peut aller du simple au triple. Dans le Tableau 1.1, les
cycles de Schwabe sont numérotés à partir du maximum de l’année 1761 [6].
On remarque que le cycle le plus court a eu lieu de 1770 à 1778, soit une durée de seulement
8 ans, alors que le plus long a duré deux fois plus de temps (16 ans), de 1788 à 1804.
1 2 3 4 5 6 7 8 9 10 11 12
1761 1770 1778 1788 1804 1816 1828 1838 1848 1860 1872 1884
13 14 15 16 17 18 19 20 21 22 23 24
1894 1906 1917 1928 1939 1947 1958 1968 1981 1991 2001 2013
Tableau 1.1 – Années des maxima des 24 cycles solaires de 1761 à 2013
Soleil avec une périodicité de 100 000 ans. Son influence reste cependant minime, puisqu’on
estime la variation de la température moyenne du globe, due à ce phénomène, de l’ordre du
dixième de degré.
C9D6E7FE7997E97
AB5765
1234567 8496234567
Enfin, les manifestations externes de l’activité interne de la Terre tels que le volcanisme,
1.1 Contexte climatique 11
Figure 1.6 – Représentation schématique des facteurs humains de l’évolution du climat, des
effets sur le changement climatique et des réponses apportées, ainsi que de leurs corréla-
tions [49]
L’homme a une influence très importante sur les émissions de gaz à effet de serre. La
Figure 1.7 présente les émissions mondiales de gaz à effet de serre anthropiques. La partie
a) représente les émissions annuelles de GES anthropiques dans le monde, de 1970 à 2004,
la partie b) décrit les parts respectives des différents GES anthropiques dans les émissions
totales de 2004, en équivalent-CO2 et la partie c) détaille les contributions des différents
secteurs aux émissions totales de GES anthropiques en 2004, en équivalent-CO2 . Il apparait
que c’est le CO2 qui est le plus massivement émis par les activités humaines (76,7% du total)
et que son émission est due en très grande partie à la combustion d’énergie fossile (56,6% du
total soit 73,8% des émissions de CO2 ).
1.2 Contexte énergétique mondial 13
que les énergies fossiles tels que le charbon, le pétrole et le gaz naturel représentent à eux
trois une forte part de cette énergie avec près de 80%.
Figure 1.9 – Répartition des énergies primaires consommée dans le monde [12]
Cette part a connu une légère baisse de 1971 à 2008 passant ainsi de 86% de l’énergie
primaire mondiale à 81%, en raison de l’essor du gaz naturel et du nucléaire dans le monde.
Néanmoins, la quantité d’énergie primaire consommée ayant plus que doublé durant ces
40 dernières années, la quantité d’énergie fossile utilisée est en fait passée de 4579 Mtep à
9936 Mtep. Ces énergies fossiles (Charbon, Pétrole, et Gaz) ne sont cependant pas a égalité
dans le rôle qu’elles jouent en terme d’émissions de CO2 . La quantité moyenne de CO2 émise
lors de la combustion dépend de l’unité énergétique considérée.
On remarque que le facteur d’émission lié au gaz naturel atteint les 2,3 tCO2 /tep tandis
que celui du charbon est de 4 tCO2 /tep et de 3,1 tCO2 /tep pour le pétrole brut.
Ainsi, le charbon qui apparait en seconde place des énergies primaires mondiales, derrière
le pétrole et devant le gaz naturel, est en fait le plus gros émetteur de CO2 au monde avec
près de 12 600 MtCO2 émises en 2008 soit une hausse de plus de 140% depuis 1971.
16 Chapitre 1 : Enjeux énergétiques pour le chauffage de bâtiments
Figure 1.10 – Facteurs d’émissions de CO2 des principaux combustibles fossiles [12]
La Figure 1.11 montre l’évolution mondiale, par combustible, des émissions de CO2 dues
à l’énergie, de 1971 à 2008. Le pétrole qui occupe la première place des énergies primaires
occupe la seconde place des combustibles les plus émetteurs en CO2 avec 10 600 MtCO2 . Le
gaz, qui est le moins représenté en terme de quantité au niveau mondial et le moins émetteur
de CO2 parmi les trois énergies fossiles, a néanmoins émis, en 2008, près de 6000 MtCO2 .
Figure 1.11 – Émissions de CO2 par combustible, dues à l’énergie dans le monde [12]
En 2008, les émissions mondiales de CO2 , dues à la combustion d’énergie, ont dépassé 29
milliards de tonnes (Gt CO2 ) (+40% depuis 1990). Le taux de croissance annuel des émissions
est passé de +3,3% en 2007 à +1,5% en 2008 sous l’effet de la crise économique. La Chine
reste le premier émetteur mondial de CO2 dues à la combustion d’énergie en 2008 devant les
États-Unis (respectivement 22,3 % et 19 %).
Dans l’UE à 27, les émissions ont baissé de 5% par rapport à 1990. Cette baisse est
principalement due aux 12 nouveaux États membres (-27 %), dont les économies ont été
1.2 Contexte énergétique mondial 17
restructurées dans les années 90. Les émissions de l’UE à 15 ont augmenté de 1,8% depuis 1990
mais ont baissé de 4,8% entre 2004 et 2008. Les pays en forte croissance comme l’Espagne,
l’Irlande ou le Portugal ont connu un ralentissement sensible en 2008. La baisse des émissions
du Royaume-Uni (-7 % depuis 1990) résulte notamment d’un report du charbon vers le gaz
pour la production d’électricité.
d’au moins 5,2% dans la période 2008-2012, par rapport aux niveaux enregistrés en 1990.
Pour sa part, l’UE s’est engagée à réduire ses émissions de 8% dans le cadre de la « bulle »
européenne. Mais, pour que ce protocole puisse entrer en vigueur, il devait être ratifié par
plus de 55 pays, totalisant plus de 55% des émissions mondiales de gaz à effet de serre. Les
États-Unis refusant toute ratification, il a fallu celle de la Russie pour que le protocole puisse
entrer en vigueur, le 16 février 2005.
Dans ce contexte, l’UE a établi de nouvelles directives relatives à la promotion de l’énergie
produite à partir de sources renouvelables et, en décembre 2008, elle a adopté le « Paquet
climat-énergie » qui l’engage à réduire, d’ici à 2020, ses émissions globales de gaz à effet
de serre de 20% par rapport aux niveaux de 1990 et prévoit de porter cet objectif à -30%
si d’autres pays industrialisés acceptent d’en faire autant. Pour parvenir à ce niveau de
réduction, elle doit améliorer l’efficacité énergétique de 20% d’ici 2020, porter à une moyenne
de 20% la part des énergies renouvelables dans la consommation énergétique et que 10% des
carburants destinés aux transports soient des biocarburants.
des ménages.
Figure 1.12 – Part de chaque filière dans la production primaire d’énergie renouvelable en
2010 [12]
Pour ce qui est de la consommation d’énergies primaires en France pour 2010 (Figure 1.13),
celle-ci repose sur 43,3% d’électricité primaire, 30,9% de pétrole, 15,1% de gaz, 4,3% de
charbon et 6,4% de renouvelables thermiques et déchets. Les énergies renouvelables thermiques
et l’électricité prennent une part croissante, alors que la tendance au recul du pétrole se
confirme au fil des ans et que celle du charbon se poursuit.
mation primaire est de 22,2 Mtep. Ainsi, la part des énergies renouvelables dans la consom-
mation totale d’énergie primaire, qui poursuit une remontée régulière depuis 2005, où elle
avait atteint un niveau d’étiage, dépasse pour la première fois la barre des 8% avec un taux
de 8,3% en 2010, contre 7,9% en 2009 et 7,4% en 2008. Si l’avancée est certaine, les objectifs
sont encore loin d’être atteints.
Nous avons mis en avant, dans les parties précédentes, l’importance de la consommation
mondiale d’énergies fossiles dans les émissions de GES et les mesures et directives mondiales
et européennes pour réduire cette consommation. Nous avons également établi un aperçu de
l’état et du potentiel des énergies renouvelables françaises. Ainsi, afin de mieux lutter contre
ces émissions de GES, il est important de cibler au mieux les secteurs d’activités les plus
énergivores.
On remarque que les plus gros consommateurs d’énergie sont les secteurs résidentiels et
tertiaires, autrement dit, le secteur du bâtiment. Ce sont 69 Mtep d’énergie finale qui ont été
consommées en 2008, soit 38% de plus que pour le secteur des transports (50 Mtep).
C’est donc au secteur du bâtiment que nous allons nous intéresser puisqu’il est le secteur
le plus énergivore. Le potentiel de réduction des émissions de gaz à effet de serre y est donc
très important.
1.3 Secteur du bâtiment dans la consommation énergétique en France 21
Cependant, si l’on analyse la répartition des émissions de gaz à effet de serre liés à la
combustion de l’énergie (Figure 1.15), on remarque que le secteur du bâtiment n’arrive qu’en
seconde position avec 91,3 MtCO2 émis (24,1 % des émissions totales en France), devancé par
le secteur des transports émettant 137,9 MtCO2 (36,4 %).
Le secteur du bâtiment n’est donc que le second contributeur des émissions, mais reste un
secteur très présent. Sa contribution moindre se justifie en partie par une utilisation d’énergies
moins émettrices en CO2 mais également plus diversifiée que pour le secteur du transport qui
utilise du pétrole à plus de 90 %.
Figure 1.15 – Émission de CO2 par secteur en France liés à la combustion de l’énergie [16]
22 Chapitre 1 : Enjeux énergétiques pour le chauffage de bâtiments
Figure 1.16 – Consommation d’énergie finale des résidences principales par usage [16]
1.3 Secteur du bâtiment dans la consommation énergétique en France 23
L’évolution de 1973 à 2006 de la répartition des énergies par filière pour le poste de
chauffage est décrite sur la Figure 1.17. On peut constater que le charbon est une source
d’énergie qui a quasiment disparu et qui ne représentait plus que 0,2 Mtep en 2006. La
quantité de pétrole utilisée a été plus que divisée par 2 en 35 ans puisqu’elle n’atteignait
plus que 8,9 Mtep en 2006. Ce sont le gaz et l’électricité qui ont fortement progressé et qui
atteignaient en 2006 respectivement 14 Mtep et 11,6 Mtep.
Notons avec intérêt que le bois, source d’énergie renouvelable, atteint 6,5 Mtep et se
positionne en quatrième position avec 15,2 % en part d’énergie. Cependant, s’il semble bien
implanté, il n’a pas du tout progressé depuis 1973, malgré un potentiel très important. C’est
donc un des vecteurs sur lesquels jouer, pour diminuer la part des énergies fossiles, dans la
consommation énergétique liée au chauffage pour le secteur résidentiel. Remarquons également
que la part des réseaux de chaleur est marginale avec 1,5 Mtep, mais a doublé en quantité et
en proportion depuis 1973.
Figure 1.17 – Consommation unitaire de chauffage, par énergie finale, en 2005 des résidences
principales construites après 1975 [16]
Parmi les énergies utilisées pour le chauffage, toutes n’ont pas un impact identique sur
les émissions de gaz à effet de serre. La Figure 1.18 montre la répartition de ces émissions
liées au chauffage, selon la filière énergétique, en 1997 et en 2007. On peut voir qu’il y a
eu une évolution importante pendant cette période puisque la contribution du fioul recule
de 11 points (de 52 % à 41 %) et cède sa place au gaz, dont la part des émissions de CO2
augmente de 15 points (de 39 % à 54 %). Cette variation est en accord avec la diminution
de la part du pétrole au profit du gaz au niveau de l’énergie finale consommée. Le charbon,
qui ne représentait qu’une faible part des émissions, voit sa part réduite des deux tiers pour
atteindre seulement 3 % en 2007.
24 Chapitre 1 : Enjeux énergétiques pour le chauffage de bâtiments
Figure 1.18 – Émissions de CO2 liées au chauffage pour le secteur du bâtiment [47]
Le choix du fluide caloporteur utilisé a été également étudié. Une étude comparative sur
différents matériaux est réalisée et l’eau est finalement choisie pour ces nombreux avantages.
Son prix d’achat tout d’abord, relativement bon marché, sa capacité calorifique élevée (1.2)
et enfin sa mise en œuvre simple. La seule limitation est la température de changement de
phase de 100 , à ne pas dépasser pour demeurer à la pression atmosphérique.
kW h/m3 (ρC)
kW h/kg (C) Densité (ρ) kg/l
Eau 1,161 1, 161.10−3 1
Sable 0,51 0, 22.10−3 2,3
Argile 0,64 0, 27.10−3 2,4
Calcaire 0,68 0, 24.10−3 2,8
Sol ≤ 1,05 ≤ 0, 5.10−3 2,0
Matière sèche du sol - 0,19 à 0, 23.10−3 2,8
Parmi les autres études réalisées sur le stockage de la chaleur, on trouve le stockage dans le
sous-sol. Ces études présentent différentes approches, notamment le stockage thermal aquifère
et le stockage diffusif.
26 Chapitre 1 : Enjeux énergétiques pour le chauffage de bâtiments
Figure 1.19 – Schéma de principe du stockage de chaleur dans le projet SECCO [60]
La géothermie est la science étudiant les phénomènes thermiques internes du globe terrestre
et leur exploitation. Elle se divise en trois types : la géothermie « haute température »,
« moyenne température » ou « basse température ».
Les géothermies « haute température » (températures supérieures à 150 ) et « moyenne
température » (températures comprises entre 100 et 150 ) permettent, grâce à la vapeur
jaillissant (avec suffisamment de pression), d’alimenter une turbine et ainsi de produire de
l’électricité. Les gradients de températures rencontrés atteignent les 10 par 100 mètres de
profondeur voire plus. Les forages atteignent alors plusieurs kilomètres. Ces deux types de
géothermie nécessitent évidemment des installations industrielles conséquentes et ne sont
localisés que dans quelques centaines d’endroits dans le monde, notamment en Indonésie, aux
Philippines et aux États-Unis, les trois plus gros producteurs mondiaux. Située le long de la
ceinture de feu du Pacifique, avec près de 170 volcans en activité, l’Indonésie détient, en effet,
le plus gros potentiel géothermique au monde : 27 gigawatts d’énergie souterraine, soit 40%
des réserves mondiales [8].
La géothermie basse température se divise en deux sous-catégories.
– Tout d’abord, la géothermie utilisant les nappes phréatiques d’eau chaude. Le principe
est d’utiliser cette eau, comprise entre 50 et 90 issue d’une nappe phréatique (plusieurs
1.4 Solaire thermique et géothermie avec stockage saisonnier de la chaleur pour le chauffage de
bâtiments 27
centaines de mètres suivant les zones géographiques) et d’en extraire les calories néces-
saires au chauffage du/des bâtiment(s) via un échangeur. Cette première sous-catégorie
de géothermie basse température nécessite, par conséquent, la connaissance du massif
rocheux mais elle implique également la réalisation de forages longs.
– La seconde catégorie de géothermie basse température utilise des températures de
sous-sol inférieures à 30 grâce à une pompe à chaleur qui permet de rehausser les
températures extraites et de chauffer ainsi à des températures suffisamment importantes
pour permettre le chauffage dans les bâtiments. Cette catégorie bénéficie d’avantages
incontestables. Tout d’abord, elle est la catégorie la plus courante géologiquement et la
plus facile à mettre en place par l’homme. Et enfin, elle nécessite des travaux de forage
relativement moins couteux que pour les autres types de géothermie en raison de la
profondeur nécessaire, qui est de l’ordre de la centaine de mètres.
Le plus souvent, ce type de stockage est fondé sur l’utilisation de deux forages (doublet
géothermique), espacés de plusieurs centaines de mètres, dont le premier assure l’extraction
de l’eau chaude, à partir d’un aquifère profond et le second permet de réinjecter l’eau refroidie.
La nécessité de réinjecter l’eau est liée au souci de maintenir la pression dans l’aquifère
et à l’impossibilité de rejeter l’eau prélevée dans les cours d’eau en raison de sa salinité.
Ainsi, disposant de deux sources à températures différentes, il est possible de pomper l’eau
souterraine dans un premier forage (appelé « puits froid »), celle-ci va refroidir le bâtiment
en se réchauffant, et être réinjectée dans le même aquifère via le second forage (appelé « puits
chaud »). Durant la période hivernale, le système fonctionne à l’inverse afin de bénéficier de
la chaleur emmagasinée l’été précédent : l’eau est pompée au « puits chaud », réchauffe le
bâtiment en se refroidissant, et est réinjectée dans l’aquifère pour être réutilisée l’été suivant.
Sur ce principe, des travaux [82] ont été menés en Allemagne (Berlin) lors de la conception
du nouveau parlement allemand, le Bundestag. Deux nappes phréatiques à des profondeurs
différentes (Figure 1.20) sont utilisées pour stocker le froid (à environ 60 m) et la chaleur (à
environ 300 m).
Le bilan énergétique, obtenu par simulation sur la nappe phréatique froide, montre en été,
une extraction de l’ordre de 6 à 10 et une injection de 15 à 28 , soit une énergie récupérée
de 3,950 MWh par an.
Toujours sur la nappe froide, durant l’été, la température moyenne, lors de la phase
d’extraction est de 22 et la température d’injection de 5 , soit une énergie stockée de
4,250 MWh par an.
Ceci donne un rapport entre énergie récupérée et stockée de 93% pour une consommation
électrique de fonctionnement de l’installation de 220 MWh.
Pour ce qui est du bilan énergétique sur la nappe phréatique chaude, l’étude par simulation
montre, durant l’été, une température extraite de 20 et une injection de 70 , soit une
28 Chapitre 1 : Enjeux énergétiques pour le chauffage de bâtiments
Figure 1.20 – Représentation des deux aquifères sous le bâtiment du Bundestag [82]
énergie stockée de 2,650 MWh par an. Pour cette même nappe, l’extraction de chaleur est
comprise entre 65 et 30 , ce qui correspond à une énergie totale récupérée de 2,050 MWh
par an.
Le rapport entre cette énergie récupérée et stockée est de 77% pour une consommation
électrique de fonctionnement de l’installation de 280 MWh.
Des travaux similaires ont également été menés pour un hôpital en Turquie [79]. L’étude
présente un comparatif en terme de consommation et d’écologie de deux systèmes de chauffage
géothermiques réversibles avec un stockage thermal aquifère pour l’hôpital Balcali à Adana.
Des puits à eaux chaudes et à eaux froides permettent de faire les stockages inter-saisonniers
de la chaleur. L’été, l’eau froide est pompée des puits d’eaux froides puis réchauffée en surface
pour refroidir les bâtiments et réinjectée dans les puits d’eaux chaudes. Inversement, l’hiver,
l’eau chaude est puisée dans les puits chauds afin de réchauffer les bâtiments. L’eau refroidie
est restituée dans les puits froids. La particularité des travaux évoqués est que, parmi les
deux systèmes étudiés, l’un fonctionne par simple échangeur thermique (projet turc) alors
que le second comprend une pompe à chaleur pour tirer parti au maximum de l’échange
thermique (projet allemand). En conclusion, il apparaı̂t, qu’en terme d’économies financières
et écologiques, le système possédant une pompe à chaleur est meilleur mais souffre en contre
partie d’une consommation électrique supérieure.
Parmi les pays les plus avancés en terme d’énergie géothermique et de stockage en aquifère,
on trouve les Pays-Bas. Un état des lieux dans le pays, concernant les installations opéra-
tionnelles utilisant la géothermie thermale aquifère, avec stockage inter-saisonnier, dresse un
recensement comptabilisant plus de 400 installations [86]. Parmi les secteurs concernés on
1.4 Solaire thermique et géothermie avec stockage saisonnier de la chaleur pour le chauffage de
bâtiments 29
trouve, celui des bureaux, des hôpitaux, et aussi de l’industrie et de l’agriculture. Plusieurs
types de systèmes ont été installés et sont comparés. Le premier type sert uniquement de
climatiseur (climatisation l’été avec échangeur thermique et stockage thermal du froid l’hiver
avec refroidissement par tour de refroidissement). Avec ce système 75% de l’énergie de refroi-
dissement peut être économisée. Le deuxième type réversible fonctionne avec un échangeur
thermique. Le puits froid amène du froid à un ventilateur l’été et la chaleur est stockée dans
le puits chaud en attendant l’hiver. Ainsi en hiver, l’eau chaude pompée dans le puits chaud
est refroidie par le ventilateur qui réchauffe le bâtiment avant d’être réinjecté dans le puits
froid pour être stockée pour l’été. L’énergie économisée est deux fois plus importante que
dans le premier système, puisque le système est réversible. Le troisième système est différent
du second, en ce sens que, l’échangeur thermique utilisé pour le chauffage l’hiver est remplacé
par une pompe à chaleur.
Lorsqu’on souhaite refroidir la serre, le circuit est inversé, l’eau du puits froid est pompée
et refroidit la serre, toujours avec l’échangeur thermique. L’eau réchauffée est réinjectée
dans le puits d’eau chaude, pour être stockée jusqu’à la prochaine demande de chauffage
(Figure 1.21.b).
Ces travaux de recherche dressent un bilan des transferts énergétiques qui interviennent
sur les aquifères (advection, dispersion et diffusion). Ceci induit des pertes énergétiques dans
les puits de stockage, notamment si la vélocité de l’aquifère souterrain est importante. Cette
étude de faisabilité a demandé une modélisation et des simulations, réalisées avec le logiciel
MARTHE [95] développé par le BRGM pour la modélisation et la simulation des aquifères.
La modélisation a été réalisée en 3 dimensions avec des pas de discrétisation variables. Deux
types de simulations ont été testées, l’une avec un aquifère de vélocité nulle et l’autre avec
une petite vélocité. Les résultats montrent qu’une vélocité même petite, entraı̂ne au cours
des années un étalement beaucoup plus important de l’énergie injectée (froid ou chaud). Ceci
implique une plus faible part d’énergie recouvrée. Une étude comparative est aussi menée
pour évaluer l’influence de la distance qui sépare les deux puits au niveau de l’énergie qui peut
être recouvrée. Il apparaı̂t que si les puits sont trop proches, ils interfèrent, c’est à dire qu’une
partie des eaux chaudes se mélangent aux eaux froides, ce qui réduit d’autant l’efficacité du
stockage saisonnier de l’énergie.
30 Chapitre 1 : Enjeux énergétiques pour le chauffage de bâtiments
Une autre façon d’envisager de stocker la chaleur dans le sol est de le faire sans présence
ou circulation d’eau, le procédé pour l’extraction et l’injection de chaleur comporte alors
une différence notable. Il s’agit de capter et de stocker la chaleur dans une zone commune
contrairement au stockage en aquifère où l’on préconise l’utilisation de deux puits, l’un
constituant la source chaude, l’autre la source froide.
Des travaux de recherche ont été réalisés sur le stockage diffusif, notamment en Autriche
pour le métro de Vienne [2]. L’étude a évalué la possibilité d’utiliser des pieux géothermiques
pour les besoins de chauffage l’hiver et de refroidissement l’été. Ces éléments, en béton,
1.4 Solaire thermique et géothermie avec stockage saisonnier de la chaleur pour le chauffage de
bâtiments 31
sont prévus pour contenir des conduites absorbeurs d’énergie, leur conférant la propriété
d’échangeur thermique réversible (chauffage l’hiver, refroidisseur l’été).
Un autre projet d’envergure est celui du Dock Midfield, un nouveau terminal de l’aéroport
de Zurich mesurant 500 m de long. La zone située sous l’aéroport est équipée de 300 pieux
géothermiques utilisés comme réservoir de stockage d’énergie pour chauffer et refroidir
l’aéroport. La chaleur emmagasinée l’été sert à réchauffer les bâtiments l’hiver et le froid
emmagasiné l’hiver permet de refroidir la structure en été.
Concernant ce projet, l’aéroport a été entièrement modélisé sous TRNSYS, ce qui a
donné lieu à la réalisation d’un logiciel de modélisation/simulation plus spécifique pour les
systèmes à pieux échangeurs, dénommé PILESIM. L’étude réalisée a été commandée par
l’OFEN (Office Fédéral de l’ENergie) de Suisse. Elle débute par une analyse de la conductivité
thermique du terrain, ainsi qu’une analyse comparative des besoins énergétiques au cours de
l’année (logiciels DIAS, TRNSYS et PILESIM). Une première simulation de l’installation
avec PILESIM fait une étude de l’influence de la variation de ces paramètres. Le système
d’échangeur utilisé est présenté sur la Figure 1.22.
retourne dans le bâtiment. Dans ce mode, les pieux et la PAC ne sont pas utilisés. Ce mode
permet d’équilibrer la température du bâtiment et de la cuve dans le cas où il ne serait pas
nécessaire de chauffer ou de refroidir le bâtiment.
Le troisième mode est le mode de chauffage : le fluide extrait la chaleur des pieux, traverse
la cuve, et est réchauffé encore plus par la PAC avant d’être envoyé vers les échangeurs
thermiques pour réchauffer le fluide qui réchauffera les bâtiments. Dans ces mêmes travaux, un
algorithme de décision permet l’enclenchement des différents modes, selon les températures et
les états précédents. Ces règles de contrôle utilisées reposent sur de simples « Tout-Ou-Rien ».
Le système de contrôle étant divisé en 4 groupes, les échangeurs de chaleur été et hiver,
le système de mode opératoire, la pompe à chaleur et la machine de refroidissement qui
possèdent chacun leurs propres contrôleurs. Par exemple, pour ce qui est du contrôle de la
PAC les règles de contrôle utilisées sont présentées sur la Figure 1.23.
Des simulations sont alors faı̂tes pour étudier le système d’un point de vue énergétique sur
une année et sur un jour en avril où sont réalisés des essais en faisant varier les paramètres
du système.
Ce projet a notamment permis au LASEN (LAboratory of ENergy Systems) de l’EPFL
(Ecole Polytechnique Fédérale de Lausanne) de développer le logiciel PILESIM grâce au
logiciel TRNSYS [76, 77, 78]. PILESIM a permis de modéliser et de simuler un ensemble de
1.4 Solaire thermique et géothermie avec stockage saisonnier de la chaleur pour le chauffage de
bâtiments 33
pieux ou sondes géothermiques, dans différents types de terrains, avec un circuit de chauffage
et refroidissement utilisant des pompes à chaleur et des machines frigorifiques (Figure 1.24).
Le logiciel nécessite de connaı̂tre les besoins en chauffage et en climatisation du bâtiment.
Figure 1.24 – Représentation schématique du système d’échangeur de chaleur par pieux simulé
par la programme PILESIM (encadré en pointillés)
Enfin, pour achever cette succincte étude bibliographique concernant le stockage diffusif de
la chaleur dans le sol, il est important de présenter quelques études réalisées sur la faisabilité
technico-économique, du dimensionnement de ce type de procédés et des recommandations
nécessaires à leur bon fonctionnement.
Pour ce qui est du bon fonctionnement d’une telle installation et connaissant la quantité
d’échangeurs, de forages, ou de pieux géothermiques ainsi que l’aspect réversible ou non de
l’installation, il est nécessaire d’établir une étude sur les besoins en chauffage du bâtiment
permettant ensuite de dimensionner au mieux un système comme la pompe à chaleur et éviter
ainsi que le sous-sol ne puisse geler et entraı̂ner de graves défaillances au système de chauffage.
Une étude de faisabilité technique et économique et sur le dimensionnement, l’installation et
l’utilisation de pieux échangeurs a notamment été réalisée pour répondre à une partie des
besoins énergétiques du quartier nord de l’EPFL [15].
Également, on trouve des travaux de dimensionnement de sondes géothermiques, avec
stockage en sous-sol de l’énergie et utilisation d’une pompe à chaleur. Le projet Wollereau
consiste, à ce propos, à dimensionner une installation comprenant 36 sondes géothermiques
et une pompe à chaleur réversible en machine frigorifique (Figure 1.25).
Au cours de ce projet, une campagne de mesure de deux ans a été réalisée pour calibrer un
modèle de simulation construit avec le logiciel TRNSYS. Le système possède différents modes
de fonctionnement différents, en chauffage seul, en refroidissement direct (sans la machine
frigorifique), en chauffage et refroidissement direct combiné, et en refroidissement avec la
machine à chaleur. L’étude de plusieurs scénarios montre les parts transitoires qu’occupent le
34 Chapitre 1 : Enjeux énergétiques pour le chauffage de bâtiments
Figure 1.25 – Installation géothermique pour le stockage de chaleur utilisant une PAC
réversible
Le projet de Suva (caisse d’assurance des accidents du travail) de Root en Suisse [1],
comprend une couverture de panneaux solaires ainsi que des sondes géothermiques assurant
le stockage/déstockage de la chaleur en profondeur dans le sol, grâce à une pompe à chaleur.
Ce système permet d’assurer 50% des besoins de chaleur et de froid du bâtiment.
Un projet industriel développé par la société Ventilone [3, 9] est présenté comme réalisant
l’étude et la supervision des installations de systèmes de stockage diffusif de chaleur et
souterrains qui combinent le solaire (panneaux solaires) et la géothermie (pieux géothermiques).
En été l’énergie issue des capteurs solaires thermiques et l’énergie extraite du bâtiment en
mode rafraı̂chissement sont injectées dans la zone de stockage. En hiver, l’énergie issue des
capteurs solaires thermiques est directement transmise au bâtiment, le complément d’énergie
pour chauffer le bâtiment est puisé dans la zone de stockage. L’expertise de cette entreprise est
novatrice, puisqu’elle propose, en plus, un système de gestion optimal du stockage/déstockage
de la chaleur, breveté sous le terme « Integrated Borehole Systems » (IBS). Le stockage de
la chaleur est réparti dans de nombreux pieux géothermiques dont la gestion énergétique
est pilotée de façon individuelle pour assurer une gestion optimale de l’ensemble de l’énergie
stockée. De plus, ce système assure un équilibre énergétique annuel. Le COP (COefficient
de Performance) annuel annoncé est supérieur à 5. Le principe du système d’optimisation
breveté IBS est présenté (été et hiver) sur la Figure 1.26.
Toute source de chaleur, traditionnellement perdue, peut être couplée à la zone de stockage
géothermique. La première est le bâtiment lui-même : soumis aux cycles saisonniers, il se
transforme en capteur de chaleur l’été et en capteur de fraı̂cheur l’hiver, à condition que
son système de distribution thermique le lui permette. La chaleur provenant de groupes
de froid industriels, ou dégagée par des appareils électriques ou thermiques peut également
être valorisée alors qu’elle n’est souvent que dissipée dans l’atmosphère. Enfin, lorsque le
bâtiment ne « produit » pas assez de chaleur, l’utilisation de panneaux solaires thermiques
peut s’avérer utile.
Un travail de recherche sur une simple habitation a été menée en France, en Savoie, il
36 Chapitre 1 : Enjeux énergétiques pour le chauffage de bâtiments
s’agit du projet GEOSEOL. C’est une étude portant sur la combinaison de panneaux solaires
et d’un puits géothermique vertical à basse énergie pour le chauffage et le rafraı̂chissement par
plancher chauffant d’une maison de 180 m2 [100]. Le système comporte un forage géothermique
qui, relié à une pompe à chaleur, permet de chauffer le bâtiment et de produire l’eau chaude
sanitaire nécessaire. Des panneaux solaires reliés au réseau de chauffage permettent de couvrir
une partie des besoins énergétiques. Le surplus d’énergie solaire est réinjecté dans le puits
géothermique pour compenser, en partie, les pertes liées à la chaleur puisée dans le sol. Sur
une année complète, 34% de l’énergie puisée dans le sol est réinjectée grâce aux panneaux
solaires [99].
Le schéma de fonctionnement du projet GEOSOL est donné par la Figure 1.27.
Conclusion du chapitre
Les problématiques énergétiques et environnementales actuelles amènent inévitablement à
l’intégration des sources à énergie renouvelable, dans l’ensemble de la chaı̂ne économique,
écologique et industrielle. Le travail de recherche qui m’a été attribué, est la réalisation,
le suivi et le contrôle d’un procédé de mix énergétique (solaire/géothermie), à destination
du chauffage de bâtiment de type tertiaire et/ou de maisons individuelles. Sur l’ensemble
des installations qui ont été réalisées, jusqu’à maintenant, la partie contrôle a été rarement
étudiée en détail. Afin de réaliser cette tâche, nous avons eu l’opportunité de travailler sur
deux installations de mix énergétique. Dans le chapitre suivant, nous présenterons ces deux
installations et nous établirons un bilan énergétique d’un procédé de stockage et de déstockage
de la chaleur produite par une installation solaire. Cette étude servira de travail préliminaire
aux chapitres 3 et 4 dans lesquels il sera question de la gestion optimale de ce type de
procédés.
Chapitre 2
Introduction
Le second projet (Figure 2.2), utilisé pour la réalisation de cette étude est SOLARGÉO-
THERM et est implanté dans une carrière de schiste à Montauriol (Pyrénées Orientales). Ce
projet est par ailleurs intitulé : « Stockage et déstockage supervisés dans un massif rocheux
de l’énergie thermique produite par une installation solaire ». Il a débuté le 1er décembre
2008 et est, quant à lui, financé par l’agence nationale de la recherche (ANR) dans le cadre du
programme Stock-E lié au stockage innovant de l’énergie. Il associe le laboratoire PROMES,
au Bureau de Recherches Géologiques et Minières (BRGM), ainsi qu’à l’entreprise Dominguez
Énergie, à nouveau représentée.
42 Chapitre 2 : Étude de procédés énergétiques hybrides solaire/géothermie
123456
123456
789A!B"!9C##9A
789AAB9CDEF9BF
$%"!B
1356
78CFEBCBF
2.2.1 GÉOHELIOS
[Link] Dimensionnement de l’installation
L’installation de Saint-Pierre dels Forcats s’étant construite sur plusieurs mois, lors du
dimensionnement des puits géothermiques, le champ solaire n’était pas encore présent ni
même prévu. La longueur du forage estimée à cette époque reposait donc simplement sur
la surface de plancher chauffant et le type de sous-sol présent. D’après les informations des
spécialistes, l’extraction de chaleur spécifique d’un sous-sol constitué de granit est d’environ
Cs = 70 W/ml [11]. Or, les besoins en chauffage des habitants pour une telle surface sont
de l’ordre de 15 kW. Par conséquent, en déterminant la puissance devant être extraite du
sous-sol Pf roid , on est capable de déterminer la longueur Lf nécessaire des forages.
Cette puissance se calcule [11] en utilisant le Coefficient de Performance de la pompe à
chaleur, que nous définirons plus tard dans cette section. On obtient ainsi l’équation (2.1).
Pf roid = Pth −
Pth
(2.1)
CoP
44 Chapitre 2 : Étude de procédés énergétiques hybrides solaire/géothermie
Avec Pth = 15050W [13] et une moyenne de CoP donnée par le constructeur de 3,85 on
obtient :
Lf =
Pf roid
(2.3)
Cs
Soit :
Lf = 159 m (2.4)
À l’époque, ce sont finalement 200 m qui ont été forés sur deux puits de 100 m. Mais
aujourd’hui avec l’apport complémentaire du champ solaire, les habitants ne font plus appel
qu’à un forage, ce qui est suffisant d’après leurs dires, d’autant plus que le solaire vient
recharger thermiquement le sous-sol. Le dimensionnement du champ solaire dans ce type de
procédé hybride ne pouvant s’appuyer sur aucune règle définie, c’est Antoine Dominguez, qui
a estimé une surface de champ d’environ 20 m2 , en utilisant son expérience et son expertise
dans le domaine.
1
1ABB5AF629AE5
CDAB5FE 12345678 19ABCD5E
D5E3F5 1234567
1234568
D5E3F5 1AA39 6CDAFAB
71872397 123456
111111111111 1123456537 111111111111111111111111111111111189A53B
123456789AB4CD2EFB82E4CB4B 1223456789AB4CDB882E4CB4B
Comme nous venons de l’énoncer, bien que les systèmes d’injection et d’extraction soient
indépendants, on les retrouve tous deux dans le forage (utilisé), où ils constituent un échangeur
de chaleur sur toute la longueur. Les 4 sondes présentes sont placées dans de la bentonite
(matériau homogène à base d’argile) ayant servi à colmater le forage et assurant ainsi à la
fois un contact thermique et mécanique (sa conductivité thermique varie généralement de
0,5 à 2 W.m−1 .K −1 [42]). La Figure 2.5 présente, par une coupe transversale du forage, la
configuration des 4 tuyaux correspondant aux 2 allers et retours des systèmes d’injection et
d’extraction de l’installation hybride.
Ce procédé présente néanmoins l’inconvénient de ne pas permettre le chauffage de l’ha-
bitation directement en utilisant la chaleur produite par les panneaux solaires thermiques.
L’idée générale pour ce procédé hybride réside donc dans l’amélioration du coefficient de
performance de la pompe à chaleur en « dopant » le sous-sol à l’aide de la chaleur collectée
par le champ solaire.
La surface totale du champ est de 21,25 m2 et les caractéristiques thermiques, données par
le constructeur [83] nous informent sur les coefficients de perte thermique à l’ordre 1 (noté
a1 ) et à l’ordre 2 (noté a2 ) ainsi que sur le coefficient optique η0 . Ces coefficients, permettant
d’estimer au mieux la puissance thermique que peut produire le champ solaire, nous donnent :
et
η0 = 0, 73 (2.7)
F878A2A4342ABE
45
466
1222222222222222222222222222222223 789AB9CD
12345678962ABCDE
88C634 88C634
!8DD6C46DD2 A2BC46DD634 "836C46DD2
EF
123456 123456
4296 8C248634 A45364B A296D634 578396
EF 865396 EF
64658C6 424 6 646596
$ $
8C2482 A296D8293
93396 8#396
69634 8#396 396
EF
!8DD6C46DD2 "836C46DD2
sa pression ainsi que sa température diminuer, c’est la phase de la détente (P3). De plus, le
débit de fluide frigorigène qui parcourt le circuit fermé peut être réglé par le détendeur. À la
sortie de ce dernier, le fluide frigorigène est à l’état liquide et à basse pression.
La phase d’évaporation (P4) du fluide frigorigène (liquide à basse température) permet
alors de capter l’énergie thermique (dans notre cas elle provient du sous-sol). Cette chaleur
prélevée permet au fluide de se vaporiser et un nouveau cycle peut alors débuter.
2.2.2 SOLARGÉOTHERM
Comme pour le Projet GÉOHELIOS de Saint-Pierre dels Forcats, le procédé SOLARGÉO-
THERM est constitué de deux principales composantes hydrauliques : la partie injection
de chaleur et la partie permettant son extraction. Les différences notables résident dans le
fait qu’il ne s’agit en fait que d’un seul et même circuit hydraulique dans lequel circule de
l’eau (pure). Par ailleurs, la surface du champ solaire est plus importante, 42 m2 . De plus, un
aérotherme est installé sous l’un des capteurs du champ solaire et joue le rôle de dissipateur
de chaleur, dont l’objectif est de simuler la décharge thermique, liée à la consommation
thermique d’une habitation. Enfin, 3 forages d’environ 200 m de profondeur constituent la
zone tampon (injection/extraction).
Le champ solaire (Figure 2.9) est réparti sur six rangées de panneaux. On compte 3 rangées
de 4 capteurs et 3 rangées de 3. Cette configuration a été décidée en concertation avec les
différents partenaires du projet et en se référant à certaines recommandations du domaine [44].
Son fonctionnement est simple, lorsque la température de sortie d’un des panneaux (nous
verrons lequel plus loin) est supérieure à 30 , les pompes de circulation se mettent en marche
et la chaleur issue de tout le champ est envoyée dans le sous-sol, tout cela dans un seul et
même circuit fermé.
[Link] Forages
Comme nous venons de le voir, le sous-sol peut recevoir la chaleur injectée par le champ
solaire mais il peut également déstocker cette chaleur via l’aérotherme (Figure 2.11) alimenté
en 230 V et dont la puissance totale de refroidissement est comprise entre 2840 W et 4190 W
[17].
L’appareil est prévu pour ne dissiper la chaleur que durant les nuits. Ainsi, le système est
conçu pour fonctionner sur trois types de configurations :
– Le procédé est en mode injection : le champ solaire injecte la chaleur produite dans le
sous-sol pour la stocker,
– le procédé est en mode extraction : la chaleur du sous-sol est extraite par le dry-cooler
et dissipée dans l’atmosphère,
2.3 Système de monitoring et données collectées 51
– le système est à l’arrêt : les modes d’injection et d’extraction ne sont pas valides.
Le choix des variables à mesurer sur le site de Saint-Pierre dels Forcats, vient de notre
volonté de connaı̂tre les variables clés de chaque sous-système de l’installation. Ainsi, le bilan
énergétique pourra être présenté de façon globale, mais également par sous-système. De
plus, la modélisation pourra être réalisée par sous-système également, ce qui, naturellement,
permettra un contrôle plus précis.
52 Chapitre 2 : Étude de procédés énergétiques hybrides solaire/géothermie
Les variables choisies et leur positionnement sur le système sont présentés sur le schéma
de la Figure 2.12 et le Tableau 2.1 donne la définition de chacune d’entre elles.
Chaque type de capteur est détaillé un peu plus loin dans cette partie.
Outre la connaissance de ces variables, il est nécessaire de disposer de l’ensemble des débits
de l’installation. Pour cela, nous avons utilisé un débitmètre à ultrasons non intrusif [67].
Cela était possible car toutes les pompes ou circulateurs agissant à puissance constante les
débits dans chaque circuit sont, par conséquent, constants eux aussi. Les mesures ont été
réalisées toutes les 10 s durant 2 minutes afin de s’assurer d’être en régime permanent et donc
d’avoir un débit constant (puissances des pompes constantes). Les débits volumiques relevés
sur l’ensemble des circuits du site expérimental sont donnés par le Tableau 2.2.
−10 à 85 [32]. Cette dernière correspond tout à fait à notre utilisation. Chaque DS18S20
a une adresse unique de 64 bits, qui permet à plusieurs capteurs de fonctionner sur le même
bus 1-Wire® .
Deux capteurs de température de type « LM35 » [84] sont également utilisés (pour le
forage en fonctionnement). Il s’agit ici de capteurs qui ne nécessitent pas de calibration
externe et qui permettent d’obtenir une précision de ±0,25 sur une plage de température
allant de −55 à 150 et de ±0,75 en dehors.
Les consommations électriques des pompes de circulation du système d’injection de chaleur
et de la pompe à chaleur sont mesurées grâce à deux capteurs de courant de type « AC
Current transducer AT-B5 » [65]. Ainsi, non seulement les consommations électriques sont
connues mais les périodes d’activation et d’arrêt également.
2.3 Système de monitoring et données collectées 55
[Link].1 Capteurs
Sur le site de Montauriol, le champ solaire a été instrumenté en utilisant le même type
de capteurs, pour les températures du champ et pour l’ensoleillement (bus 1-Wire® et
« Spektron300 »). La particularité du site concernant les capteurs se situe au niveau des
forages. Ces derniers sont équipés d’une fibre optique qui permet de réaliser une mesure de
température tous les mètres. Cette fibre parcourt (aller-retour) l’ensemble des trois forages
profonds A, B et C et des trois forages courts D, E et F (Figure 2.15).
Le DTS-RAMAN (Figure 2.16) permet l’acquisition des températures le long de cette fibre
optique. Les données collectées toutes les 15 minutes et tous les mètres sont alors archivées.
Chaque température est mesurée deux fois. La Figure 2.17 présente ces relevés expérimen-
taux. On trouve, par ailleurs, autant d’axes de symétrie que de forages.
[Link].2 Actionneurs
Afin de contrôler la configuration hydraulique des trois forages de l’installation, nous avons
56 Chapitre 2 : Étude de procédés énergétiques hybrides solaire/géothermie
Figure 2.17 – Données brutes issues des mesures de température par fibre optique
mis en place un jeu d’électrovannes. Elles doivent permettre de basculer à tout moment et
lorsque nous le voulons sur la configuration la plus efficace. Tout d’abord nous avons choisi
de ne pas limiter les choix de stratégies et de rendre toutes les configurations hydrauliques
possibles. On peut par conséquent disposer d’un, deux ou trois forages, en série ou en parallèle.
La Figure 2.18 présente les circuits hydrauliques des forages A, B et C et les électrovannes
2 voies qui y sont associées (nous avons opté pour des électrovannes 2 voies afin de minimiser
les coûts et de simplifier la stratégie de configuration du type de stockage).
Le Tableau 2.3 synthétise le positionnement des électrovannes liées à la configuration des
forages et décrit leur rôle dans le circuit.
À partir des différents scénarios recherchés nous avons fait correspondre les états de
chaque électrovanne. Ces états sont répertoriés dans le Tableau 2.4. Ainsi, les cases notées
« O » et « F » signifient respectivement que l’électrovanne est ouverte ou fermée. Notons
également que l’ensemble des électrovannes a été choisi en mode N.O (normalement ouverte)
afin d’assurer une évacuation de fluide dans un réservoir de secours permettant ainsi d’éviter
les surchauffes d’eau dans les panneaux lors d’une éventuelle coupure de courant électrique.
En plus de la possibilité de modifier la configuration (série/parallèle) des forages, le choix
du stockage ou déstockage est également possible. Deux électrovannes placées en parallèle du
champ solaire permettent de passer en mode stockage ou déstockage.
Le Tableau 2.5 donne, pour ces deux électrovannes, les configurations nécessaires aux
modes d’injection et d’extraction. Ainsi, pour que l’aérotherme puisse fonctionner il faut que
les deux électrovannes soient fermées. Le fluide ne circule alors que dans les forages et le
dry cooler (mode extraction). À l’inverse, lorsque l’aérotherme de fonctionne pas, les deux
électrovannes sont ouvertes et le fluide peut alors circuler dans le champ solaire et les forages
(mode injection).
2.3 Système de monitoring et données collectées 57
Nom Disposition
Entrée Sortie
Adist Distributeur Entrée Forage A
Ain Entrée Forage A Entrée Forage A
Acoll Sortie Forage A Collecteur
Aout Sortie Forage A Sortie Forage A
Ab Sortie Forage A Entrée Forage B
Bdist Distributeur Entrée Forage B
Bin Entrée Forage B Entrée Forage B
Bcoll Sortie Forage B Collecteur
Bout Sortie Forage B Sortie Forage B
Bc Sortie Forage B Entrée Forage C
Cdist Distributeur Entrée Forage C
Cin Entrée Forage C Entrée Forage C
Ccoll Sortie Forage C Collecteur
Cout Sortie Forage C Sortie Forage C
Ca Sortie Forage C Entrée Forage C
P Sin Collecteur Champ solaire
P Sout Champ solaire Distributeur
Distributeur Collecteur
Clapets anti-retour
Ab Bc Ca
A B C
Champ solaire
Dry-cooler
Les 2 installations faisant l’objet de nos travaux sont équipées d’une carte ARM-9 capable
de réaliser l’acquisition et le stockage des données mais également de passer des ordres de
commande à d’éventuels actionneurs. Dans notre cas, nous nous sommes plutôt focalisés sur
la partie acquisition.
– U-boot : son but est d’initialiser tous les modules pour démarrer Linux (équivalent au
Bios).
– Application : c’est l’espace réservé à l’utilisateur pour charger ses programmes et fichiers.
2264C
2657&C93C'6A545AB
+A4AC85&
1D84B59CA8D645CD8
45CD8
$ 1D84B5
E2FFF2 4B461A0DC 18849A45AB64A8C
45CD8 1 C&%845D8C2841C
E F
345647 12 D!"#A8C
5ABBCD8
BBC'AB 45CD8 1 C&%845D8C9C63%44B1CD8
%D8A%C BD&%8A0DC 1 C&%845D8C9C64
3%&A8C (22)*2+ , 1 C&%845D8C9C4BBC4D'
64A8C54C8&A0DC
D2 1 C&%845D8CC'5%8ACD8C
1 C&%845D8CAB5%8ACD8
&C(A8DA564A8C,
1
8CCD8+/
571
22222222222
22222222222 82 84
22222222222
511
22222222222 14
5671
22222222222 12 1
22222222222
471
22222222222
22222222222
22222222222
2EBF
411
22222222222
22222222222
22222222222
371
22222222222
4 671
22222222222
22222222222
2A671
311
22222222222
22222222222
22222222222
71
22222222222
22222222222
22222222222 1 8 9
1
22222222222
22222222222
22222222222
71
2222222222
122222222222222222222222222222222231222222222222222222222222222222224122222222222222222222222222222222512222222222222222222222222222222261222222222222222222222222222222222712222222222222222222222222222222281
2222222222222222222222222222222222222222222222222222222222222222222222222222222222222222222222222222222222222229ABCD2EDF
Figure 2.23 – Fichier d’adressage des capteurs pour la journée du 20 juillet 2010
pour les puits géothermiques. Ces deux sous-parties se présentent ainsi sous forme de tables.
Ce choix vient du fait que les périodes d’acquisition pour chacune des sous-parties diffèrent
(Toutes les minutes pour le champ solaire et toutes les 10 minutes pour les forages).
Dans le cas de Saint-Pierre dels Forcats, l’interface que nous avons mise en place, permet
aux propriétaires de la maison de visualiser l’état du système en temps réel, grâce aux tempéra-
tures et courants mesurés dans les différents sous-systèmes du procédé à l’adresse web suivante :
« [Link] ».
Par exemple, sur la Figure 2.25, le suivi offre à l’utilisateur, les informations d’un champ
solaire et d’un échangeur thermique en plein fonctionnement (température en sortie des
panneaux solaires de 36,25 , et ECH : ON). Il nous renseigne également sur l’état de la PAC,
dans notre cas, à l’arrêt (PAC : OFF). Il permet par ailleurs de disposer de l’information sur
la température des forages et de connaı̂tre ainsi les risques d’un gel du sous-sol.
nous présenterons tout d’abord un bilan sur la partie injection de chaleur (champ solaire,
échangeur thermique), puis sur la partie liée à l’extraction/consommation de chaleur, enfin
nous présenterons un bilan global de l’installation.
50
J1 J2 J3 J4 J5
20
10 1200
0 1000
-10 CirculateursON/OFF 800
TS(m)/E
TEXT 600
S 400
200
0
17/10/09 0h 17/10/09 12h 18/10/09 0h 18/10/09 12h 19/10/09 0h 19/10/09 12h 20/10/09 0h 20/10/09 12h 21/10/09 0h 21/10/09 12h 22/10/09 0h
Date
la gamme de température de l’installation) pour tous les calculs de puissance à suivre (la
masse volumique a alors été fixée à 1000 kg⋅m3 ).
La masse volumique et le débit volumique du fluide caloporteur étant considérés constants,
le débit massique, nécessaire aux calculs de puissance thermique est par conséquent fixe. Le
débit massique du système d’injection côté champ solaire, est donné par l’équation (2.8).
Les débits massiques des autres circuits hydrauliques du procédé étant calculés de façon
similaire, nous les présentons en même temps dans cette partie. Ainsi, le débit massique du
circuit d’injection côté forage et les deux débits massiques du système d’extraction, côté
forage et côté plancher chauffant, sont respectivement donnés par les équations (2.9), (2.10)
et (2.11).
2.4 Analyse énergétique du procédé de GÉOHELIOS 67
Connaissant les mesures de température d’entrée et de sortie des panneaux solaires ainsi
que les propriétés thermiques du fluide, on peut alors calculer les puissances thermiques mises
en jeu dans le champ solaire. La puissance solaire reçue par les panneaux solaires PIS , peut
facilement être déterminée par l’irradiation solaire ΦS que nous mesurons et la surface totale
(notée S) du champ par (2.12).
PIS = S ⋅ ΦS (2.12)
La puissance PIS , captée par les panneaux solaires (Figure 2.28), devient PS après les
échanges de chaleur sur l’aller et le retour du circuit hydraulique (PS−LOSS1 et PS−LOSS2 ,
généralement il s’agit de pertes).
12345267899A3
BCDEFCC
B8A85
B5284A 48A53
9823A BC
BC B8A8579823A48A53
123452673A653
BCDEFCC
Figure 2.28 – Puissances mises en jeu entre les panneaux solaires et l’échangeur de chaleur
PS−LOSS1 , puissance perdue entre la sortie du champ solaire et l’entrée de l’échangeur (ces
deux éléments étant connectés par 9,31 m de circuit hydraulique donnant sur l’extérieur), est
obtenue grâce à la différence entre TS(m)/E et TS/E(m) (2.13).
Une autre puissance PS−LOSS2 , peut alors être estimée à partir de PS−LOSS1 . Elle traduit les
pertes thermiques le long du circuit hydraulique reliant l’échangeur de chaleur à l’entrée du
champ solaire (3,80 m de circuit donnant sur l’extérieur). Son estimation vient du fait que la
mesure de la température TE/S(m) (Température du fluide à l’entrée du champ solaire) n’avait
pas été prévue à l’origine de l’instrumentation du procédé expérimental. Elle est calculée
proportionnellement à PS−LOSS1 en prenant en compte la différence entre la température du
fluide caloporteur et la température extérieure, ainsi que le ratio de circuit hydraulique se
trouvant à l’extérieur de l’installation (2.14).
La puissance absorbée par les panneaux solaires, PS , (entre son entrée directe (non mesurée)
et sa sortie) peut alors être déduite (2.15) de l’évaluation de PS−LOSS2 .
Ef fS =
PS
(2.16)
PIS
Cependant, cette efficacité est fortement corrélée à la valeur de l’ensoleillement ΦS et à
l’écart entre la température extérieure et la température de l’absorbeur (∆TA/E ) (2.17).
TABS =
TE/S(m) + TS(m)/E
(2.18)
2
2.4 Analyse énergétique du procédé de GÉOHELIOS 69
(∆TA/E )2
η = η 0 − a1 ⋅
∆TA/E
− a2 ⋅ (2.19)
ΦS ΦS
Cette courbe caractéristique (Figure 2.29) du rendement des panneaux solaires utilisés est
unique quel que soit l’ensoleillement mesuré.
PS − PS−LOSS1 − PS−LOSS2
Ef fS/E = (2.20)
PS
Le résultat de l’évaluation de cette efficacité donne une valeur de 50,0 %. Le calcul
de l’efficacité globale du champ solaire Ef fCS (2.21) donne un résultat de 36,5 % durant
l’ensemble de cette période.
Ef fCS = Ef fS ⋅ Ef fS/E =
PS − PS−LOSS1 − PS−LOSS2
(2.21)
PIS
Cette étude nous permet de remarquer qu’une grande partie de la puissance collectée par
le champ solaire est perdue, principalement durant son transport. Ce résultat met en évidence
la nécessité d’une gestion énergétique adaptée et optimisée passant par la considération de
ces déperditions.
Tableau 2.6 – Puissances et efficacités du champ solaire durant les périodes de fonctionnement
des circulateurs
72 Chapitre 2 : Étude de procédés énergétiques hybrides solaire/géothermie
La Figure 2.32 montre les différentes températures d’entrée et de sortie et les périodes de
fonctionnement des pompes. Durant une partie de la saison de chauffe (du 23 août au 23
octobre 2009), les pompes ont fonctionné 32,7% du temps. On remarque que la température
du fluide caloporteur se dirigeant vers le forage TE/G est très proche de la température du
fluide provenant du champ solaire et arrivant à l’échangeur TS/E(m) .
Les quatre températures d’entrées/sorties de l’échangeur de chaleur et les débits dans les
deux circuits hydrauliques associés permettent de calculer la puissance thermique échangée.
Le Tableau 2.7 présente les puissances thermiques fournies par le circuit solaire PE/S (2.22)
et absorbées par le circuit géothermique PE/G équation (2.23).
La puissance thermique collectée par le circuit solaire est maximale à 15h30 (environ
16 kWt ). On remarque que la puissance fournie par les panneaux solaires n’est pas entièrement
transmise au forage. La puissance thermique perdue PE−LOSS , représentée dans le Tableau 2.7,
montre une importante perte thermique due au circuit hydraulique (0,46 kWt à 0,66 kWt ,
durant les 5 jours, dès lors que les pompes sont en marche).
L’efficacité de l’échangeur, lorsque les pompes fonctionnent, est donnée par l’équation (2.24).
Ef fE =
PE/S
(2.24)
PE/G
Le Tableau 2.7 montre les résultats obtenus pour un jour typique et représentatif de
l’étude réalisée. Ces résultats sont caractérisés par une efficacité allant de 60% à près de
80 %. L’efficacité est, bien entendu, variable au cours du temps puisque lorsque les pompes
démarrent (le matin) l’efficacité est faible (environ 60 %), ensuite elle augmente. La structure
de l’échangeur de chaleur étant froide le matin, une part importante est utilisée pour le
réchauffer. De plus, l’échangeur fonctionne mieux lorsque les températures mises en jeu
sont élevées. C’est pourquoi, lorsque les températures d’entrée et de sortie augmentent et
atteignent leur température de régime permanent, l’efficacité est naturellement plus élevée.
74 Chapitre 2 : Étude de procédés énergétiques hybrides solaire/géothermie
Le rendement d’une PAC, généralement appelé CoP, est défini par le rapport entre
la puissance thermique « utile » Pth (chaleur restituée à la source chaude) et la puissance
électrique fournie à la pompe à chaleur PP −ELEC pour faire fonctionner son compresseur (2.25).
CoP =
Pth
(2.25)
PP −ELEC
Dans notre cas, la puissance Pth (puissance côté plancher chauffant de la pompe à chaleur)
peut être calculée à l’aide de l’équation (2.26) incluant la température d’entrée et celle de
sortie du fluide pour cette source, son débit ṁP /M et sa capacité calorifique CpP /M .
Avec la pompe à chaleur considérée, (ref. Atlantis 14T, PT = 15 050 W et Pe = 3900 W),
le CoP moyen donné par le constructeur est de 3, 85. Par conséquent, ce modèle (de PAC)
est capable de restituer approximativement 15 kWt (thermique) lorsque 3,9 kWe (électrique)
sont utilisés.
Durant les deux mois, la PAC a fonctionné près de 4, 7 % du temps (plus en octobre qu’en
septembre). En effet, la PAC ne fonctionne que lorsque le contrôleur interne, dont elle est
équipée, juge qu’un apport de chaleur est nécessaire. La Figure 2.33 présente, d’une part,
les 3 entrées de la PAC, à savoir, les températures du fluide provenant du forage TG/P et du
retour du plancher chauffant TM /P , ainsi que le courant consommé IP AC , d’autre part, les
2.4 Analyse énergétique du procédé de GÉOHELIOS 75
On peut noter que la mesure du courant IP AC permet de déterminer aisément les périodes
d’enclenchement et d’arrêt de la PAC. En effet, celui-ci augmente très rapidement lors d’une
activation du compresseur, jusqu’à devenir constant en cours de fonctionnement.
Sur la Figure 2.33, on note que lorsque la pompe à chaleur fonctionne, la température du
fluide en direction du forage TP /G chute très rapidement, d’environ dix degrés, en quelques
minutes, puis elle continue de diminuer plus progressivement. Dans certains cas, la température
du fluide peut atteindre une température très basse, inférieure à 0 . Ainsi, l’utilisation d’un
fluide mixte eau-glycol, ayant une température de fusion relativement basse, se justifie une
nouvelle fois ici. La température augmente de la même façon après l’arrêt de la pompe à
chaleur. Inversement, la température du fluide vers le plancher chauffant augmente rapidement
d’environ 8 puis augmente plus lentement. Cette température revient quasiment à l’identique
une fois la pompe à chaleur arrêtée.
À l’aide des températures d’entrée et de sortie, du courant consommé par la PAC (Fi-
gure 2.33) et des valeurs (fixes) des débits, on peut calculer la puissance produite par la
PAC (Tableau 2.8). La puissance extraite du forage (PP /G ) est fonction de la différence
entre la température d’entrée du fluide provenant du forage et la température du fluide y
retournant (2.27).
√
PP −ELEC = 3 ⋅ UP AC ⋅ IP AC ⋅ cos ϕ (2.28)
76 Chapitre 2 : Étude de procédés énergétiques hybrides solaire/géothermie
Le voltage utilisé est de 400 V et le paramètre cos ϕ est proche de 0,79. Enfin, la puissance
thermique fournie pour le chauffage de la maison PP /M repose sur la différence entre les
températures de sortie et d’entrée du fluide passant par la pompe à chaleur et le plancher
chauffant (2.29).
nous l’avons défini précédemment (Équation (2.25)). L’étude menée a permis de donner les
valeurs moyennes des CoP obtenus, répertoriées dans le Tableau 2.8.
Le CoP peut être considéré comme étant un indicateur d’utilisation de l’énergie « gratuite »
et est toujours supérieur à 1. Par exemple, un CoP de 3 signifie que pour 1 kWe , 3 kWt sont
utilisés pour chauffer la maison, ainsi, 2 kWt utilisés sont complètement « gratuits » puisque
issus du sous-sol. Conformément à la documentation technique de la pompe à chaleur, la
valeur nominale du CoP est d’environ 3,85. La valeur moyenne obtenue est de l’ordre de
3,90. Cependant, le CoP varie très fortement, allant de 4,6 à 2,3 durant les 5 jours d’étude
considérés. On peut noter que lorsque la PAC s’enclenche, le CoP est généralement supérieur
à 3,5 et chute brusquement. Lorsque la PAC fonctionne pendant un temps relativement
long, son CoP peut devenir très faible. Dans ce cas, l’utilisation de la PAC montre donc des
limites. En fait, en raison de la réduction de la chaleur disponible dans le forage, le CoP et la
température décroissent, ce qui rend l’extraction de chaleur beaucoup plus difficile.
Pour obtenir à nouveau un CoP intéressant, il est nécessaire de stopper l’extraction de
chaleur du forage et attendre que le sous-sol se recharge naturellement ou que cela soit fait
par le champ solaire. L’efficacité thermodynamique de la pompe à chaleur (équation (2.30),
Tableau 2.8) est définie comme étant le rapport entre la puissance thermique produite pour
chauffer la maison et la puissance utilisée pour cela (puissance thermique extraite et puissance
électrique consommée).
Ef fP =
PP (m)/M
PP /G + PP −ELEC
(2.30)
du retour à la PAC (TM /P (m) ). Comme le montre la Figure 2.34, la diminution est beaucoup
plus importante lors de l’aller (PAC vers Plancher chauffant) que du retour, en raison des
températures plus élevées et donc des différences avec la température du sol plus importantes.
Figure 2.34 – Températures du fluide dans le circuit hydraulique entre la PAC et le plancher
chauffant
12345267899A3
BCDEF
BA7 B984A3
B5284A
489A53 B1B984A3748586 48586
BBC BC
123452673A653
BCDEF
Les différentes puissances sont données par les équations suivantes. PP /M , puissance fournie
par la PAC (2.31) ;
On peut clairement remarquer que les pertes thermiques observées dans le circuit hydrau-
lique aller (environ 9 kW) sont plus importantes que dans le circuit retour (environ 1 kW).
Cela s’explique par le fait que plus l’écart de température entre les deux milieux est important,
plus l’échange thermique est important.
L’efficacité du système (Ef fM ) est définie comme étant le rapport entre la puissance
réellement consommée par le plancher chauffant et la puissance utilisée par la PAC (2.35).
Ef fM =
PP
(2.35)
PP /M
Lorsque le système démarre, comme le montre la Figure 2.37, l’efficacité est très élevée
mais chute fortement en quelques minutes jusqu’à environ 70 %, puis plus lentement jusqu’à
arriver par moments à moins de 55 % lors de durées de fonctionnement relativement longues.
Comme on pouvait s’y attendre, MLOSS1 (2.36) est d’environ 30 % tandis que MLOSS2 (2.37)
n’excède pas les 10 %.
80 Chapitre 2 : Étude de procédés énergétiques hybrides solaire/géothermie
MLOSS1 =
PM −LOSS1
(2.36)
PP /M
MLOSS2 =
PM −LOSS2
(2.37)
PP /M
L’observation de ces résultats permet de conclure sur le fait que le choix de l’emplacement
de la PAC est essentiel pour éviter les pertes thermiques liées au transport des calories
(environ 40 % de pertes pour cette installation).
La Figure 2.39 représente les puissances injectées et extraites au niveau du sous-sol. Ces
deux courbes de puissance présentent des allures et traduisent des comportements bien
distincts. En effet, lorsque la puissance solaire est injectée durant la journée avec de faibles
variations (pas plus de 6 kW), la pompe à chaleur extrait la chaleur le soir ou la nuit et ce à
haute amplitude (environ 13 kW) et parfois même avec plusieurs enclenchements successifs.
Durant les cinq jours considérés, l’énergie solaire journalière injectée dans le forage est
d’environ 18,6 kWh. Au même moment, la PAC a extrait chaque jour environ 46,6 kWh
d’énergie thermique, i.e. 2,5 fois plus. Dans ce cas, l’énergie solaire représente 40 % de ce qui
est extrait.
L’étude des circuits hydrauliques montre que l’injection de chaleur dans le sous-sol est
naturellement très dépendante de l’irradiation solaire. En prenant en compte les pertes
thermiques, on note que seulement 0, 75 × 0, 5 = 37, 5 % de la puissance thermique issue
du solaire est fournie à l’échangeur. Cependant, son efficacité de l’ordre de 80 % (20 % de
pertes) implique que 0, 375 × 0, 8 = 30 % de puissance solaire est réellement injectée dans le
sous-sol pour faciliter sa recharge thermique. Par conséquent, pour 4,44 kWr d’irradiation
solaire reçue par le champ solaire, 1,33 kWt de puissance thermique est envoyée au sous-sol.
Pour le circuit hydraulique de la pompe à chaleur, les mesures montrent clairement que le
CoP varie de manière significative durant son fonctionnement, car le sous-sol rafraichit lors
de l’extraction de chaleur et aussi puisque le procédé fonctionne mieux avec des températures
plus élevées, comme le montre ses courbes d’efficacité. On peut noter qu’avec la puissance
électrique et la puissance extraite du sous-sol, 90 % de cette énergie est envoyée à la maison.
Mais en raison des pertes thermiques importantes lors des liaisons entre les différents sous-
systèmes, seulement 60 % est réellement utilisée pour chauffer la maison. Ainsi, lorsque 1 kWe
est consommé par la PAC, 3,33 kWt est extrait du sous-sol. À partir de ces 4,33 kW d’énergies
primaires, 2,34 kWt sont réellement utilisées pour chauffer la maison, donc environ 55 %.
Une vision globale du procédé, négligeant la part des pertes thermiques dans le sous-
sol avant l’extraction de chaleur, met en évidence la valeur globale d’entrée, composée de
4,44 kWr d’irradiation solaire, 1 kWe consommé par la PAC et 2 kWt extraits du sous-sol
(si les 1,33 kWt de puissance solaire injectée sont entièrement réutilisées). La somme de
l’ensemble des énergies primaires est d’environ 7,44 kW. La puissance thermique de sortie
(2,34 kWt ) est la puissance nécessaire pour chauffer la maison. Par conséquent, l’efficacité
globale du système est seulement de 30 %. La somme de toutes les pertes thermiques est
2.4 Analyse énergétique du procédé de GÉOHELIOS 83
d’environ 5,1 kW et représente 68,5 % de l’énergie d’entrée. On peut également noter que
environ 87 % de l’énergie primaire est « gratuite » (solaire et géothermique), mais que le
CoP global du procédé n’est que de 2,34.
Le principal paramètre inconnu est, comme mentionné précédemment, le lien entre les
circuits solaires et de la PAC. En effet, la quantité de chaleur injectée dans le sous-sol et qui
est réellement récupérée par la pompe à chaleur est difficile à déterminer sans l’utilisation
d’un modèle du forage et de l’ensemble des différents sous-systèmes qui composent le procédé
hybride. Cette modélisation fait l’objet d’une partie du troisième chapitre.
Conclusion du chapitre
Dans ce chapitre, nous avons tout d’abord présenté les deux projets sur lesquels s’appuient
nos travaux de recherche. Nous avons ainsi mis en avant, d’une part, les points communs
entre les deux procédés expérimentaux, et d’autre part, les particularités et avantages qu’elles
présentent.
Ensuite, nous avons présenté le système de monitoring tel qu’il a été installé sur les
sites expérimentaux et une description détaillée des caractéristiques des différents type de
capteurs a été établie. Suite à ces mesures, une analyse du procédé global de Saint-Pierre
dels Forcats a été réalisée et a permis de mettre en évidence différents points de l’installation
nécessitant une amélioration substantielle. Ces constats s’avèreront donc utiles lors de la
phase de modélisation, que nous allons aborder dans le chapitre suivant, et la phase de
contrôle qui fera l’objet du dernier chapitre de ce manuscrit.
L’objectif final de ces travaux étant de proposer un système de contrôle capable d’amé-
liorer la gestion des deux sources d’énergie utilisées (le solaire et la géothermie), le chapitre
suivant présentera le développement des différents sous-modèles d’un procédé hybride so-
laire/géothermie. À partir de la connaissance de chaque sous-système, nous justifierons le
type de modèle choisi et nous présenterons alors la démarche ayant amené au développement
de chaque sous-modèle et les résultats obtenus.
Chapitre 3
Introduction
On appelle boı̂te grise, un modèle dont on peut définir explicitement la forme des équations
qui lient les entrées aux variables d’état du modèle ainsi qu’aux sorties. On dispose donc de
la connaissance a priori de la structure du modèle, l’incertitude étant associée uniquement
aux valeurs des paramètres entrant en jeu dans ces équations.
connus ou inconnus ζ. Ces équations peuvent comprendre des variables d’état dites internes
x(k) qui n’apparaissent pas au sein des variables de sorties. Certaines variables peuvent être
les solutions d’équations purement algébriques ou comporter des composantes logiques (valeur
nulle (0 ou faux) ou unitaire (1 ou vrai)) ou discrètes (valeurs appartenant à l’ensemble des
entiers relatifs Z). De façon générale, un ensemble de sorties d’un système modélisé peut se
représenter sous la forme (3.1).
⎧
⎪
⎪ ẋ(k) = f (x(k), u(k), ζx )
⎨
⎪
⎩ y(k) = g(x(k), u(k), ζy )
(3.1)
⎪
ei = ∑ ǫ2i (k)
N
(3.3)
k=1
⎧
⎪
⎪
⎪ ⎛ω1 0 0 ⎞
⎪
⎪
⎪
⎪
⎪ W = ⎜⎜0 ⋱ 0⎟
⎟
⎪
⎨ ⎝ 0 0 ωn ⎠
⎪
(3.5)
⎪
⎪
⎪
⎪
⎪
⎪ ωi =
1
⎪
⎪ ∣max (yexpi )∣
⎩
ny
min(Tr (E T ⋅ E ⋅ W )) = min(∑ (ωi ⋅ e2i )) (3.6)
ζx ,ζy ζx ,ζy i=1
une fonction m(xk ) plus simple, dans une région de confiance, un sous espace Rk , dans lequel
x
⎧
⎪ (m(p)) ∣ p ∈ Rk
⎪ min
⎨ p
⎪
(3.7)
⎪
⎩ Rk = {xk + r ; ∥r∥2 ≤ ∆}
⎧
⎪
⎪
⎪ min ( ⋅ pT ⋅ H ⋅ p + pT ⋅ ∇f )
1
⎨ p 2
⎪
(3.8)
⎪
⎩ xk + p ; ∥D ⋅ p∥2 ≤ ∆}
⎪
D est une matrice diagonale d’échelle telle que ∥r∥2 ≡ ∥D ⋅ p∥2 . H représente le Hessien de
la fonction f et ∇f son gradient. Lorsque le Hessien est calculé de façon exacte, la méthode
est dite « à région de confiance de Newton ». Certains optimiseurs numériques permettent de
résoudre ce nouveau problème d’optimisation, quelle que soit la dimension du sous-espace de
la région de confiance [68] avec, par exemple, les méthodes du point de Cauchy ou de Dogleg.
Certains algorithmes utilisent conjointement des méthodes heuristiques pour résoudre ce
problème [89]. L’optimiseur, qui a été utilisé dans ce travail, restreint le sous-espace Rk à un
espace de dimension 2, pour la résolution de ce problème, comme décrit par Branch et al.,
[22], et Byrd et al., [25]. Déterminer la solution optimale de p dans ce sous-espace Sk est alors
fortement simplifié, la complexité du travail étant alors de parvenir à définir correctement ce
sous-espace, comme le décrit la méthode de Steihaug [89].
Dans le cas général, la méthodologie retenue pour définir ce sous-espace se base sur le
gradient conjugué préconditionné. Ainsi, le solveur défini Sk selon la base s1 et s2 , avec s1
la direction du gradient de f , c’est-à-dire (∇f ) et s2 correspondant, soit à la direction de
Newton, solution de (3.9), soit à la direction de la courbure négative, solution de (3.10).
H ⋅ s2 = −∇f (3.9)
min∥J ⋅ s + f (s)∥2
2
(3.11)
s
J T ⋅ J ⋅ s = −J T ⋅ f (s) (3.12)
3.1 Méthodologie de modélisation et d’identification des systèmes 91
Nous avons choisi ce type de modèle pour les avantages qu’il présente. Il permet, tout
d’abord, de définir de façon simple, à la fois la dynamique du système par l’utilisation
de fonctions de transfert, et des non-linéarités par un choix large et flexible de fonctions
statiques non-linéaires. Le découpage en blocs permet également d’utiliser une partie des
informations sures, sur le processus (non-linéarité, modèle linéarisé . . .), et de n’identifier que
les paramètres des autres blocs. Ainsi, l’utilisation de ce type de modèles peut répondre de
façon intéressante à la modélisation d’un grand nombre de systèmes. De plus, sa structure
reste proche de la théorie des systèmes linéaires, puisque le bloc central reste une fonction de
transfert. Son aspect orienté par blocs, avec fonctions de transfert et non-linéarités statiques,
lui permet de limiter le coût de la procédure de modélisation, par rapport à une modélisation
phénoménologique. Enfin, de par les éléments qui le constituent, ce type de modèle est
généralement facile à utiliser pour faire a posteriori du contrôle (rapidité d’exécution) comme
ce sera le cas dans le chapitre 4.
92 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
Parmi les modèles du système hybride solaire/géothermie, certains ont été développés
en utilisant les méthodologies de l’intelligence artificielle, particulièrement le neuroflou. Il
s’agit d’une méthodologie combinant les réseaux de neurones à la logique floue. Afin de
bien comprendre le principe de cette méthode, nous présenterons dans un premier temps
les éléments de base nécessaires à la compréhension de la logique floue. Nous nous intéresse-
rons particulièrement aux outils que nous utiliserons dans la suite, pour la mise en œuvre
de systèmes d’inférences floues et neurofloues. Nous n’aborderons pas les développements
mathématiques de la théorie des ensembles flous. Le lecteur intéressé par ces considérations
pourra se référer aux travaux de Zadeh [62] ou de Kaufmann [14].
La théorie des ensembles flous (fuzzy sets) a été développée en 1965 par le professeur
L. A. Zadeh de l’Université de Berkeley en Californie [62]. Elle peut être définie comme
un concept mathématique, dont l’objectif est de modéliser les notions vagues ou imprécises
du langage naturel, pour pallier à l’inadéquation de la théorie des ensembles classiques,
dans ce domaine [96]. Dès 1975, on trouve les premières applications de la logique floue au
niveau des systèmes de réglage [36]. Comme tout nouveau concept, la logique floue a été
confrontée à des débuts difficiles avant de connaı̂tre, à partir de 1985, un essor prodigieux, dû
principalement à l’évolution de l’intelligence artificielle et aux applications pratiques dans le
domaine de la commande et du contrôle des procédés industriels au Japon. La capacité de
la théorie à pouvoir intégrer le savoir faire humain dans le raisonnement et l’apparition de
logiciels puissants spécialisés dans le traitement des systèmes d’inférences floues ont permis
son ouverture à un champ d’applications quasi illimité à travers le monde. On peut noter
entre autres, les secteurs de l’énergie (régulateurs de température, systèmes de climatisation),
les transports (automobiles, métros, avions), les industries (papeterie, cimenterie, sidérurgie),
la médecine, les biotechnologies ou encore la robotique.
Si x ∈ A alors µA (x) = 1
Si x ∈/ A alors µA (x) = 0
La fonction µA est une fonction binaire (∀x ∈ U , µA (x) ∈ [0 ; 1]) qui permet simplement
de savoir si un élément appartient ou non à un ensemble donné. Cependant, dans le langage
3.1 Méthodologie de modélisation et d’identification des systèmes 93
naturel, les frontières entre les différents ensembles ne sont pas aussi abruptes. En effet, les
expressions du type « grand, beau, intelligent, âgé, etc. » sont des termes relatifs à celui
qui parle et aussi, à son environnement. Il serait, par exemple, délicat de faire une partition
rigide de l’espace associé à l’adjectif « beau ». En revanche, on peut envisager un passage
progressif d’un ensemble à un autre et c’est là l’intérêt de la logique floue. En fait, la logique
floue propose une extension de la fonction traduisant la notion d’appartenance classique
pour prendre en compte les notions imprécises ou relatives. Une bonne illustration serait
de considérer la classification de la population en trois ensembles d’âges. Suivant la logique
classique on pourrait par exemple faire la classification suivante :
0 - 30 ans : jeunes
31 - 50 ans : entre deux âges
51 ans et plus : âgés
Comme le montre la Figure 3.2.a, dans une telle approche, une personne est soit « jeune »,
« entre deux âges » ou « âgée ». Ainsi une personne de 28 ans sera considérée comme jeune,
au même titre qu’une autre de 2 ans. Par ailleurs, une personne passerait de manière brusque
à la classe « entre deux âges » en ayant 31 ans. Cela laisse apparaı̂tre le manque de finesse
d’une telle classification car en réalité, le passage d’une classe à une autre doit se faire de façon
progressive. La logique floue dont les variables peuvent prendre toutes les valeurs comprises
entre 0 et 1, permet de tenir compte de cette réalité. Ainsi, sur le même exemple, on peut
envisager la classification proposée sur la Figure 3.2.b. Dans cet exemple, une personne de 25
ans appartient à l’ensemble « jeunes » avec un degré de 0,75 et à l’ensemble des « entre deux
âges » avec un degré de 0,25. En revanche, un individu de 70 ans appartiendra entièrement à
la classe des « âgés ».
[Link].2 Définitions
La première étape, lors d’une analyse par logique floue, consiste à déterminer les grandeurs
nuancées à prendre en compte. Ces grandeurs, appelées variables linguistiques, peuvent
94 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
être de type quelconque. Par exemple, dans l’illustration précédente, nous avons analysé la
variable linguistique « Âge » dont nous avons subdivisé le domaine de variation (ou univers
de discours) en trois sous-ensembles flous (Figure 3.2.b). Pour un Univers E, on définit un
sous-ensemble flou A de E par la donnée d’une application µA de E vers l’intervalle [0 ; 1]
défini par :
∀x ∈ E, 0 ≤ µA (x) ≤ 1 (3.13)
Le support
On appelle support de A, noté Supp(A), l’ensemble des éléments de E pour lesquels le
degré d’appartenance à A n’est pas nul.
Le noyau
On appelle noyau de A, noté Noy(A), l’ensemble des éléments de E pour lesquels le degré
d’appartenance à A est égal à 1 :
La hauteur
On appelle hauteur de A, noté h(A), la plus grande valeur prise par la fonction d’apparte-
nance associée à A :
Les α-coupes
On appelle α-coupe de A, noté Aα , l’ensemble des éléments de E pour lesquels le degré
d’appartenance à A est au moins égal à α :
Aα = {x ∈ E / µA (x) ⩾ α} (3.17)
Égalité
A et B sont dits égaux si leurs fonctions d’appartenance prennent la même valeur pour
tout élément de E :
Inclusion
On dit que A est inclus dans B si tout élément x de E appartient à B avec un degré au
moins aussi grand que celui de son appartenance à A :
Intersection
L’intersection de deux sous-ensembles flous A et B de E est un sous-ensemble flou composé
des éléments de E auxquels on attribue le plus petit des deux degrés d’appartenance à A et
B:
Union
L’union de deux sous-ensembles flous A et B de E est un sous-ensemble flou composé des
éléments de E auxquels on attribue le plus grand des deux degrés d’appartenance à A et B :
Complément
On définit le complément AC d’un sous-ensemble flou A de E de telle sorte qu’un élément
x de E appartient d’autant plus à AC qu’il appartient peu à A :
T-norme
T ∶ [0, 1] × [0, 1] → [0, 1] est une fonction de type T-norme si et seulement si pour chaque
élément x, y et z de [0, 1], elle vérifie les propriétés suivantes :
(T 1) ∶ T (x, 1) = x 1 est l’élément neutre
(T 2) ∶ x ≤ y, u ≤ v ⇒ T (x, u) ≤ T (y, v) isotonie
(T 3) ∶ T (x, y) = T (y, x) commutativité
(T 4) ∶ T (x, T (y, z)) = T (T (x, y), z) associativité
T-conorme
T ∶ [0, 1] × [0, 1] → [0, 1] est une fonction de type T-conorme si et seulement si pour chaque
élément x, y et z de [0, 1] elle vérifie la propriété :
(S1) ∶ S(x, 0) = x 0 est l’élément neutre
ainsi que les propriétés : (T2), (T3) et (T4).
À partir de ces deux familles d’opérateurs, il est possible de définir tout un ensemble de
mises en œuvre différentes, associées aux opérations de disjonction-conjonction ou union-
intersection [38, 53]. Ces opérateurs ont alors des propriétés distinctes qui vont influer sur
le type de raisonnement approximatif qui va en découler [18]. Nous avons regroupé, dans le
Tableau 3.1, les principales T-normes et T-conormes duales.
Les connaissances imprécises sont représentées par des propositions floues de type « X est
A » où X est une variable et A un sous-ensemble flou souvent associé à un terme linguistique
(ex : « jeune », « vieux », « grand », etc.). Ces propositions floues sont ensuite introduites
dans des règles floues de type « Si X est A alors Y est B ».
On appelle prémisse la première partie de la règle (X est A) et conclusion la seconde partie
de la règle (Y est B). L’agrégation de ces différentes règles floues constitue alors un Système
d’Inférences Floues (SIF) qui permet de conduire le raisonnement approximatif ou flou.
D’une manière générale, on peut combiner des propositions floues de type (X est A) par
des opérateurs logiques de conjonction et de disjonction (« ET » et « OU »), mis en œuvre
respectivement par des T-normes et T-conormes. Par exemple, si l’on considère la proposition
floue suivante :
p : X1 est A1 et X2 est A2 ,
À la sortie de ce bloc on a une série de variables floues réunies dans un vecteur. Au niveau des
inférences, ces variables floues sont ensuite reliées entre elles afin de décrire le fonctionnement
statique et/ou dynamique du système. C’est la partie intelligente du système car la combinaison
des entrées avec les règles floues permet de tirer des conclusions. Comme le système en sortie
du SIF doit être attaqué par des valeurs numériques, la défuzzification sert à transformer les
données. C’est en fait l’opération inverse de la fuzzification.
Nous ferons une présentation détaillée de la structure de Mamdani dans un premier temps
avant de dégager la particularité de celle de Takagi et Sugeno.
Structure de MAMDANI
Fuzzification
La fuzzification consiste à définir les fonctions d’appartenance des différentes variables d’entrée
et de sortie. On réalise ainsi le passage des grandeurs physiques (grandeurs déterminées) aux
variables linguistiques (variables floues), qui peuvent alors être traitées par des inférences.
Les formes choisies pour les fonctions d’appartenance sont généralement triangulaires ou
trapézoı̈dales bien qu’il existe d’autres formes plus complexes. Les grandeurs physiques X
(par exemple, la température) sont réduites à des grandeurs normalisées x variant entre -1
et 1 (−1 < x < 1) avec un facteur d’échelle X/x choisi en fonction du système étudié. Pour
certaines études relativement simples, on peut se passer de cette phase de normalisation et
travailler directement avec les grandeurs physiques. En général, à une variable x, on associe
3, 5 ou 7 sous-ensembles flous représentés par des fonctions d’appartenance. Une subdivision
plus fine n’apporte pas d’amélioration significative. Par contre elle complique énormément la
formulation des règles d’inférence. Les différents sous-ensembles peuvent être caractérisés par
des symboles au choix (ex : grand, moyen, +, moins, etc.) mais la représentation standard est
la suivante :
100 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
NG ∶ N EGAT IF GRAN D
NM ∶ N EGAT IF M OY EN
NP ∶ N EGAT IF P ET IT
EZ ∶ EN V IRON ZERO
PP ∶ P OSIT IF P ET IT
PM ∶ P OSIT IF M OY EN
PG ∶ P OSIT IF GRAN D
Les fonctions d’appartenance peuvent être symétriques ou non. Il est nécessaire d’éviter les
chevauchements insuffisants car cela provoque des zones de non intervention (zones mortes)
qui entraı̂nent une instabilité dans le fonctionnement du système.
Il est aussi indispensable de définir des fonctions d’appartenance pour la variable de sortie.
On a besoin de ses sous-ensembles flous pour la formulation des règles d’inférence et pour la
défuzzification. Les règles et les principes sont identiques à ceux adoptés pour les variables
d’entrée.
Inférences
Les règles floues utilisées dans le cadre de la modélisation et du contrôle sont généralement
de deux types : MISO (Multiple Input, Single Output) ou MIMO (Multiple Input, Multiple
Output). En considérant un système de type MISO, soit x = x1 , ..., xr les variables d’entrée
du système appartenant aux ensembles de référence X = X1 x...xXr ety, la variable de sortie
appartenant à l’espace Y. La structure de Mamdani est exprimée sous la forme d’une série de
règles du type
où Bi1 , ..., Bir etDi sont des valeurs linguistiques de x1 , ..., xr et y respectivement. En notant
Bi = Bi1 x...xBir , on peut réécrire l’équation précédente sous la forme
Ces inférences lient les variables linguistiques xi en entrée à chacune des variables floues y
en sortie. La formulation des règles d’inférence prend en compte les comportements statiques
et dynamiques du système, de même que l’expertise humaine dans le domaine.
Dans les systèmes d’inférences par logique floue, le traitement numérique des informations
fait intervenir les opérateurs logiques ET et OU pour lier les variables floues d’entrée entre
elles au niveau des conditions de chaque règle. Le terme « ALORS » introduisant, la conclu-
sion de chaque règle, est réalisée à partir de l’équation (3.23). L’implication floue (I) de
cette équation permet de former des fonctions d’appartenance partielles, qui sont ensuite
combinées, au cours de la phase d’agrégation des règles, pour fournir, en sortie, la fonction
3.1 Méthodologie de modélisation et d’identification des systèmes 101
Pour décrire ces trois méthodes, considérons l’exemple proposé par [50], où x1 et x2 sont
les variables d’entrée et, xR , la variable de sortie. Ces trois variables sont définies par les
fonctions d’appartenance de la Figure 3.5. Les règles d’inférence sont :
OU,
des deux valeurs, à cause de l’opérateur OU). La fonction d’appartenance µEZ (xR ) est ensuite
écrêtée à 0,67 (à cause de la formation du minimum lié à ALORS) et nous obtenons une
deuxième fonction d’appartenance partielle µR2 (xR ). L’agrégation de ces deux règles permet
d’obtenir la fonction d’appartenance résultante µRES (xR ), par formation du maximum des
deux fonctions d’appartenance partielles µR1 (xR ) et µR2 (xR ).
Méthode d’inférence max-prod
Au niveau de la condition tout se passe comme pour la méthode précédente (ET réalisé
par minimum et OU, par le maximum). Par contre, l’implication dans chaque règle, est ici
réalisée par le calcul du produit. Pour l’agrégation des règles, permettant d’obtenir la fonction
d’appartenance résultante µRES (xR ), on procède par la formation du maximum (comme dans
la méthode précédente). Comme on peut le constater, la désignation de cette méthode se
réfère à la méthode d’agrégation (max) et à la méthode d’implication (prod). Pour revenir
à notre exemple, la seule différence est donc que les fonctions d’appartenance µEZ (xR ) et
µN G (xR ) ne sont plus écrêtées, mais multipliées respectivement par les facteurs 0,3 et 0,67
pour obtenir les fonctions d’appartenance partielles µR1 (xR ) et µR2 (xR ).
Méthode d’inférence som-prod
Contrairement aux méthodes précédentes, on réalise le OU par le calcul de la somme (valeur
moyenne) et le ET par le calcul du produit. Pour l’exemple considéré on obtient donc
3.1 Méthodologie de modélisation et d’identification des systèmes 103
∫ y.µRES (y)dy
b
y = ab
∗
(3.28)
∫a µRES (y)dy
Le numérateur correspond au moment et le dénominateur à la surface. La défuzzification
peut aussi être réalisée en prenant la valeur maximale de la fonction d’appartenance résultante
µRES (xR ) ou la moyenne des abscisses du maximum (en anglais : Mean of Maximum Method )
si la fonction est écrêtée.
Structure de Takagi-Sugeno
Un autre modèle couramment utilisé pour la mise en place de contrôleurs flous est celui
proposé par Takagi et Sugeno [93, 90, 91]. La particularité de ce modèle par rapport à celui
de Mamdani est que la conclusion de chaque règle n’est plus un sous-ensemble flou Di , mais
une fonction des entrées. Les règles sont du type :
ri ∶ SI (x1 est Bi1 )...et...(xr est Bir ) ALORS y = fi (x1 , ..., xr ) (3.29)
où les fi sont des fonctions de X dans Y représentant des modèles locaux utilisés pour l’ap-
proximation de la sortie du système dans l’espace, représentée par Bi . L’équation précédente
peut être écrite plus simplement comme l’équation (3.30).
∑i Bi (x)fi (x)
y∗ =
∑i Bi (x)
(3.31)
Puisqu’il s’agit d’approximations locales, les fonctions fi sont souvent très simples : linéaires
ou polynomiales, voire constantes. Cette approche, fréquente en modélisation de systèmes,
suppose que la dynamique varie, tout en restant polynomiale par régions de l’espace. La
détermination des coefficients des fonctions fi se fait à l’aide de méthodes d’identification
classiques en automatique : par exemple la méthode des moindres carrés. Pour plus de détails
sur l’identification de ces coefficients, le lecteur pourra se reporter aux ouvrages [33, 104, 55].
Quelques remarques
Les modèles flous basés sur la structure de Mamdani ont l’avantage d’avoir une représenta-
tion simplifiée des règles floues. Dans cette structure, les prémisses et les conclusions sont
facilement interprétables. Cependant, lorsqu’il s’agit de systèmes complexes avec un grand
nombre de variables en entrée et en sortie, le nombre de règles devient prohibitif. L’approche
par la méthode de Takagi-Sugeno est alors mieux adaptée pour diminuer le nombre de règles.
Une fois le type de modèle défini, le choix parmi les nombreuses possibilités de formulation
des fonctions d’appartenance et des règles d’inférence dépend des objectifs de la modélisation
ou de l’action de contrôle. Plusieurs travaux s’intéressent à la réalisation de lois de commande
classiques en utilisant la logique floue. Par exemple, [66] montre la possibilité de réalisation
d’un contrôle PID avec un contrôleur flou en utilisant la méthode d’inférence som-prod et la
méthode de défuzzification par centre de gravité. Cela n’est, en revanche, pas possible avec la
méthode max-min. De même, [48] proposent une méthodologie de construction automatique
d’un contrôleur flou réalisant l’action de contrôle proportionnelle intégrale (PI).
Notons que l’un des principaux intérêts de l’utilisation de la logique floue est la possibilité
d’exprimer et de traiter l’information sous forme de langage naturel. En subdivisant direc-
tement les univers de discours numériques en sous-ensemble flous, on parle de fuzzification
numérique. Une autre approche, dite fuzzyfication symbolique [45, 54], consiste à effectuer la
subdivision sur des univers de discours formés de symboles. Ce type de raisonnement permet
de se rapprocher encore plus du langage naturel et les contrôleurs basés sur ce principe
peuvent facilement être associés à d’autres stratégies de contrôle classiques. Nous n’abordons
pas cette approche dans ce manuscrit, mais le lecteur intéressé pourra se rapporter à [34] ou
[41].
[Link] Neuroflou
Dans les systèmes complexes, le développement d’un système d’inférence flou n’est pas
aisé même quand on dispose de l’expertise humaine nécessaire. Cette difficulté a favorisé
le développement de systèmes hybrides combinant les techniques des réseaux de neurones
avec la logique floue. Les définitions liées à ce nouveau concept sont parfois différentes mais,
3.1 Méthodologie de modélisation et d’identification des systèmes 105
globalement nous pouvons faire une classification en trois groupes : les systèmes d’inférences
floues auxquels on associe des concepts issus des réseaux de neurones (apprentissage pour
la détermination de la structure et des paramètres du modèle flou) [40, 59]. Inversement
le neuroflou peut aussi être vu comme des réseaux de neurones auxquels on incorpore des
notions issues de la théorie des ensembles flous (fuzzification des opérations, des poids, des
entrées et des sorties). Finalement, une troisième approche, très souvent utilisée pour la
résolution de problèmes complexes, consiste à mettre en parallèle ou en série deux sous
systèmes dont l’un est flou et l’autre neuronal. En ne nous intéressant qu’à la première
catégorie, la démarche peut être présentée comme une automatisation de la mise en œuvre
d’un système flou classique. Ainsi, lorsqu’on dispose d’une série représentative de données,
l’extraction et l’interprétation de la connaissance se font par des méthodes d’identification
consistant à déterminer, parmi une classe de modèles, celui qui semble le plus adapté, selon
un critère donné, aux relations entre les variables d’entrée et de sortie du système [87]. Parmi
les méthodes de mise en œuvre de modèles neuroflous existants dans la littérature, on peut
faire la distinction entre les modèles de type boı̂te grise, où la base de règles est fournie
par un expert et les modèles de type boı̂te noire pure, où la base de règles elle-même, est
estimée. Dans le cas d’un modèle de type boı̂te noire, la connaissance du système se résume à
l’existence d’un ensemble d’apprentissage T = (xk , yk ), k = 1, ..., N ∈ X × Y . L’identification
du système se décompose alors essentiellement en deux étapes, même si elles ne sont pas
indépendantes : l’identification de la structure du modèle et l’estimation des paramètres. Le
modèle de type boı̂te grise requiert uniquement la deuxième étape.
Classification automatique
Les méthodes les plus fréquentes reposent sur la classification de l’espace représentant
les données à partir de l’ensemble d’apprentissage. Soit P = {P1 , ..., PI } un ensemble de I
classes partitionnant l’espace X × Y . Ces classes peuvent avoir été obtenues à l’aide d’un
algorithme quelconque de partitionnement, comme par exemple les centres mobiles [19], les
cartes auto-organisatrices [92] ou les C-moyennes floues (Fuzzy C-means). Afin de tenir compte
du passage progressif d’une classe à une autre, elles peuvent également être déterminées par
une méthode de partitionnement flou, comme les centres mobiles flous [26]. Chaque classe
106 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
Pi va permettre de construire une règle floue ri en tenant compte des relations locales entre
variables. Chaque règle correspond ainsi à une région de l’espace. La détermination du nombre
de règles revient ainsi à choisir le nombre optimal de classes. La sélection du nombre de
classes correspond à un arbitrage entre la précision et la complexité du modèle. Un grand
nombre de règles permet une grande précision dans l’estimation de la sortie du système mais
est coûteuse en temps de calcul. Inversement, si le nombre de règles est trop faible, le calcul
sera rapide, mais l’estimation sera de mauvaise qualité. Différentes variantes sont possibles
pour construire les classes. Il est courant de partitionner séparément les espaces X et Y ou
de partitionner uniquement l’espace X en classes {C1 , ..., CI } et d’induire les classes Pi sur
X × Y en utilisant, par exemple, une méthode de régression [52].
Quant à la sélection du nombre de classes, de nombreux critères ont été proposés dans
la littérature [37]. En nous plaçant dans le cas le plus fréquent consistant à partitionner
uniquement X, soit ci le centre de la classe Ci . On désigne par uik le degré d’appartenance
de l’élément xk de l’ensemble d’apprentissage à la classe Ci . Ces critères sont basés sur les
matrices de covariance (floues) de la classe i :
∑=∑
′
(xk − ci )(xk − ci )T
N
uik
k=1 ∑k uik
(3.32)
i
SSW = ∑ ∑ uik ∥ xk − ci ∥2
m N
(3.33)
i=1 k=1
SST = ∑ ∥ xk − x̄ ∥2 , avec x̄ =
1 N
∑ xk (3.34)
k N k=1
Ces méthodes déterminent une bonne répartition des prototypes dans l’espace de représen-
tation des données. Cette répartition ne garantit pas une bonne estimation des sorties du
système, mais elle permet de résumer l’information contenue dans l’ensemble d’apprentissage.
La perte d’information est compensée par une grande lisibilité des règles.
Rééchantillonnage
L’identification de la structure peut se formuler comme un problème d’estimation fonc-
tionnelle par un réseau de neurones [103, 101, 51, 81]. Elle représente la première étape qui
consiste à contrôler la complexité du modèle afin de définir sa taille, c’est-à-dire, si on se
limite à un réseau à une couche cachée, le nombre I d’unités cachées. On peut alors utiliser
des techniques de rééchantillonnage, telles que la validation croisée.
3.1 Méthodologie de modélisation et d’identification des systèmes 107
L’une des variantes les plus utilisées de la validation croisée, connue sous le nom de « leave
one out » consiste, pour un certain nombre de valeurs de I (unités cachées), à effectuer la
procédure suivante : le point (xk , yk ) est retiré de l’échantillon et on estime la variable y en
xk à l’aide des N − 1 exemples restants. L’estimateur de yk obtenu étant noté fˆI (xk ), on
(−k)
Une fois la première phase achevée, la taille du modèle est déterminée et il ne reste plus
qu’à sélectionner les paramètres, représentés par un vecteur w, de l’équation (3.25) ou de
l’équation (3.30) selon qu’il s’agisse d’un modèle de type Mamdani ou Takagi-Sugeno. Ce
vecteur contient les paramètres des fonctions d’appartenance des ensembles flous Bi et Di
dans le cas d’un modèle de type Mamdani. Dans le cas d’un modèle de type Takagi-Sugeno,
il contient les paramètres de Bi ainsi que les coefficients des polynômes fi . Cette deuxième
phase correspond au problème classique de l’optimisation des paramètres w d’un réseau
de neurones, c’est-à-dire d’une fonction non linéaire w ↦ f (x, w). Étant donné l’ensemble
d’apprentissage, le problème consiste à ajuster les poids w en minimisant un critère d’erreur
par rapport à w.
L’algorithme le plus utilisé est celui de la descente de gradient pour lequel on calcule
L’algorithme s’arrête à l’itération T dès que l’erreur est inférieure à un seuil fixé. Alors
w(T ) est l’estimation finale de w. Le système neuroflou est alors complètement spécifié.
Nous introduisons ici un premier coefficient, appelé FIT, qui permet de juger de la
ressemblance entre un vecteur de données expérimentales, Vexp , et un vecteur simulé, Vsim .
L’équation (3.37) présente ce calcul dont le résultat est exprimé en pourcentage. Une valeur
de 100 indique une ressemblance parfaite entre les vecteurs comparés, alors qu’une valeur
proche de 0 indique que le vecteur modélisé n’a pas un comportement plus proche du vecteur
expérimental que la moyenne de ce vecteur expérimental ⟨Vexp ⟩.
∥Vsim − Vexp ∥2
F IT = 100 × (1 − )
∥Vexp − ⟨Vexp ⟩ ∥2
(3.37)
108 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
Nous introduisons maintenant un second coefficient d’analyse, appelé EAM pour Erreur
Absolue Moyenne, qui permet de quantifier l’erreur absolue moyenne entre le vecteur expéri-
mental, Vexp , et le vecteur simulé, Vsim . L’équation (3.38) présente ce calcul, dont le résultat
est homogène aux éléments de ces vecteurs.
Nous introduisons maintenant un troisième coefficient d’analyse, appelé ERM pour Écart
Relatif Moyen, qui permet de quantifier l’écart relatif entre le vecteur expérimental, Vexp ,
et le vecteur simulé, Vsim . L’équation (3.39) présente ce calcul, dont le résultat est lui aussi
exprimé en pourcentage. Basé sur le calcul plus classique de l’erreur relative moyenne (MRE),
il normalise l’écart, non pas par la valeur du signal expérimental, mais par l’écart entre la
valeur maximale et la valeur minimale de ce vecteur expérimental. Ceci évite les problèmes
quand un signal est proche de zéro en supprimant l’influence de la composante continue d’un
signal.
Caractéristiques physiques
Surface d’entrée (m2 ) 2,125
Capacité absorbeur (L) 2,76
Dimensions (mm) 1204 x 1891 x 100
Caractéristiques thermiques
Performance optique η0 0,73
des capteurs analogiques, tels que les capteurs de courant ou de température possèdent un
pas de temps d’une minute. Partant de ces différences de périodes d’échantillonnage, les
données ont été complétées par interpolation pour permettre leur utilisation simultanée de
façon cohérente avec une base de temps de référence de TE = 60 s. Les modèles développés ici
sont, par conséquent, tous des modèles à temps discret échantillonnées à la période TE .
∆Q = QS − QL − QF
° ° ° °
variation puissance puissance solaire absorbee perte thermique collecteurs chaleur absorbee
(3.40)
A savoir que, la variation de puissance entre deux instants est égale à la puissance solaire
absorbée de laquelle on soustrait les pertes thermiques au niveau du collecteur et la chaleur
absorbée par le fluide caloporteur.
110 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
Q S = Φ S S C η0 (3.41)
Les pertes thermiques au niveau du collecteur sont, entre autres, proportionnelles à l’écart
de température entre l’absorbeur (définie dans le chapitre 2) et la température ambiante
QF = ṁc(To − Ti ) (3.43)
La chaleur absorbée par le fluide rend compte de l’écart entre la température de sortie et
d’entrée du fluide caloporteur. Cette expression est vraie car dans notre plage d’utilisation
les équations (3.44) sont vérifiées.
⎧
⎪
⎪
⎪
⎪
V est constant
⎨ ρin = ρout = ρ
⎪
(3.44)
⎪
⎪
⎪
⎩ cin = cout = c
Ainsi, le bilan de puissance peut être établi à partir des équations précédentes comme
suit :
⎡ ⎤
∆t ⎢⎢ To (k) + Ti (k) ⎥
To (k + 1) = To (k) + − [ − (k)] − [T (k) − (k)]⎥
ρV Cp ⎢⎢ ⎥
S c η φ(k) U L S c T EXT ṁC p i T o
⎥
0
2
⎣ ⎦
(3.46)
par cette méthode : UL = 6, 13 W /(m2 .K), ce qui surestime l’évaluation du constructeur qui
donnait une valeur de seulement 3, 06 W /(m2 .K).
Afin de traduire les erreurs entre les estimations et les mesures réelles, les critères FIT et
ERM ont été utilisés. Les données employées pour la validation du modèle vont d’octobre
2009 jusqu’à mars 2010. Le modèle (Figure 3.6) donne de bons résultats puisque FIT = 85,9%
et ERM = 2,6%.
valeurs extrêmes sont plusieurs fois rencontrées lors des cinq premiers mois de l’année, ce qui
signifie que le choix du jeu de données lié à l’apprentissage est suffisant et donc judicieux pour
établir un modèle satisfaisant, quelle que soit la période de fonctionnement de l’échangeur
dans l’année.
Les données vont de janvier à mai 2010 pour ce qui est de l’apprentissage et de janvier à
mai 2011 pour la validation. 39652 instants en mode ON (Pompes 1 et 2 actives) et 112549
instants en mode OFF (Pompes 1 et 2 inactives) pour la phase d’apprentissage et 40945
instants en mode ON et 108650 instants en mode OFF pour la phase de validation.
Le modèle de l’échangeur a été établi en développant quatre sous-modèles neuroflous :
deux sous-modèles pour la sortie TE(m)/S et deux sous-modèles pour la sortie TE(m)/G . Pour
chacune des deux variables, un sous modèle prend en compte le comportement lorsque les
pompes 1 et 2 sont activées et un autre lorsqu’elles sont à l’arrêt. Il est important de modéliser
le comportement de l’échangeur, même à l’arrêt, puisque les sorties de l’échangeur devenant
les entrées du champ solaire et du sous-sol, elles permettront de donner une information sur
les premières températures du fluide au moment où le mode d’injection sera actif.
Les fonctions d’appartenance utilisées dans Matlab® sont de type « gauss2mf ». Il s’agit
d’une fonction gaussienne dépendant de deux paramètres, σ et c donnée par :
f (x; σ, c) = e
(x−c)2
2σ 2 (3.47)
Cette fonction est une combinaison de deux valeurs de ces paramètres. La première fonction
caractérisée par σ1 et c1 détermine la forme de la partie supérieure gauche de la courbe alors
que la seconde fonction caractérisée par σ2 et c2 détermine la partie supérieure droite de cette
même courbe. Si c1 < c2, la fonction gaussienne atteint une valeur maximale de 1, sinon la
valeur atteinte est inférieure à 1. Les paramètres obtenus pour chacune des caractéristiques
des courbes (fonctions d’appartenances) et chacun des sous-modèles sont classés dans le
Tableau 3.3.
La Figure 3.7 montre les fonctions d’appartenance calculées pour la conception du modèle
neuroflou des 2 sorties de l’échangeur en mode ON et OFF. Les paramètres d’entrée des sous-
modèles ayant été établis, nous présentons dans le Tableau 3.4 les règles floues (identiques pour
chacun des sous-modèles) permettant de calculer la sortie de chacun des quatre sous-modèles
en fonction des deux entrées de chacun.
Le Tableau 3.5 présente les coefficients des fonctions d’appartenance de sortie non linéaires
obtenus. Il répertorie, pour chaque sous-modèle de l’échangeur, les trois coefficients établis.
Les quatre sorties estimées, de l’échangeur, représentées sur les Figures 3.8, 3.9, 3.10
et 3.11, présentent des résultats très satisfaisants en terme d’allure. Les courbes des valeurs
d’estimation suivent très bien les valeurs réelles dans chacun des cas.
3.2 Modélisation du procédé hybride de Saint-Pierre dels Forcats 113
Figure 3.7 – Fonctions d’appartenance d’entrée des sous-ensembles flous des deux sous-modèles
de l’échangeur
Tableau 3.5 – Coefficients des fonctions d’appartenance de sortie linéaires utilisés pour le
modèle de l’échangeur de chaleur
116 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
En plus, l’approche qualitative sur le suivi des valeurs estimées avec les valeurs réelles
de l’échangeur thermique, nous présentons ici les résultats de l’approche quantitative par le
Tableau 3.6.
Celui-ci nous donne les résultats de corrélation EAM, ERM et FIT liés à la comparaison de
ces valeurs. Les résultats apparaissent très satisfaisants pour ce qui est des erreurs commises
lorsque les pompes sont en circulation (mode ON). L’erreur absolue moyenne EAM, dans ce
cas, ne dépasse pas les 0,3 ce qui donne une valeur de ERM inférieure à 1% et des valeurs
de FIT élevées, avec respectivement pour le champ solaire et le forage : 93,7% et 96,4%. Les
118 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
Tableau 3.6 – EAM, ERM et FIT des sorties des quatre sous-modèles de l’échangeur de
chaleur
résultats obtenus lorsque les pompes sont à l’arrêt (mode OFF) sont très disparates d’une
sortie à l’autre. On obtient une valeur de EAM relativement acceptable pour la sortie du
côté du champ solaire, 0,51 , une valeur de ERM de 1,85% et un FIT proche de 84%. En
revanche, dans le cas de la sortie du coté du forage, EAM s’élève à 1,36 , la valeur de ERM
proche des 5% et la valeur de FIT atteignant 65%. Ce dernier résultat peut s’expliquer par le
fait que lorsque le fluide caloporteur ne circule plus, la chaleur contenue dans le fluide présent
dans le forage est susceptible de remonter par conduction et venir modifier la température en
sortie de l’échangeur. Ceci étant facilité par l’absence de clapets anti-retour dans l’installation.
rapide et du fait que les conditions nécessaires pour réaliser la première méthode, n’étaient
pas réunies.
L’objectif de cette étape de modélisation consiste à modéliser les deux sorties du forage, à
savoir les températures TG/E et TG/P . Pour cela, nous avons utilisé, comme variables, TE/G et
TP /G , ainsi que les valeurs d’état de fonctionnement des circulateurs (CirculateursON /OF F )
et de la PAC (P ACON /OF F ).
Figure 3.12 – Structure générale du modèle neuroflou d’une température de sortie du forage
120 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
La Figure 3.13 montre que la meilleure corrélation est de 0,634 et est obtenue pour un délai
(DP AC ) de 50 heures. Ce délai va nous permettre d’établir une des entrées des sous-modèles
2.a et 2.b en calculant à chaque instant i (pas de temps d’une minute) la valeur VP AC i
relative à l’historique de durée de fonctionnement de la PAC (équation (3.49)).
VP AC i =
i−1
∑ Aj (3.49)
j=i−DP AC
Figure 3.14 – Corrélation entre VCir et TG/P pour différents délais DCir
La Figure 3.14 montre que la meilleure corrélation est de 0,650 et est pour un délai DCir
de 88 heures. Ce délai va nous permettre d’établir une des entrées des sous-modèles 2.a et
2.b en calculant à chaque instant i (pas de temps d’une minute) la valeur VCir i relative à
l’historique de durée de fonctionnement des circulateurs.
VCir i =
i−1
∑ Cj (3.50)
j=i−DCir
La Figure 3.15 représente la structure du modèle de sortie du forage côté échangeur tel
qu’elle a été implémentée sous Simulink® . On note la présence d’un « switch » (switch PAC
ON/OFF) permettant de choisir le modèle approprié à la situation du moment. La sortie
TG/E sim a , de la cascade 2, sera sélectionnée si la PAC est en fonctionnement (P ACON /OF F = 1)
et TG/E sim b si elle est à l’arrêt (P ACON /OF F = 0).
Dans le cas du modèle de la sortie TG/E sim , le premier sous-modèle neuroflou (cascade
1) prend pour entrées TE/G et CirculateursON /OF F (en rouge). Son rôle est de simuler la
température du fluide caloporteur, en sortie du forage (côté échangeur), en ne considérant
que la température du fluide y entrant et les périodes d’activation des circulateurs. La
sortie obtenue, intermédiaire, est nommée TG/E sim 1 . Ce sont les deux autres sous-modèles,
appartenant à la cascade 2 qui prendront en compte l’influence du circuit hydraulique
d’extraction (circuit pompe à chaleur). En entrée de la cascade 2 on a alors (en bleu), d’une
part, la sortie TG/E sim 1 , d’autre part, la température qui provient de la PAC lors de l’instant
choisi (TP /G ) et enfin, le temps d’activation de la PAC depuis un temps donné (DP AC ). Cette
variable définie précédemment constitue une information primordiale rendant compte de
l’état du déstockage du sous-sol à tout instant et donc traduisant l’influence des variations de
température dans le circuit hydraulique opposé.
122 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
La Figure 3.16 représente la structure du modèle de sortie du forage côté pompe à chaleur.
Un nouveau « switch » (switch Circulateurs ON/OFF) permet de choisir le modèle approprié
suivant si dans le circuit opposé, on procède à une injection de chaleur ou non. Ainsi, la
sortie TG/E sim 2 a , de la cascade 2, sera sélectionnée si les circulateurs sont en fonctionnement
(CirculateursON /OF F = 1) et TG/E sim 2 b s’ils sont à l’arrêt (CirculateursON /OF F = 0).
Pour le cas du modèle de la sortie TG/P sim , le premier sous-modèle neuroflou (cascade 1)
possède les entrées TP /G et P ACON /OF F (en bleu). Le rôle de cette première cascade est de
simuler la température du fluide caloporteur, en sortie du forage (côté PAC), en ne considérant
que la température du fluide y entrant et les périodes d’activation de la PAC. La sortie
obtenue, intermédiaire, est nommée TG/P sim 1 . Comme pour le cas précédent, ce sont les
deux autres sous-modèles, appartenant à la cascade 2 qui prendront en compte l’influence de
l’autre circuit hydraulique, à savoir celui de l’injection de chaleur. En entrée de la cascade 2
on a alors (en rouge), d’une part la sortie TG/P sim 1 , d’autre part la température provenant de
l’échangeur à l’instant choisi (TE/G ) et enfin, le temps d’activation des circulateurs depuis un
temps donné (DCir ). Cette variable définie précédemment rend compte de l’état de stockage
du sous-sol à tout instant et donc traduit l’influence des variations de température dans le
circuit hydraulique opposé, soit celui lié à l’échangeur de chaleur.
Dans la partie suivante nous présentons les différentes fonctions d’appartenance d’entrée
et de sortie des sous-modèles du forage.
3.2 Modélisation du procédé hybride de Saint-Pierre dels Forcats 123
[Link] Fonctions d’appartenances d’entrée et de sortie liées aux sorties TG/E sim
et TG/P sim
Les fonctions d’appartenance utilisées pour la réalisation du modèle du forage sont de type
gaussienne (« gbellmf » dans Matlab® ). La fonction donnée par l’expression (3.51) dépend
de trois paramètres, a, b et c.
g(x; a, b, c) =
1
x − c 2b
(3.51)
1+∣ ∣
a
entrée 2.1
in1mf2s2a 2,504 1,955 7,886
in1mf3s2a 2,519 1,970 12,80
in1mf4s2a 2,485 1,989 17,74
in2mf1s2a 3,466 1,992 -6,253
entrée 2.2
TG/E [2.a]
in2mf2s2a 3,597 2,002 0,8276
in2mf3s2a 3,545 2,006 7,897
in2mf4s2a 3,534 1,991 14,97
in3mf1s2a 206,0 2,039 16,00
entrée 2.3
entrée 2.2
Tableau 3.7 – Paramètres des fonctions d’appartenance d’entrée des sous-ensembles flous de
type gaussien des deux sous-modèles de température TG/E (cascade 2)
Les valeurs estimées des deux sorties du forage sont présentées sur la Figure 3.18 et la
Figure 3.19. D’un point de vue qualitatif, les courbes d’estimation des sorties du forage
montrent un bon suivi des valeurs expérimentales, tant dans la dynamique que dans les
amplitudes.
3.2 Modélisation du procédé hybride de Saint-Pierre dels Forcats 125
entrée 2.1
in1mf2s2a 3,010 1,971 5,049
in1mf3s2a 3,008 2,018 11,14
in1mf4s2a 3,109 1,962 17,15
in2mf1s2a 5,607 1,992 1,327
entrée 2.2
TG/P [2.a]
entrée 2.2
Tableau 3.8 – Paramètres des fonctions d’appartenance d’entrée des sous-ensembles flous de
type gaussien des deux sous-modèles de température TG/P (cascade 2)
126 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
Figure 3.17 – Fonctions d’appartenance d’entrée des sous-ensembles flous des deux sous-
modèles du forage (cascade 2)
Sur une approche qualitative désormais, le Tableau 3.9 récapitulant les résultats de
corrélation EAM, ERM et FIT liés à la comparaison des valeurs expérimentales et simulées
des sorties du forage présente des résultats satisfaisants. Les valeurs de corrélation montrent
en effet des résultats très satisfaisants pour ce qui est des erreurs commises, dans l’estimation
de la sortie TG/E , avec une erreur absolue moyenne EAM ne dépassant pas les 0,7 , ce qui
donne une valeur de ERM inférieure à 3% et une valeur de FIT satisfaisante avec 75,11%.
Quant à l’estimation de la sortie TG/P , les résultats obtenus sont certes de moins bonne
qualité avec une erreur absolue moyenne EAM proche du degré celcius, une valeur de ERM
de 5,52% mais à nouveau la valeur du FIT est intéressante puisque proche de 70%.
Ces valeurs de FIT sont significatives de la capacité du modèle à suivre la même allure
que les valeurs expérimentales, c’est pourquoi les modèles développés du comportement du
forage peuvent être considérés comme valides et vont pouvoir être utilisés dans la suite de ce
manuscrit.
Tableau 3.9 – EAM, ERM et FIT des deux sorties des sous-modèles du forage
Le choix de la structure du modèle a été réalisé de façon empirique, suivant les résultats
de corrélation obtenus entre valeurs expérimentales et valeurs simulées. Nous allons donc
présenter le modèle neuroflou retenu pour l’estimation de la température TP /M sim et TP /G sim .
Le sous-modèle de température de sortie de la PAC (TP /M ) prend en compte 4 entrées dont
les deux températures d’entrée de la PAC, à savoir TG/P et TM /P (m) , la dérivée numérique de
cette dernière dTM /P (m) et la température extérieure TEXT (Figure 3.20). Le sous-modèle de
température de sortie de la PAC côté forage (TP /G ) prend en compte 3 entrées dont les deux
températures d’entrée de la PAC, tout comme le modèle précédent (TG/P et TM /P (m) ) et la
sortie TP /M sim donnée par le modèle précédent. Ainsi on obtient deux sous-modèles où celui
donnant la température TP /G sim est obtenu par le sous modèle de la sortie TP /M sim .
Figure 3.20 – Variables d’entrée et de sortie utilisées pour le modèle de la pompe à chaleur
La Figure 3.21 montre l’évolution des températures d’entrée utilisées durant 2000 minutes
(mois de février 2010) pour le modèle et les températures de sortie de la pompe à chaleur lors
de plusieurs cycles. On note que les températures d’entrée de la pompe à chaleur TM /P (m)
3.2 Modélisation du procédé hybride de Saint-Pierre dels Forcats 129
et TG/P varient, d’une façon générale, comme la température extérieure TEXT . Cela traduit
l’apport du champ solaire dans les transferts de chaleur du forage vers la maison. Cette
variation de températures d’entrée fait varier les températures de sortie avec une allure
similaire. On obtient, en effet, une température de sortie en direction du plancher chauffant
de la maison TP (m)/M variant pour l’ensemble des données collectées, de 30 à 36 et de 31,2
à 33,1 sur cette figure.
Figure 3.21 – Variables d’entrée et de sortie utilisées pour le modèle de la pompe à chaleur
d’apprentissage l’erreur absolue moyenne EAM est quasiment toujours réduite alors que pour
la phase de validation, EAM diminue durant 68 itérations puis augmente par la suite. Cela
signifie que si la phase d’apprentissage est réalisée de manière trop avancée, la qualité des
résultats obtenus lors de la phase de validation est considérablement réduite.
En retenant le modèle obtenu au bout de 68 itérations, on remarque (Figure 3.24), que
les valeurs expérimentales et simulées de la sortie de la PAC côté maison, sont très proches.
L’analyse de ces valeurs, réalisée dans le Tableau 3.11, montre une erreur absolue moyenne
EAM de 0,62 , une valeur de ERM inférieure à 6% et une valeur de FIT de 32%. Ceci nous
amène à dire que les résultats obtenus sont satisfaisants.
Tableau 3.11 – EAM, ERM et FIT des deux sorties des modèles de la pompe à chaleur
Figure 3.23 – Erreur absolue moyenne sur l’estimation de TP (m)/M en fonction du nombre
d’itérations
Figure 3.24 – Sortie du modèle de température de sortie de la pompe à chaleur côté plancher
chauffant
20000 instants de fonctionnement de la PAC, soit 333 heures et 20 minutes mises bout à bout,
ont été considérés pour l’apprentissage, alors que 10000 instants ont été utilisés pour la phase
de validation (166 heures et 40 minutes).
Le Tableau 3.12 montre les instants d’apprentissage et de validation sélectionnés. Ces
échantillons ont été choisis durant les mois de janvier à mars lorsque la demande en chauffage
de la maison est la plus importante.
Lors de ces différentes phases, nous avons analysé et comparé la valeur de EAM et de FIT
en fonction du nombre d’itérations utilisées. Le nombre d’itérations retenu pour la phase
d’apprentissage est de 200 en raison d’une valeur de EAM convergeant vers la valeur de
132 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
0,302 (Figure 3.25). Dans ce cas, on remarque également (Figure 3.26) que la valeur du
FIT n’a fait que croı̂tre dans la partie relative à l’apprentissage et a montré une progression
quasi permanente lors de la phase de validation, jusqu’à converger vers la valeur de 75,5%.
Figure 3.25 – Erreur absolue moyenne sur l’estimation de TP (m)/G en fonction du nombre
d’itérations
Figure 3.27 – Sortie du modèle de température de sortie de la pompe à chaleur côté forage
Tableau 3.13 – EAM, ERM et FIT des deux sorties des modèles de la pompe à chaleur après
200 itérations
sortie côté plancher chauffant, les résultats obtenus dépendront de la qualité de l’estimation
de la valeur de TP /M sim . Le choix de la mise en cascade des deux sous-modèles de la pompe à
chaleur a pour but de donner le plus de cohérence possible aux chaleurs extraites et restituées.
134 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
Tableau 3.14 – EAM, ERM et FIT de l’ensemble des modèles développés pour le procédé de
GÉOHELIOS
L’habitat faisant l’objet de notre étude est, nous le rappelons, une maison individuelle
de 100 m2 située dans une zone montagneuse des Pyrénées-Orientales où les températures
peuvent facilement atteindre, en hiver, des valeurs proches des −20 . Elle est constituée
d’un étage et est équipée d’un plancher chauffant dans chaque pièce. Le plan de la maison
utilisé pour sa modélisation est visible sur les Figures 3.28 et 3.29.
L’agencement des pièces en fonction de leur orientation répond aux principes de base de
l’architecture bioclimatique (plébiscitée d’ailleurs par la RT2005). Les chambres (ch1 rdc,
ch2 rdc et ch etage) sont positionnées autant que possible à l’est pour profiter du soleil
3.2 Modélisation du procédé hybride de Saint-Pierre dels Forcats 135
levant (dans notre cas, 2 des 3 chambres le sont) et les pièces tampons comme les toilettes
ou les salles de bain (sdb rdc et sdb etage) sont exposées au nord. La cuisine et le bureau
(bureau rdc) se trouvent à l’ouest afin de favoriser l’éclairage du soleil de fin de journée et
le séjour (sejour rdc et sejour etage), au centre de l’habitat est juxtaposé à une véranda
(veranda rdc et veranda etage) orientée plein sud.
À partir de ce plan on peut alors fournir au logiciel le volume des pièces, la constitution des
surfaces, leurs éventuelles adjacences ainsi que leurs orientations. Les tableaux 3.15 et 3.16
réunissent ces informations pour chacun des deux niveaux de la maison.
La modélisation thermique de l’habitat nécessite évidemment une connaissance précise de
la structure des murs extérieurs, cloisons, sol, plancher (entre les étages) et toit, à savoir les
matériaux utilisés et leur épaisseur. Le Tableau 3.17 présente ces caractéristiques telles qu’elles
ont été mesurées et entrées dans TRNSYS ainsi que les valeurs de déperdition thermique
équivalente (Ueq ) calculées par le logiciel.
La toiture telle qu’elle a été entrée dans le logiciel est de type horizontal afin de s’affranchir
des problèmes de pente lors de sa saisie. Son coefficient de déperdition équivalent entré dans
le logiciel a donc dû être augmenté artificiellement, pour pallier au problème de surface
d’échange inférieur dans le cas d’une surface horizontale, plutôt qu’inclinée de 30 ○ comme
c’est réellement le cas.
Les premiers tests de simulation ont été réalisés sans intégration du chauffage ou d’une
éventuelle ventilation. Le but est d’étudier le comportement du modèle en se basant sur les
températures des différentes zones et de vérifier la cohérence des résultats. Pour valider cette
cohérence nous nous sommes focalisés sur les pièces du séjour et de la véranda du 1er étage.
Cette première simulation (établie sur une année complète, du 1er janvier au 31 décembre)
présente (Figure 3.30) des comportements thermiques très distincts malgré le fait qu’il s’agisse
de deux pièces juxtaposées. Il est à noter que trois des quatre courbes présentées par la suite
sont très oscillantes et donc difficilement observables en détail puisqu’il s’agit d’une année
complète de simulation, cependant leur analyse réside surtout dans la comparaison d’une
température par rapport à une autre.
Les températures des pièces s’échelonnent de −1 à 48 pour la véranda du 1er étage. Pour
ce qui est de la température du séjour au 1er étage, elle est, comme l’on peut s’en douter,
soumise à moins d’amplitude thermique, la température varie en effet de 1, 5 à 39,5 à cet
endroit. Ces températures simulées, notamment en été, sont bien supérieures à ce que l’on
relève dans de telles zones géographiques.
Par ailleurs, si l’on analyse sur une période plus restreinte les résultats de cette simulation
(Figure 3.31), on constate que les températures de la véranda et du séjour présentent une
dynamique très proche.
Nous venons de voir que la dynamique et les températures des pièces les unes par rapport
3.2 Modélisation du procédé hybride de Saint-Pierre dels Forcats 137
Figure 3.30 – Températures simulées de la véranda et du séjour du 1er étage (sans ventilation)
Figure 3.31 – Températures simulées de la véranda et du séjour du 1er étage (sans ventilation)
aux autres semblaient cohérentes, des différences d’amplitude sont encore présentes d’après la
zone géographique étudiée. Il est donc nécessaire d’améliorer le modèle en prenant en compte
les phénomènes de ventilation et d’infiltration.
Si l’on applique une ventilation telle qu’on en trouve dans ce type de maison ancienne
(ratio de 0,6 1⋅h−1 ), les résultats obtenus (Figure 3.32) montrent que l’amplitude thermique
est réduite.
Les températures des pièces ne varient plus que de −2 à 46,5 , pour la véranda du 1 er
étage et de −0, 5 à 35 pour le séjour du même étage.
Enfin, la ventilation par air extérieur à laquelle on ajoute les infiltrations, entraine une
baisse significative des températures en particulier durant l’été (Figure 3.33).
En effet, la température dans la véranda ne varie plus que de −2, 5 à 45 et de −1, 5 à
138 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
Figure 3.32 – Exemple de températures simulées pour deux pièces (avec ventilation)
Figure 3.33 – Exemple de températures simulées pour deux pièces (avec infiltrations)
32,5 dans le séjour, soit une baisse de l’amplitude thermique (entre la simulation intégrant
la ventilation et l’infiltration et celle n’intégrant aucune des deux) de +5,5 (Tableau 3.18).
Ces résultats satisfaisants valident le modèle du bâti ainsi créé. Il reste à y intégrer les
scénarios d’occupation et d’apport de chaleur.
3.2 Modélisation du procédé hybride de Saint-Pierre dels Forcats 139
Au-delà des paramètres thermiques du bâti, la température des pièces est fortement corrélée
avec leurs périodes d’occupation par les habitants.
Ces occupations jouent nécessairement un rôle dans l’utilisation quotidienne d’appareils
électriques ou non susceptibles d’apporter de la chaleur. Par conséquent, nous avons pris en
compte ces paramètres, grâce à l’interrogation des habitants sur leurs habitudes de vie. Par
exemple, les durées et fréquences d’utilisation des plaques de cuisson, du four, ou encore de
leur machine à laver ont été relevées et intégrées au logiciel, tout comme pour les apports
plus réguliers tels que l’éclairage, les téléviseurs et les ordinateurs. Les émissions de chaleur
générées par ces appareils, mises bout à bout constituent un apport non négligeable qu’il
était indispensable de prendre en considération.
Par ailleurs, concernant les règles préconisées par la « Règlementation Thermique »
Française, suivant le type d’habitat, la présence ou non des personnes à l’intérieur, l’heure
de la journée ou la pièce en question, la température de consigne requise pour assurer un
confort suffisant est différente. Le Tableau 3.19 présente les scénarios d’occupation rencontrés
habituellement et le Tableau 3.20 dresse les températures de consigne conventionnelles en
chauffage.
Cependant, dans notre cas, le besoin des habitants est très simple, bien qu’il soit relative-
ment élevé par rapport aux recommandations de la RT-2009. Les résidents chauffent leur
maison, quelle que soient les circonstances et les pièces, à 23 (température mesurée dans le
salon du rez-de-chaussée), ce qui simplifie par ailleurs la réalisation du modèle.
En prenant en compte la température de consigne choisie par les habitants, nous avons
pu établir une simulation des besoins énergétiques mensuels pour une année complète (Fi-
gure 3.34). Étant donnée la position des pièces et leur volume, les besoins pour chaque zone
sont différents. En les cumulant, on obtient les besoins énergétiques totaux de la maison.
On note que pour une telle maison les besoins en chauffage sont présents touts les mois
de l’année. Novembre, décembre et janvier sont les mois les plus énergivores avec une
consommation mensuelle supérieure à 7000 kWh (le mois de décembre est le plus demandeur
en énergie : 8752 kWh). Les besoins en chauffage durant l’été (juin, juillet et août) ne sont
pas nuls en raisons des nuits qui peuvent aisément faire descendre la température extérieure
et refroidir la maison jusqu’à des valeurs inférieures à la température de consigne. Cependant,
durant la journée, l’énergie thermique apportée par la pompe à chaleur aurait pu être apportée
naturellement par la maison, en raison de son exposition (une part importante provenant de
la véranda).
L’ensemble de ces analyses met en avant la nécessité de contrôler efficacement les actionneurs
du système hybride à savoir les pompes de circulation au niveau de l’échangeur et la PAC.
140 Chapitre 3 : Modélisation d’une installation hybride solaire/géothermie
9000
8000
7000
6000
Énergie [kWh]
5000
4000
3000
2000
1000
0
jan. fév. mars avr. mai juin juil. août sep. oct. nov. déc.
[kWh] 7502,2 6276 4706,6 3305,7 1920,7 1273,6 1027,9 1238,9 2125 4306,2 7162,1 8752
Conclusion du chapitre
Dans ce chapitre, a été présenté le développement et la validation du modèle de l’installa-
tion hybride solaire/géothermie assurant le chauffage d’un habitat individuel situé à haute
altitude : Saint-Pierre dels Forcats. Les modèles proposés reposent, suivant la connaissance
du processus, sur une approche « boı̂te blanche » lorsque celui-ci est fortement connu, sur
une approche « boı̂te grise » dès lors que certains paramètres ne sont pas connus ou encore,
si les connaissances du processus sont vraiment insuffisantes, les modèles utilisés peuvent être
de type « boı̂te noire ».
La procédure de modélisation a permis grâce à un processus itératif d’identifier chaque
variable séparément afin de minimiser les erreurs. Les algorithmes utilisés pour l’identification
des paramètres des modèles s’appuient sur la formulation d’un problème de minimisation de
l’erreur de prédiction. Ce problème d’optimisation est alors résolu par une minimisation des
moindres carrés non-linéaires avec un algorithme de région de confiance de Newton.
Chaque sous-système du procédé hybride a été analysé et modélisé suivant les connaissances
et les données collectées à disposition afin d’établir un modèle global de l’installation. Les
résultats de sortie obtenus pour chaque sous-modèle montrent des valeurs de corrélation avec
les variables mesurées in situ plutôt importantes.
Le modèle thermique de la maison a été établi via TRNSYS, afin que les besoins de chaleur
soient reproduits le plus fidèlement possible. Pour cela nous avons procédé à la modélisation
3.2 Modélisation du procédé hybride de Saint-Pierre dels Forcats 141
Introduction
D ans le chapitre précédent, nous avons mis en place, via l’ensemble des modèles développés,
de quoi établir une plateforme de simulation capable de reproduire le comportement
thermique de l’installation hybride, solaire/géothermie, de Saint-Pierre dels Forcats.
À partir des modèles développés et de la plateforme de simulation ainsi créée, ce chapitre
présentera la stratégie de contrôle de l’installation et les contrôleurs développés afin d’optimiser
l’efficacité énergétique du procédé. La démarche sera présentée sous forme de trois parties.
La première partie de ce chapitre présentera l’intérêt de l’application de contrôleurs flous
sur ce type de procédés et nous exposerons leurs modes d’utilisation. Nous rappellerons
les principes actuels du contrôleur du système d’injection de chaleur (circulateurs) et du
contrôleur du système d’extraction (PAC). Enfin, nous évoquerons les problématiques et
limitations qui découlent de leurs utilisations (notamment en terme de stratégie, et de
consommation énergétique notamment).
Dans une seconde partie, nous présenterons le système modélisé sous Simulink® , à partir
des sous-modèles développés dans le chapitre précédent et nous décrirons la mise en œvre
du modèle neuroflou de décharge thermique, jouant le rôle de la maison modélisée sous
l’outil TRNSYS (voir sous-section 3.2.6). Enfin, nous expliquerons les stratégies de contrôle
envisagées pour améliorer le procédé global et répondre à ces problématiques, et pour cela,
nous détaillerons les critères énergétiques utilisés (sur le procédé) pour juger de la qualité des
contrôleurs développés.
La troisième partie présentera l’ensemble des contrôleurs développés, au niveau des circula-
teurs d’une part, et de la pompe à chaleur, d’autre part. Dans les deux cas, nous listerons les
Chapitre 4 : Développement de contrôleurs flous pour le procédé expérimental du projet
146 GÉOHELIOS
variables utilisées pour chacun des contrôleurs et nous justifierons ces choix. Nous présenterons
et justifierons les différentes étapes de la mise en œuvre des systèmes d’inférences floues
pour chacun des contrôleurs. Et ce, de la forme la plus simple à la version optimisée. Nous
présenterons ensuite, les résultats obtenus sur les critères énergétiques définis et nous finirons
cette partie par un bilan énergétique et économique (sur l’installation) prenant en compte les
contrôleurs développés.
4.1 Problématique des contrôleurs actuels et méthodologie d’amélioration 147
D34EFBC497
125
396
7DC78
C7D678
123456478 124
9A5BCDEF7D 56472 396
123456789 123B7AC5B
A7B234C789
123
3 56472
9467
L’écart entre les températures du fluide circulant vers l’échangeur, en sortie directe du
champ solaire et provenant du forage (TS(m)/E − TG/E ) est noté ∆Tpompes . Suivant cette valeur,
le contrôleur enclenche les circulateurs (Pompe 1 et Pompe 2), ce qui assure une circulation
du fluide caloporteur dans l’ensemble du système d’injection, et ce, à débit constant. Cette
stratégie, très basique, peut être traduite par l’algorithme suivant :
⎧
⎪ si ∆Tpompes >7
⎪
⎪
⎪
⎪
⎪
⎪ P ompe 1 et P ompe 2 ∶ ON
⎪
⎪
⎪
⎪
⎪
⎪ sinon si ∆Tpompes <4
⎨
⎪ P ompe 1 et P ompe 2 ∶ OFF
(4.1)
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
sinon
⎪
⎪
⎪
⎩ P ompe 1 et P ompe 2 ∶ valeur précédente
sont totalement indépendantes du système d’injection alors que les deux systèmes sont censés
fonctionner de façon conjointe et optimale. Pour rappel, nous soulignions, dans le chapitre 2,
que l’enclenchement de la pompe à chaleur s’effectuait en fonction des températures de départ
et de retour du fluide au condenseur, de la température extérieure, et enfin, de celle du fluide
en retour du plancher chauffant.
Afin de pallier cette limitation, c’est à dire de faire interagir le système d’extraction avec
celui d’injection, nous proposons une méthode de contrôle intégrant les capteurs logiciels
définis lors de la présentation du développement des modèles du forage, dans le chapitre 3.
Il s’agit des variables VCir et VP AC , respectivement relatives à l’historique d’injection et
d’extraction de la chaleur dans le sous-sol.
Afin de prendre en compte toutes les limitations sus-énumérées et d’optimiser le fonction-
nement global du procédé, nous avons opté pour des stratégies de contrôle basées sur les
techniques de l’intelligence artificielle. En particulier, la logique floue. Ce choix est guidé par
la complexité et le nombre important de variables (mesurées ou issues de capteurs logiciels).
La prise en compte de toutes ces données nécessite une intégration de l’expertise humaine (en
terme de raisonnement). Il convient aussi de noter que cet outil permet de prendre en compte
les constats et critiques réalisés par les occupants de l’habitat (pour accroı̂tre l’efficacité du
système de contrôle). Dans ce qui suit, nous présenterons l’outil de simulation utilisé pour la
réalisation et le test de ces contrôleurs.
Nous avons vu, dans le chapitre 3, comment il était possible de modéliser un procédé ou un
système, en utilisant les méthodes de l’intelligence artificielle et particulièrement le neuroflou.
Nous avons alors mis en évidence la nécessité d’établir :
– la fuzzification des entrées et des sorties,
– une base de règles floues,
– et la défuzzification des sorties.
Avec le neuroflou, nous utilisions sa capacité d’apprentissage (des réseaux de neurones)
pour ajuster le système d’inférences floues pour ainsi faire correspondre au mieux les valeurs
estimées aux valeurs réelles. Les modèles flous résultants étaient alors de type Takagi-Sugeno
(paragraphe [Link].2 - Structure de type Takagi-Sugeno). En voulant proposer un contrôle par
logique floue, nous pourrons alors nous affranchir de la connaissance de diverses fonctions de
transferts. En revanche, il nous sera cette fois indispensable d’effectuer nous-même, les trois
différentes phases de mise en œuvre d’un système d’inférences floues (paragraphe [Link].2).
Nous procèderons alors, à une étude systémique de la commande floue comme présenté sur la
Figure 4.2. Nous nous appuierons pour cela sur nos connaissances du procédé et les critiques
des occupants que nous formulerons alors sous forme linguistique.
Chapitre 4 : Développement de contrôleurs flous pour le procédé expérimental du projet
150 GÉOHELIOS
23456789ABC5DED34DB89F9767E8
DD4D3
BE45D74D39F8958A8BD78
D9F89549ECF89FD3CB838
CDD4D3
879478E83989 45DF4D3
F89549EE43F8
Figure 4.2 – Différentes phases de la mise en œuvre des systèmes d’inférences floues
D’une manière générale, la commande des procédés a pour objectif l’amélioration de leur
efficacité tout en garantissant leur sûreté générale. En automatique classique, on applique
généralement une consigne de commande à l’entrée du système. Cette consigne est traduite
sous forme de valeur de sortie à atteindre. Le système de contrôle-commande compare la
valeur de sortie réelle à la valeur de sortie désirée et agit sur la commande instantanée à
appliquer au système pour arriver à une parité entre ces deux valeurs. Dans notre cas, il
ne s’agira pas de comparer ces deux valeurs mais plutôt d’établir tout d’abord le jeu de
variables d’entrée du contrôleur flou qui, par des règles bien définies, permettra d’obtenir
les meilleurs résultats possibles sur les critères choisis. La Figure 4.2 présente les différentes
phases réalisées pour la mise en œuvre des différents contrôleurs proposés par la suite.
respectivement orange et rose). Les variables du système, directement mesurées en ligne, que
sont la température extérieure et l’irradiation solaire, sont quant à elles, représentées sous la
forme de vecteurs (fond rouge).
Figure 4.3 – Modèle global de l’installation de Saint-Pierre dels Forcats sous Simulink®
Par ailleurs, pour des raisons d’interconnexion et de compatibilité entre le logiciel TRNSYS
et Matlab® , nous avons développé un modèle neuroflou de la charge. Celui-ci a été réalisé en
prenant en compte la température d’entrée du plancher chauffant (TP /M (m) ) et les 2 variables
du système directement mesurées en ligne (température extérieure et irradiation solaire). La
Chapitre 4 : Développement de contrôleurs flous pour le procédé expérimental du projet
152 GÉOHELIOS
1234567
BC
Nous avons choisi pour chacune des entrées, 3 sous-ensembles flous de type Gaussien.
La phase d’entraı̂nement a été réalisée avces les données de janvier à mai 2009 et celles de
validation avec les données de janvier à mai 2010.
La Figure 4.5 montre la comparaison entre les valeurs expérimentales et estimées de la
température de sortie du plancher chauffant de la maison.
On remarque que les 2 courbes sont quasiment superposées. Dans une comparaison
quantitative, si l’on analyse les critères de ressemblance tels que l’EAM, l’ERM et le FIT
(sous-section 3.1.5), on obtient des valeurs satisfaisantes, comme le montre le Tableau 4.1.
Tableau 4.1 – EAM, ERM et FIT de la température de sortie du modèle du plancher chauffant
Il apparaı̂t très clairement que l’EAM et l’ERM sont plutôt faibles, respectivement inférieurs
à 0,3 et 3 % et le FIT traduit une bonne corrélation entre les valeurs expérimentales et
4.2 Modèle thermique du procédé hybride et stratégies de contrôle 153
estimées avec une valeur de 67,3 %. L’ensemble de ces critères et constats, nous permet, par
conséquent, de valider ce modèle.
Ce modèle, implanté sous Simulink® (bloc apparaissant sous fond rose sur la Figure 4.3),
permet de reproduire le comportement thermique du plancher chauffant de la maison et donc
de simuler une demande de chaleur ou non.
Sur cette même figure (Figure 4.3), les deux blocs, orange et rose, respectivement intitulés
« CONTRÔLEUR CIRCULATEUR » et « CONTRÔLEUR PAC ON/OFF » sont, les blocs
relatifs aux contrôleurs des pompes de circulation et de la pompe à chaleur. Ce sont donc ces
contrôleurs que nous allons modifier, dans la suite, afin d’améliorer l’efficacité de l’installation.
∑ Putile
N
COPglobal =
i
i=1
(4.2)
∑ Pelec
N
i
i=1
Où N correspond au nombre d’échantillons et où Putile et Pelec sont définis respectivement
par les équations (4.3) et (4.4).
Avec :
Cependant, comme nous l’avons déjà énoncé, l’un des objectifs du contrôle du procédé est
de garder le confort thermique des habitants inchangé. Par conséquent, le critère à optimiser
ne dépend plus que de la consommation électrique moyenne des appareils faisant fonctionner
l’ensemble du système, c’est à dire la grandeur Pelec .
Or, en considérant que le système de monitoring consomme, à chaque instant, la même
puissance électrique, il faut donc se concentrer sur la minimisation de la puissance électrique
moyenne consommée par les circulateurs et la PAC. Nous appellerons alors cette puissance
Pcp définie simplement par l’équation (4.5).
La Figure 4.6.a présente un des deux circulateurs utilisés pour faire circuler le fluide calopor-
teur dans le système d’injection de chaleur. Conformément au réglage établi (1900 tr⋅min−1 ),
la puissance électrique nécessaire à son fonctionnement est de 67 W. De plus, étant donné
que les deux pompes sont identiques et possèdent le même réglage, à chaque instant où elles
sont activées, ce sont donc 134 W qui sont utilisés pour leur fonctionnement. La Figure 4.6.b
présente la plaque signalétique de la PAC qui donne sa puissance électrique nominale.
Partant de ces deux puissances et des périodes d’activation et d’arrêt des circulateurs et
de la PAC, nous sommes capables d’établir en temps réel leur consommation électrique. La
consommation électrique moyenne Pcpmoyen , calculée en fin de simulation, nous servira alors
de premier critère.
Cette minimisation doit impérativement être réalisée en conservant un bon suivi de la
température de consigne de la maison Tconsigne , caractérisé par EQM (l’erreur quadratique
moyenne) définie par l’équation (4.6).
123 143
Figure 4.6 – Plaque technique des circulateurs (a) et de la pompe à chaleur (b)
ce qui suit, la phase pratique de ce travail. Elle se décompose en deux parties, à savoir, le
développement et l’application des contrôleurs flous.
Pour améliorer le système de commande des pompes, nous avons souhaité intégrer l’efficacité
variable des circuits hydrauliques suivant le climat. Par conséquent, une première étape a
consisté à développer un contrôleur flou capable de donner des résultats très proches de ceux
obtenus avec le contrôleur actuel. Nous avons, par conséquent, utilisé les mêmes variables
d’entrée (TS(m)/E et TG/E ) afin d’obtenir l’état des circulateurs (ON ou OFF). Pour cela,
le contrôleur délivre, en sortie, un coefficient traduisant le degré de nécessité d’activation
Chapitre 4 : Développement de contrôleurs flous pour le procédé expérimental du projet
156 GÉOHELIOS
P1 de ces pompes (marche ou arrêt - comprise entre 0 et 1) et qui repose sur ces variables
d’entrées (Figure 4.7). Plus ce coefficient est proche de 1, plus le besoin d’activation est élevé.
Et inversement, plus il se rapproche de 0, plus l’arrêt des circulateurs est décidé.
1234567
AE
9ABACDEF
BAEF
1867
L’implantation, sous Simulink® , du contrôleur actuel des circulateurs (Figure 4.8), repose
sur le calcul de la différence de température. Un hystérisis (Relay) paramétré conformément
aux règles rappelées par (4.1), permet alors d’attribuer la sortie du contrôleur (0 ou 1).
Notre cheminement, pour la conception de ce contrôleur repose sur le fait que généralement,
plus l’écart de température entre la sortie du champ solaire TS(m)/E et le retour du forage
à l’échangeur TG/E est élevé, plus on est sûr que les circulateurs sont activés. Évidemment,
plus l’écart est faible, moins on est sûr qu’ils sont activés.
Ce raisonnement nous a permis de faire une subdivision très simple des entrées en deux
sous-ensembles flous chacun (« Petit » et « Grand »), et la sortie en « Faible », « Moyen »
et « Fort » comme le montre la Figure 4.9.
Nous pouvons alors dresser une base des règles (tableau 4.2) liée à la nécessité d’activation
des circulateurs. La méthode max-min est employée pour l’agrégation de ces règles et l’étape
de défuzzification se fait par la méthode du centre de gravité.
Le contrôleur devant restituer une valeur comprise entre 0 et 1, nous avons utilisé (Fi-
gure 4.10) un Relay. Ainsi, pour des valeurs inférieures à 0,5 la sortie du contrôleur est à 0,
4.3 Développements et applications des contrôleurs flous 157
265A744768272A
265A744768272A
28 8 67 28 8 67
8 8
3 3
1234444444441534444444444443444444444444534444444444234444444444463444444444473444444444833 123444444444153444444444444344444444444453444444444423444444444446344444444447344444444483344
12345678962A1BC3DEFAA 12345678962A1EFAA
265A744768272A
#7 !2 $%22 #682
8
3
44344444444444398444444444439544444444439A444444444439244444444439B4444444444396444444444439C44444444439744444444439D444444444448
TG/E
Petit Grand
Petit Moyen Faible
TS(m)/E
Grand Fort Moyen
Tout au long de cette étude, la mise en place des bases de règles a été guidée par
l’exploitation de la connaissance humaine et des résultats obtenus des caractéristiques des
contrôleurs à travers les surfaces générées. Pour le contrôle final de l’activation des circulateurs,
la Figure 4.11 présente la surface dite de contrôle en fonction des deux entrées. Cette surface
Chapitre 4 : Développement de contrôleurs flous pour le procédé expérimental du projet
158 GÉOHELIOS
Figure 4.11 – Variation du potentiel d’activation des circulateurs (P1) en fonction de TS(m)/E
et TG/E
On remarque que d’un point de vue général, le comportement d’activation et d’arrêt des
pompes de circulation, simulé avec le contrôleur flou, est très proche du contrôleur actuel de
l’installation (Figure 4.12).
En effet, le Tableau 4.3 montre que le nombre d’enclenchements des circulateurs, entre
la réalité et la simulation, est très proche : seulement 1,9% d’activation supplémentaire,
dans la cas de la simulation, comparé aux données expérimentales. De plus, la durée totale
d’état d’activation est très proche, seulement 1,4% de plus en simulation qu’en réalité. Par
ailleurs, et c’est certainement le critère le plus important, le taux de ressemblance des états
des circulateurs (ON et OFF) s’élève à près de 83%. Cela signifie que le contrôleur flou ainsi
développé joue un rôle très proche du contrôleur réel. Les différences constatées peuvent
s’expliquer du fait de l’importance de l’écart entre les deux températures TS(m)/E et TG/E . Une
simple différence de quelques dixièmes de degré suffit alors à ne pas activer les circulateurs et
modifier toute la suite de la simulation.
Nous venons de présenter un contrôleur flou capable de montrer des résultats proches du
contrôleur réel. Nous reviendrons plus tard sur son amélioration. Nous allons maintenant
répondre aux problématiques, liées au contrôleur de la pompe à chaleur dans la même optique,
augmenter l’efficacité énergétique du procédé.
4.3 Développements et applications des contrôleurs flous 159
Figure 4.12 – État des circulateurs mesuré et par la simulation du contrôleur flou
Expérimental Simulation
Nombre d’enclenchements 526 536
Durées totale à l’état ON [min] 40387 40945
Ressemblance des états [%] 82,97
123
F7CB
C 67879AB
C89DEF
45
le chauffage lorsque l’irradiation solaire est forte. Ce second critère permet de favoriser un
chauffage plus proche des périodes de stockage, plutôt qu’un chauffage de nuit, par exemple,
où l’efficacité de la pompe à chaleur en sera naturellement réduite. De plus, la circulation du
fluide caloporteur de jour entraı̂ne moins de pertes que la nuit où la température extérieure
diminue fortement et où les pertes thermiques sont donc plus conséquentes.
Afin de formuler les règles floues relatives à ces principes, nous définissons dans un premier
temps les labels linguistiques utilisés.
Ce raisonnement nous a permis de faire une subdivision très simple des entrées en trois
sous-ensembles flous pour la température intérieure (« Petit », « Moyen » et « Grand »), et
en deux sous-ensembles flous pour l’irradiation solaire (« Petit » et « Grand »). La sortie,
quant à elle, a été divisée en quatre sous-ensembles flous (2 de type trapézoı̈dal et 2 de type
triangulaire) notés : « Très Faible », « Faible », « Fort » et « Très Fort », comme le montre
la Figure 4.14. La forme, le nombre et les paramètres des fonctions d’appartenance ont été
choisis dans le but de répondre aux deux critères énoncés précédemment : Pcpmoyen et EQM.
265A744768272AD
265A744768272AD
3 3
1231111111111111111111111111241111111111111111111111111531111111111111111111111111154111111111111111111111111163111111111111111111111111164 113111111111115331111111173311111111183311111111933111111123331111112533
12345678962A1BCAADEF "
B66778A762AAD3 !
265A744768272AD
3
111311111111113A211111111113A51111111113A611111111113A71111111113A411111111113A811111111113AB1111111113A91111111113AC111111111112
C5285A78'78A2A7A4342A(A)7296AD
À partir de ces raisonnements et subdivisions, nous pouvons alors dresser une base des
4.3 Développements et applications des contrôleurs flous 161
règles (Tableau 4.4) liée à la nécessité d’activer la PAC. La méthode max-min est employée
pour l’agrégation de ces règles et la défuzzification se fait par la méthode du centre de gravité.
ΦS
Petit Grand
Petit Fort Très fort
TIN Moyen Moyen Fort
Grand Faible Moyen
La Figure 4.15 montre la surface formée par la nécessité d’activation de la PAC en fonction
des 2 entrées du contrôleur flou développé. Contrairement au contrôleur flou des circulateurs,
on constate ici une surface non plane traduisant la non linéarité entre les variables d’entrée
et de sortie. On remarque que la valeur de N1 est plus forte pour une température TIN faible
et une irradiation solaire ΦS élevée. Et à l’inverse, on obtient une plus faible nécessité N1
d’enclenchement de la PAC, lorsque TIN est relativement élevée et que ΦS est faible.
Figure 4.15 – Variation du degré de nécessité d’activation de la PAC (N1) en fonction de TIN
et ΦS
En plus du contrôleur flou développé, nous avons souhaité que des règles de bon sens,
concernant les durées de fonctionnement et d’arrêt de la PAC, soient respectées. Pour cela,
nous avons établi deux algorithmes simples permettant de limiter leurs durées.
Ainsi, l’algorithme 1 permet de fixer, à la pompe à chaleur, une durée d’activation maximale
à ne pas dépasser.
L’algorithme 2 permet de laisser à la pompe à chaleur, lorsqu’elle s’arrête, un temps de
repos minimum avant de pouvoir (éventuellement) être activée à nouveau.
Chapitre 4 : Développement de contrôleurs flous pour le procédé expérimental du projet
162 GÉOHELIOS
Après une analyse du comportement réel du système (Figure 4.16), nous avons conservé la
durée maximale d’activation et la durée minimale d’arrêt observées, respectivement notées m
et n. Ainsi, on a : m = 120 (la pompe à chaleur ne peut donc pas dépasser 2 heures à l’état
ON) et n = 30 (lorsque la pompe à chaleur s’arrête, elle doit observer un minimum de 30
minutes de repos).
Les phases d’extraction entraı̂nent nécessairement une baisse de la température du sous-sol.
Cette baisse engendre alors une baisse des performances de la pompe au fil de l’extraction.
La durée m qui fixe sa durée maximale de fonctionnement, permet d’éviter de trop réduire
les performances de la pompe à chaleur. Ainsi, le sous-sol a la possibilité de se recharger
thermiquement, soit naturellement, soit par l’apport du champ solaire durant une durée
minimale, notée n. Cette durée permet également de ne pas imposer à la pompe à chaleur
des changements d’états trop rapprochés dans le temps. Ces règles vont donc dans le sens de
celles données par le constructeur et énoncées dans le chapitre 2.
123456
7823
456
Figure 4.16 – Illustration des durées minimale et maximale requises pour le contrôle de la
pompe à chaleur
assez proche (0,822 2 ) de celle obtenue sur le site (1,109 2 ). On peut également noter la
qualité de la température moyenne obtenue pour la maison qui est de 22,45 (Figure 4.17),
soit moins d’un dixième de degré en dessous de la valeur moyenne réelle. De même, l’erreur
absolue moyenne est de plus d’un dixième de degré plus faible (0,71 ).
Cela signifie que par le contrôleur V1 ainsi développé, la consigne est plutôt bien suivie et
elle l’est d’autant plus que les valeurs d’EAM et d’EQM ont été améliorées.
Cependant, la minimisation recherchée du critère de consommation électrique Pcpmoyen ,
montre une limitation de ce contrôleur. En effet, bien que les résultats obtenus soient
satisfaisants en terme de suivi de consigne, les besoins d’activation des circulateurs ont été
augmentés de 20,2 %, passant ainsi de 27,37 % d’activation à 32,90 % par jour, en moyenne.
Par ailleurs, concernant la pompe à chaleur, son activité a augmenté de 5,29 %, entraı̂nant
un passage de 22,48 % d’activation à 23,67 %. Cette hausse des activités des circulateurs et
de la PAC se traduisent par une hausse de 5,9 % de la consommation électrique requise.
Chapitre 4 : Développement de contrôleurs flous pour le procédé expérimental du projet
164 GÉOHELIOS
123
F7CB
C 67879AB
45
C89DEF
F
Ainsi, le coefficient respectera les mêmes principes que pour le premier contrôleur, auxquels
nous ajoutons l’idée que plus la valeur de VCir sera élevée, plus ce coefficient sera important.
L’intérêt de cette seconde version du contrôleur (V2) est, d’une part, de permettre de
chauffer la maison lorsque la température de la pièce principale est faible et de favoriser le
chauffage la journée pour diminuer les problèmes de pertes thermiques au niveau des circuits
hydrauliques (naturellement plus importants la nuit). Et d’autre part, l’intérêt est d’ajouter à
cela, l’idée de favoriser d’autant plus l’extraction de chaleur que les circulateurs ont beaucoup
fonctionné dans le délai de temps DCir (recharge thermique du sous-sol récente).
Ce raisonnement nous a permis d’établir une subdivision des entrées de la manière
suivante. Nous faisons à nouveau appel à trois sous-ensembles flous (type triangulaire) pour
la température intérieure (« Petit », « Moyen » et « Grand »), à deux sous-ensembles flous
(type gaussien) pour l’irradiation solaire (« Petit » et « Grand ») et à deux sous-ensembles
flous (type triangulaire) pour la variable VCir (« Petit » et « Grand »).
La sortie, quant à elle, a été divisée en quatre sous-ensembles flous (2 de type trapézoı̈dal
et 2 de type triangulaire) notés : « Très faible », « Faible », « Fort » et « Très fort », comme
le montre la Figure 4.19.
265A744768272AD
265A744768272AD
265A744768272AD
3 3 3
1231111111111111111111111111241111111111111111111111111531111111111111111111111111154111111111111111111111111163111111111111111111111111164 113111111111115331111111173311111111183311111111933111111123331111112533 11311111111111111111111111123331111111111111111111115333111111111111111111111633311111111111111111111173331111111111111111111114333
3
111311111111113A211111111113A51111111113A611111111113A71111111113A411111111113A811111111113AB1111111113A91111111113AC111111111112
C5285A78#A2A7A4342A$A%7296AD
À partir de ces règles, nous pouvons alors dresser une base des règles (Tableau 4.6) liée à la
nécessité d’activer la PAC. La méthode max-min est toujours employée pour l’agrégation de
ces nouvelles règles et la phase de défuzzification se fait par la méthode du centre de gravité.
La Figure 4.20 présente différentes surfaces de contrôle en fonction des entrées. On peut
souligner, sur chacune des surfaces, la forte non linéarité entre les variables d’entrée et la
sortie estimée. L’exploitation de ces surfaces nous a alors permis de mettre en place les règles
floues.
Chapitre 4 : Développement de contrôleurs flous pour le procédé expérimental du projet
166 GÉOHELIOS
Après l’analyse des résultats obtenus par simulation, du contrôleur V2, on remarque que
l’erreur quadratique moyenne obtenue est du même ordre de grandeur que celle obtenue sur
le site (0,751 2 ). De plus, on peut dire que la température moyenne obtenue pour la maison
est conservée avec 22,56 (Figure 4.21) et que l’erreur absolue moyenne est même réduite à
0,69 .
Par conséquent, le contrôleur V2, que nous avons développé, respecte plutôt rigoureusement
la consigne fixée, nous le rappelons à 23 et surtout, ce nouveau contrôleur permet pour la
première fois d’observer des économies d’énergie. En effet, grâce à une meilleure utilisation
des périodes de fonctionnement de la PAC, son taux d’activité a chuté de 10,6%, passant
de 22,48 % à 20,32 %. Cette utilisation réduite de la PAC s’est cependant traduite par une
augmentation du taux d’activation des circulateurs pour recharger thermiquement le sous-sol.
Ce taux, qui avoisine désormais les 31 %, a donc augmenté de 13 %.
Ces variations d’activités de la pompe à chaleur et des circulateurs se traduisent naturelle-
ment par des variations de la puissance moyenne Pcpmoyen , qui ne s’élève qu’à 834,10 W .
Le contrôleur V2, nous venons de le voir, offre des résultats satisfaisants. Nous allons
maintenant présenter l’étude de l’intégration d’une nouvelle variable à ce contrôleur.
4.3 Développements et applications des contrôleurs flous 167
BC BC
FB88 FB88C8
143 143
12342546789A8BC8A78D67E546789A88A581438FB8E675275
BC BC
12342546789A8BC8A78D67E546789A8FB8A5814388E675275
BC BC
14388
14388
14388 14388
FB FB
12342546789A8BC8A78D67E546789A8FB8A5881438E675275
123
F7CB
45 C 67879AB
F C89DEF
DEF
Lors de la mise en place des règles, Tableau 4.8, où nous avons encore utilisé la méthode
max-min et celle du centre de gravité pour la phase de défuzzification, nous nous sommes
aperçu que la stratégie devait reposer sur une augmentation du coefficient d’activation de
la PAC lorsque la valeur de VP AC diminuait et sur une baisse lorsque la valeur de VP AC
augmentait. Ainsi, pour nuancer un peu plus la sortie du contrôleur, nous avons ajouté une
fonction d’appartenance (de type triangulaire) supplémentaire en sortie.
Ainsi, le coefficient respectera les mêmes principes que pour le contrôleur précédent, auquel
nous ajoutons l’idée que plus la valeur de VP AC sera élevée, plus ce coefficient sera faible.
L’intérêt de cette troisième version du contrôleur (V3) est, d’une part, de permettre de
chauffer la maison lorsque la température de la pièce principale est faible et de favoriser le
chauffage la journée pour diminuer les problèmes de pertes thermiques au niveau des circuits
hydrauliques (naturellement plus importants la nuit). Et d’autre part, l’intérêt est d’ajouter à
cela, l’idée de favoriser d’autant plus l’extraction de chaleur que les circulateurs ont beaucoup
fonctionné dans le délai de temps DCir (recharge thermique du sous-sol récente) et que la
4.3 Développements et applications des contrôleurs flous 169
265A744768272AD
#288 $%2 &67 #288 &67
2 2
3 3
1231111111111111111111111111241111111111111111111111111531111111111111111111111111154111111111111111111111111163111111111111111111111111164 113111111111115331111111173311111111183311111111933111111123331111112533
12345678962A1BCAADEF "
B66778A762AAD3 !
265A744768272AD
265A744768272AD
#288 &67 #288 &67
2 2
3 3
11311111111111111111111111123331111111111111111111115333111111111111111111111633311111111111111111111173331111111111111111111114333 11311111111111111111111111111111111111111123331111111111111111111111111111111111153331111111111111111111111111111111111116333
'F6AAD '(FAD
3
111311111111113A211111111113A51111111113A611111111113A71111111113A411111111113A811111111113AB1111111113A91111111113AC111111111112
le taux d’activité de la PAC, en comparaison avec le contrôleur présent sur site, a chuté de
13%, passant de 22,48 % à 29,56 %. Cette utilisation réduite s’est, une nouvelle fois, traduite
4.3 Développements et applications des contrôleurs flous 171
par une augmentation du taux d’activation des circulateurs pour recharger thermiquement
le sous-sol. Avec la troisième version du contrôleur, ce taux d’activité atteint 34 %, ce qui
représente une hausse de plus de 24,48 %.
Le résultat le plus intéressant est bien entendu lié à la puissance moyenne consommée par
l’installation Pcpmoyen , qui ne s’élève plus qu’à 808,53 W . Cette baisse de puissance atteint
11,48 %.
Pour les 5 mois étudiés en simulation (duree simulation = 2493, 33 heures), l’économie
d’énergie réalisée se calcule grâce au produit de la puissance moyenne consommée par le
nombre d’heures de simulation (équations (4.7) et (4.8)).
Pour synthétiser, nous présentons sur les Figures 4.25 et 4.26, ainsi que sur le Tableau 4.10,
l’évolution des résultats obtenus avec les trois versions des contrôleurs flous. On peut noter,
d’une part, l’amélioration progressive du taux d’utilisation de la PAC, qui passe de 23,67%,
avec le premier contrôleur, à 19,56% avec la troisième version du contrôleur. D’autre part,
Chapitre 4 : Développement de contrôleurs flous pour le procédé expérimental du projet
172 GÉOHELIOS
Figure 4.25 – Évolution de la température intérieure de la maison obtenue par les 3 versions
de la plateforme de simulation et température de consigne
V1 V2 V3
EQM
0,822 2 0,751 2 0,785 2
Pcpmoyen 967,32 W 834,10 W 808,53 W
TINmoyen 22,45 22,56 22,55
EAM TIN 0,71 0,69 0,73
Moyenne des Circulateurs ON [%] 32,90 30,94 34,07
Moyenne des PAC ON [%] 23,67 20,32 19,56
Tableau 4.10 – Résultats de simulation des trois versions des contrôleurs de la pompe à
chaleur
2
56C
56B
56A
569
568
567
564
563
562
5
12 13 14
DEF
D D!"#
$%&F"'(!!#!EF'#"!EFF)
75
48
45
38
35
28
25
8
5
12 13 14
DEF
2555
C55
"*E+F,
B55
A55
955
855
12 13 14
DEF
Conclusion du chapitre
Dans ce chapitre, nous nous sommes intéressés au contrôle des actionneurs du procédé
expérimental de Saint-Pierre dels Forcats. Ce travail réalisé en simulation nous a, dans un
premier temps, montré que le système de contrôle Tout Ou Rien appliqué aux circulateurs
était suffisant. Nous nous sommes donc contenté de sa transcription en contrôleur flou. Notons,
cependant, que ce contrôleur pourra être très utile et amélioré sur un procédé disposant
de pompes à débits variables. En ce qui concerne la pompe à chaleur, le développement et
l’amélioration progressive de plusieurs versions de contrôleurs flous a permi de mettre en
évidence l’intérêt d’utiliser des variables synthétiques (issus de capteurs logiciels) relatives
aux phases de stockage et de déstockage de la chaleur dans le sous-sol. La prise en compte de
ces variables nous a permis d’améliorer les performances des contrôleurs utilisés in situ et
ainsi de déterminer les périodes les plus propices à des phases d’extraction de chaleur ou de
repos. Ce choix des plages d’utilisation de la pompe à chaleur, a ainsi permis d’améliorer
l’exploitation de la ressource géothermique, et donc d’augmenter l’efficacité de la pompe à
chaleur. À partir de cette amélioration de la gestion thermique du sous-sol, nous avons permis
la minimisation de la consommation électrique globale du système.
Conclusion générale et perspectives
Conclusion
D urant tout ce travail, nous nous sommes intéressés à la problématique du chauffage dans
le secteur du bâtiment conformément aux enjeux énergétiques et environnementaux
actuels. Nous avons souligné que la réponse à ces problématiques amenait inévitablement à
l’intégration des sources d’énergies renouvelables, dans l’ensemble de la chaı̂ne économique,
écologique et industrielle.
Dans l’objectif de l’amélioration de l’efficacité de la gestion de ce type de ressources, nous
nous sommes focalisés sur l’étude du « mix énergétique » solaire/géothermie.
Ainsi, afin de réaliser l’étude de ces installations, nous avons montré les possibilités
offertes par notre système de monitoring en terme d’acquisition et de capacité à assurer le
contrôle de l’installation. Le système de monitoring développé a permis de collecter l’ensemble
des données de température, d’ensoleillement, et de courant sur ces deux installations. La
base de données alors établie, sur l’installation GÉOHELIOS, nous a permis de réaliser
son bilan thermique. Cette étape nous a permis de nous rendre compte que, concernant
l’étude du système d’injection de chaleur, l’apport d’énergie thermique dans le sous-sol était
naturellement très dépendant de l’irradiation solaire et que, surtout, les pertes thermiques
étaient relativement importantes au niveau des circuits hydrauliques assurant le transport
du fluide caloporteur entre le champ solaire et l’échangeur de chaleur. Pour le système
d’extraction de chaleur, les mesures ont montré clairement que le coefficient de performance
variait de manière significative durant son fonctionnement, du fait du rafraı̂chissement lors
de l’extraction de chaleur. De plus, nous avons pu noter, l’importance, à nouveau, des pertes
thermiques au niveau des liaisons entre les différents sous-systèmes. Ces constats, ont permis
alors de mieux appréhender la phase de contrôle, et nous en avons déduit que les pertes
thermiques, jouant un rôle important dans cette installation, se devaient d’être intégrées lors
du développement du contrôleur.
Cependant, avant de développer ces contrôleurs, nous avons dû créer une plateforme de
simulation capable de reproduire, le plus fidèlement possible, le comportement du procédé
hybride réel. Les sous-modèles développés ont montré des résultats satisfaisants et cette
plateforme ainsi créée a donné place à un outil de simulation capable de tester, en temps réel,
176 Conclusion générale et perspectives
Perspectives
L’une des continuations des plus immédiates de ce travail est l’implémentation des contrô-
leurs développés en simulation, sur le procédé réel GÉOHELIOS, via le système de monitoring.
À ce niveau, la démarche consistera à une application directe, suivie éventuellement d’un léger
ajustement des paramètres des contrôleurs. Tout ceci impliquera, bien entendu, une poursuite
de l’instrumentation du procédé avec des actionneurs positionnés, d’une part, sur le système
d’injection, pour l’activation des circulateurs et d’autre part, sur le système d’extraction de
chaleur, pour la mise en marche de la pompe à chaleur.
À un niveau supérieur, la stratégie de contrôle développée pourra être transposée au
projet SOLARGÉOTHERM. La commande de l’aéroréfrigérant étant maintenant en place
et prête à fonctionner, il sera, d’ici peu, possible d’intégrer à ces algorithmes, les stratégies
de configuration de forages définies dans ce manuscrit et de les appliquer toujours par le
biais du système de monitoring. Suivant les résultats obtenus au niveau du comportement du
sous-sol, durant l’extraction de chaleur, une adaptation éventuelle de la structure des capteurs
logiciels peut aussi être envisagée. Les prochaines compagnes de mesures nous permettront
donc d’aborder prochainement cette problématique.
Nomenclature
Ef fS/E Efficacité des circuits hydrauliques liant les panneaux solaires à l’échangeur
thermique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . [−]
TM (m)/P Température maison vers pompe à chaleur (au niveau de la maison) . []
TM /P (m) Température maison vers pompe à chaleur (au niveau de la PAC) . . . []
TP /M (m) Température pompe à chaleur vers maison (au niveau de la maison) . []
TP (m)/M Température pompe à chaleur vers maison (au niveau de la PAC) . . . []
TS/E(m) Température champ solaire vers échangeur thermique (au niveau de l’échan-
geur thermique) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .[ ]
TS(m)/E Température champ solaire vers échangeur thermique (au niveau du champ
solaire) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . [ ]
[22] Mary Ann Branch, Thomas F. Coleman, and Yuying Li. A subspace, interior, and
conjugate gradient method for large-scale bound-constrained minimization problems.
SIAM Journal on Scientific Computing, 21(1) :1–23, 1999.
[23] J. Buzás, I. Farkas, A. Biró, and R. Németh. Modelling and simulation aspects of a
solar hot water system. Mathematics and Computers in Simulation, 48(1) :33 – 46,
1998.
[24] Richard H. Byrd, Robert B. Schnabel, and Gerald A. Shultz. A trust region algorithm for
nonlinearly constrained optimization. SIAM Journal on Numerical Analysis, 24(5) :1152–
1170, 1987.
[25] Richard H. Byrd, Robert B. Schnabel, and Gerald A. Shultz. Approximate solution of
the trust region problem by minimization over two-dimensional subspaces. Mathematical
Programming, 40(1) :247–263, 1988.
[26] Bezdek J. C. Pattern recognition with fuzzy objective function algorithms. Springer, 31
juillet 1981.
[27] M.-H. Li C.-K. Li, A.N. Soriano. Heat capacities of the mixed-solvents desiccants
(glycols + water + salts). Thermochimica Acta, 487 :26–32, 2009.
[28] Celsius-process. [Link]
[29] Thomas F. Coleman and Yuying Li. On the convergence of interior-reflective Newton
methods for nonlinear minimization subject to bounds. Mathematical Programming,
67(1) :189–224, 1994.
[30] Thomas F. Coleman and Yuying Li. An interior trust region approach for nonlinear
minimization subject to bounds. SIAM Journal on Optimization, 6(2) :418–445, 1996.
[31] Thomas F. Coleman and Arun Verma. A preconditioned conjugate gradient approach to
linear equality constrained minimization. Computational Optimization and Applications,
20(1) :61–72, 2001.
[32] Maxim Dallas. High-precision 1-wire digital thermometer. Technical report, Maxim
Dallas, 2011.
[33] Hellendoorn H. et Reinfranck M. Driankov D. An introduction of fuzzy. Springer-Verlag,
Heidelberg, 1993.
[34] Galichet S. Foulloy L. Dussud M. Application of fuzzy logic control for continuous
casting mold level control. IEEE Transactions on Control Systems Technology, 6 :246256,
1998.
[35] Mamdani E. Application of fuzzy algorithms for control of single dynamic plant. proc
of IEEE, 121, n° 12 :1585–1588, 1974.
[36] Mamdani E. An experiment in linguistic synthesis with a fuzzy logic controller.
International Journal on Man-Machine Studies, 7 :1–13, 1975.
BIBLIOGRAPHIE 183
[37] Pal N. R. et Bezdek J. C. On cluster validity for the fuzzy c-means model. IEEE
transactions on fuzzy systems, 3 :370–379, 1995.
[38] Bloch I. et Maı̂tre H. Fusion de données en traitement d’image. Traitement du signal,
11 :433–446, 1994.
[39] Union Européenne. Directive 2010/31/UE du Parlement Européen et du Conseil du 19
mai 2010 sur la performance énergétique des bâtiments (refonte), 2010.
[40] Galichet S. Evsukoff A., Branco A. C. S. Structure identification and parameter
optimization for non-linear fuzzy modelling. Fuzzy Sets and Systems, 132 :173–188,
2002.
[41] Galichet S. Foulloy L. Evsukoff A., Gentil S. Commande floue1 : de la stabilisation à
la supervision, Traité IC2. Hermès, 2003.
[42] Régis Olives Antoine Dominguez Fabien Delaleux, Xavier Py. Enhancement of geo-
thermal borehole heat exchangers performances by improvement of bentonite grouts
conductivity. Applied Thermal Engineering, 2011.
[43] Régis Olives Antoine Dominguez Sandra Lanini Denis Nguyen Fabien Delaleux, Xa-
vier Py. Suprvised rock-mass storage of thermal energy produced by a solar thermal
panel. In SolarPACES, 2010.
[44] Martin Schnauss Felix A. Peuser, Karl-Heinz Remmers. Installations solaires thermiques
- Conception et mise en oeuvre. Systèmes Solaires, 2005.
[45] Galichet S. Foulloy L. Typology of fuzzy controllers, in Theoretical Aspects of Fuzzy
Control, pages 65–90. H.T. Nguyen, M. Sugeno, R. Tong, R.R. Yager, John Wiley &
Sons Inc., 1995.
[46] République Française. Repères, Chiffres clés de l’énergies, édition 2009, 2009.
[47] République Française. Repères, chiffres clés du climat, France et Monde, édition 2010,
2010.
[48] Foulloy L. Galichet S. Fuzzy controllers : Synthesis and equivalences. IEEE transactions
on fuzzy systems, 3 :140–148, 1995.
[49] GIEC. Bilan 2007 des changements climatiques : Rapport de synthèse.
[50] Bühler H. Réglage par logique floue. Presses Polytechniques et Universitaires Romandes,
1994.
[51] Tibshirani R. J. Hastie T. J. Generalized additive models. Chapman and Hall, New
York, 1990.
[52] Driankov D. Hellendoorn H. Fuzzy model identification : selected approaches. Springer,
1997.
[53] Bloch I. Fusion de données, ensembles flous et morphologie mathématique en traitement
d’images : Application à l’imagerie médicale cérébrale et cardiovasculaire multimodalités.
In Ecole Nationale Supérieure des Télécommunications, 1995.
184 BIBLIOGRAPHIE
[54] Truck I. Approches symbolique et floue des modificateurs linguistiques et leur lien
avec l’agrégation. Application : le logiciel FLOUS. PhD thesis, Thèse de doctorat de
l’Université Reims Champagne - Ardenne, 2002.
[55] Zhao J. System modelling, Identification and Control using fuzzy logic. PhD thesis,
Thèse de doctorat, Université Catholique de Louvain, 1995.
[56] D. Nguyen M. Polit X. Py T. Talbert A. Dominguez S. Lanini J. Nou, F. Delaleux.
Solargeotherm - supervised rock-mass storage and release of thermal energy produced
by a solar power unit. In ANR Stock-E 2007 au colloque de Paris La Villette, 19 - 20
Novembre 2009, 2009.
[57] T. Talbert. J. Nou, A. Traoré. Solar thermal and geothermal hybrid process. IEEE
Green Technologies, Baton Rouge, Louisiana, April 14-15, 1 :1 – 6, 2011.
[58] J.M. Jancovici. Manicore. Technical report, Manicore, 2011.
[59] Sun. C. T. Jang J. S. R. Functional equivalence between radial basis function networks
and fuzzy inference systems. IEEE Transactions on Neural Networks, 4 :156–159, 1993.
[60] M. Fruneau D. Heuer J.M. Loiseaux, J.L. Belmont and M. Lieuvin. Projet secco :
Stockage energie-chaleur pour un chauffage optimisé. Technical report, LPSC 06-88 -
Grenoble, 2006.
[61] CT Kelley. Iterative methods for optimization. Society for Industrial and Applied
Mathematics, 1999.
[62] Zadeh L.A. Fuzzy sets. Information and Control, 8(3) :338 – 353, 1965.
[63] Zadeh L.A. The concept of a linguistic variable and its application to approximate
reasoning. Information Sciences, 8 :199 – 249, 1975.
[64] Zadeh L.A. Fuzzy sets as a basis for theory of possibility. Fuzzy Sets Syst., 1 :3–28,
1978.
[65] LEM. Ac current transducer at-b5. Technical report, LEM, 2011.
[66] Mizumoto M. Realization of pid controls by fuzzy control methods. Fuzzy sets and
systems, 70 :171–182, 1995.
[67] Engineering Mesures. Portaflow 220 - débitmètre à ultrasons portable - manuel d’utili-
sation. Technical report, Micronics Ltd, 2011.
[68] Jorge J. Moré and D. C. Sorensen. Computing a trust region step. SIAM Journal on
Scientific and Statistical Computing, 4(3) :553–572, 1983.
[69] A. Grisey N. Courtois, V. Petit and D. Grasselly. Heating and cooling of greenhouses
using aquifer thermal energy storage : a pre-feasibility study.
[70] D. Grasselly A. Menjoz Y. Noel N. Courtois, A. Grisey and V. Petit. Application of
aquifer thermal energy storage for heating and cooling of greenhouses in france : a
pre-feasibility study.
BIBLIOGRAPHIE 185
[71] L’énergie naturelle. Notice d’utilisation de votre atlantis se. Technical report, FRANCE
GÉOTHERMIE, janvier 2005.
[72] Oliver Nelles. Nonlinear system identification. Measurement Science and Technology,
13(4) :646, 2002.
[73] Fruchier O. Thiery F. Talbert T. Nou J., Gachon D. Étude d’un mix-énergétique
solaire/géothermie à l’échelle 1. In Colloque sur l’Enseignement des Technologies et des
Sciences de l’Information et des Systèmes, Grenoble, mars 2010.
[74] Z. HADJ-SADOK M. PENGOV D. DOCHAIN M. ESTABEN P. LABAT O. BER-
NARD, M. POLIT. Advanced monitoring and control of anaerobic wastewater treatment
plants : software sensors and controllers for an anaerobic digester. Water science and
technology - ISSN 0273-1223 - CODEN WSTED4, 43(7) :175–182, 2001.
[75] K. Ochner. Geothermal Heat Pumps : A Guide for Planning and Installing. Earthscan,
2007.
[76] D. Pahud. Design tool for heating-cooling systems with pile or borehole heat exchangers,
2000.
[77] D. Pahud. Simulation tool for heating/cooling systems with heat exchanger piles or
borehole heat, avril 1999.
[78] D. Pahud. Simulation tool for heating-cooling systems with energy piles or multiple
borehole heat exchangers, Mai 2007.
[79] H. Paksoy, O. Andersson, H. Evliya, and Ô. Abaci. Aquifer thermal energy storage
system for cooling and heating of çukurova university balcali hospital. In Proceedings
of 2nd Stockton Geothermal Conference, pages 2–1, 1998.
[80] R. Wendling R. Hirsch, R. Bezdek. Peaking of world oil production : impacts, mitigation,
and risk management. Nova Science Pub Inc, 2005.
[81] Soltani S. Application de la théorie des ondelettes en reconnaissance des formes. PhD
thesis, Université de Compiègne, 1998.
[82] B. Sanner, F. Kabus, P. Seibt, and J. Bartels. Underground thermal energy storage
for the german parliament in berlin, system concept and operational experiences.
Proceedings World Geothermal Congress, 1 :1 – 8, 2005.
[83] PIAC Sarl. Avis technique 14/05-998 - capteur solaire 2,3 hp. Technical report, PIAC,
2006.
[84] National Semiconductor. Lm35 - precision centigrade temperature sensors. Technical
report, National Semiconductor, 2000.
[85] Jonas Sjöberg, Qinghua Zhang, Lennart Ljung, Albert Benveniste, Bernard Delyon,
Pierre-Yves Glorennec, Håkan Hjalmarsson, and Anatoli Juditsky. Nonlinear black-box
modeling in system identification : a unified overview. Automatica, 31(12) :1691 – 1724,
1995. Trends in System Identification.
[86] A.L Snijders. Aquifer thermal energy storage in the netherlands, 2005.
[87] Stoica P. Soderstrom T. System identification. Prentice Hall, 1989.
[88] D. C. Sorensen. Minimization of a large-scale quadratic functionsubject to a spherical
constraint. SIAM Journal on Optimization, 7(1) :141–161, 1997.
[89] Trond Steihaug. The conjugate gradient method and trust regions in large scale
optimization. SIAM Journal on Numerical Analysis, 20(3) :626–637, 1983.
[90] Kang G. T. Sugeno M. Structure identification of fuzzy model. Fuzzy sets and syst.,
28 :15–33, 1988.
[91] Tanaka K. Sugeno M. Successive identification of a fuzzy model and its applications to
prediction of a complex system. Fuzzy sets and syst., 42 :315–334, 1991.
[92] Kohohen T. Selt organized formation of topological correct feature maps. biological
cybernetics, 43 :59–69, 1982.
[93] Sugeno M. Takagi T. Fuzzy identification of systems an dits application to modelling
and control. IEEE Trans. On Syst., Man and Cybern, SMC-15, n°1 :116–132, 1985.
[94] Perona A.-Polit M. Boibessot J. Colombain N. Talbert T., Caussanel M. L’électronique
embarquée des systèmes enr en enseignement. In 6ième Colloque sur l’Enseignement
des Technologies et des Sciences de l’Information et des Systèmes, 2007.
[95] D. Thiery. Plaquette de présentation du code de calcul marthe du brgm.
[96] J.-R. Tong-Tong. La logique floue. Hermes, 1995.
[97] V. Trillat-Berdal. Intégration énergétique dans les bâtiments par l’utilisation combinée
de l’énergie solaire et de la géothermie basse température. PhD thesis, Université de
Savoie-Chambery, 2006.
[98] TRITEC. Configuration du raccordement - capteur de rayonnement spektron 300.
Technical report, TRITEC, 2009.
[99] B. Souyri V. Trillat-Berdal and G. Achard. Coupling of geothermal heat pumps with
thermal solar collectors. Applied Thermal Engineering, 27 :1750–1755, 2007.
[100] B. Souyri V. Trillat-Berdal and G. Fraisse. Experimental study of a ground-coupled heat
pump combined with thermal solar collectors. Energy and Buildings, 38 :1477–1484,
2006.
[101] Hardle W. Applied nonparametric regression. Cambridge University Press, 1990.
[102] Glorennec P. Y. Algorithmes d’apprentissage pour systèmes d’inférence floue. Hermes,
1999.
[103] Grandvalet Y. Injection de bruit dans les perceptrons multicouches. PhD thesis,
Université de Compiègne, 1995.
[104] Hirota K. Yoshinari Y., Pedrycz W. Construction of fuzzy models througth clustering
techniques. Fuzzy sets ans Syst., 54 :157–165, 1993.
Résumé
Gestion optimale de l’énergie thermique dans un procédé hybride solaire/géothermie
pour le chauffage de bâtiments