Remerciment
Nous tenons tout d’abord à remercier Dieu le tout
puissant et miséricordieux, qui nous a donné la force le
courage et la patience d’accomplir ce Modeste travail.
En second lieu, nous tenons à remercier notre
encadrant Madame : ZOUAOUI HAKIMA, pour
son précieux conseil et son aide durant toute la
période du travail et pour tout le soutien, l’orientation,
la guidance.
Plus particulièrement à madame :
BOUKELLOUZ WAFA , qui nous a été d’une très
grande aide.
Nous exprimons notre grand respect aux honorables
membres de jury qui ont accepté d’évaluer ce travail.
Nous remercions nos parents et nos proches pour
l’amour et le soutien constant qu’ils nous ont témoigné
tout au long de notre parcours. Merci à tous nos amis
pour leurs encouragements
Enfin, nous tenons également à remercier toutes les
personnes qui ont participé de près ou de loin à la
réalisation de ce travail.
i
Dédicace
De tout mon cœur, je dédie ce modeste travail à ceux
qui m’ont soutenu, aidé et conseillé durant toute ma
vie trouvent en ce mémoire l’expression de ma plus
profonde reconnaissance, tous mes respects
Pour mon père Abd elhafidh et ma très chère mère
Kafia,
Pour ma belle et merveilleuse petite sœur Kawther
Pour mes fréres Achref ,Adem
pour mon grand-pére et ma grand-mére
pour toutes la famille
Pour tous mes amis
Sans oublier bien sûr, tous ceux qui ont participé de
loin à la réalisation de notre projet.
Hadda
ii
Dédicace
De tout mon cœur, je dédie ce modeste travail à ceux
qui m’ont soutenu, aidé et conseillé durant toute ma
vie trouvent en ce mémoire l’expression de ma plus
profonde reconnaissance, tous mes respects
Pour mon père Ali et ma très chère mère Lailla,
Pour ma belle et merveilleuse petite sœur Imane
Pour mes fréres Abd elmoumen,Qays
Pour mon fiancée : Aissa
Pour toutes la famille .
Pour tous mes amis .
Sans oublier bien sûr, tous ceux qui ont participé de
loin à la réalisation de notre projet.
Fatima Zohra
iii
Table des matières
Table des matières vi
Table des figures viii
Liste des tableaux ix
1 Concepts médicales et techniques 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Imagerie médicale . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 L’imagerie par résonnance magnétique IRM . . . . . 5
1.2.2 Les composantes principales de IRM . . . . . . . . . 5
1.2.3 Principe de l’IRM . . . . . . . . . . . . . . . . . . . . 6
1.2.4 Pondération et séquences des images IRM . . . . . . 7
1.3 Anatomie cérébrale . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 L’encéphale . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Les principaux tissus cérébraux . . . . . . . . . . . . 9
1.4 Tumeur cérébrale . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 Les tumeurs cérébrales bénignes . . . . . . . . . . . . 11
1.4.2 Les tumeurs cérébrales malignes . . . . . . . . . . . . 11
1.5 Différents types de tumeur cérébrale . . . . . . . . . . . . . . 12
1.5.1 Les gliomes . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.2 Les méningiomes . . . . . . . . . . . . . . . . . . . . 12
1.5.3 Les neurinomes . . . . . . . . . . . . . . . . . . . . . 12
1.5.4 Les adénomes de l’hypophyse . . . . . . . . . . . . . 13
1.5.5 Les médulloblastomes . . . . . . . . . . . . . . . . . . 13
1.5.6 Les lymphomes . . . . . . . . . . . . . . . . . . . . . 13
1.5.7 Les métastases . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Diagnostique . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
iv
1.7 La segmentation de tumeur cérébrale . . . . . . . . . . . . . 13
1.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Deep Learning- l’apprentissage profond 15
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Deep-learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.1 Pour quoi le choix le Deep learning ? ? . . . . . . . . . 18
2.2.2 Exemples d’application de Deep Learning . . . . . . . 18
2.2.3 Les différentes Architectures du Deep Learning . . . . 20
2.3 Les réseaux de neurones convolutionnels . . . . . . . . . . . . 21
2.3.1 Principe des réseaux de neurone convolutionnel . . . . 23
2.3.2 Les différentes couches de CNN . . . . . . . . . . . . 23
2.3.3 Avantages de CNN . . . . . . . . . . . . . . . . . . . . 28
2.4 conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3 Etat de l’art sur les méthodes de segmentation de la tumeur 30
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 Catégories des méthodes de segmentation de tumeur à partir
des images IRM . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.1 La Segmentation Manuel . . . . . . . . . . . . . . . . 31
3.2.2 Méthodes Semi-automatique . . . . . . . . . . . . . . 31
3.2.3 Méthodes de segmentation entièrement automatique . 32
3.3 Analyse comparative . . . . . . . . . . . . . . . . . . . . . . . 40
3.4 Orientations futures . . . . . . . . . . . . . . . . . . . . . . . 41
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4 Un modèle CNN de segmentation sémantique pour la détec-
tion des tumeurs cérébrales 43
4.1 Introdution . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2 Approche proposée . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Collecte de données . . . . . . . . . . . . . . . . . . . . 44
4.2.2 Prétraitement des données . . . . . . . . . . . . . . . . 45
4.2.3 Architecture CNN proposée pour la segmentation sé-
mantique . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.4 Partie codeur . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.5 Partie décodeur . . . . . . . . . . . . . . . . . . . . . . 49
4.2.6 Lien de saut . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.7 Environnement d’implémentation . . . . . . . . . . . . 51
4.2.8 Phase d’apprentissage et d’évaluation . . . . . . . . . . 52
4.2.9 Résultats et discussion . . . . . . . . . . . . . . . . . . 52
4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
v
bibliography 61
vi
Table des figures
1.1 l’imagerie par résonance magnétique IRM . . . . . . . . . . . . 6
1.2 Principe de IRM . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Différentes modalités d’images cérébrales IRM . . . . . . . . . 9
1.4 la substance blanche et la substance grise du cerveau . . . . . 10
2.1 La relation entre intelligence artificielle, Machine learning et
deep learning. . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Différents modèles du Deep Learning . . . . . . . . . . . . . . 21
2.3 Exemple de réseau CNN . . . . . . . . . . . . . . . . . . . . . 22
2.4 Couche de convolution . . . . . . . . . . . . . . . . . . . . . . 24
2.5 Fonction d’activation ReLU . . . . . . . . . . . . . . . . . . . 26
2.6 Couche pooling(Max pooling) . . . . . . . . . . . . . . . . . . 27
2.7 Couche entiérement connectées . . . . . . . . . . . . . . . . . 28
3.1 Résultats de la segmentation . . . . . . . . . . . . . . . . . . . 33
3.2 Architecture U-Net développée. . . . . . . . . . . . . . . . . . 36
3.3 Tableau de comparaissant entre les modèle . . . . . . . . . . . 38
4.1 Pipeline proposé. . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 coupes axiales de séquences IRM pondérées en T2 avec leurs
masques de segmentation correspondants . . . . . . . . . . . . 45
4.3 Distributions de classe par classe de tissu . . . . . . . . . . . . 46
4.4 Exemple de codage pour un masque de segmentation . . . . . 47
4.5 Un aperçu du modèle CNN proposé pour la segmentation sé-
mantique des tumeurs cérébrales . . . . . . . . . . . . . . . . . 48
4.6 Architecture CNN proposée . . . . . . . . . . . . . . . . . . . 50
4.7 Précision durant les phases d’apprentissage et d’évaluation sur
30 itérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.8 Perte de formation avec perte d’évaluation sur 30 époques . . 53
vii
4.9 Tranches axiales des cartes de segmentation résultantes en uti-
lisant la méthode proposée . . . . . . . . . . . . . . . . . . . 54
4.10 Coupes axiales de la segmentation de la vérité terrain . . . . 55
4.11 Distribution des valeurs DSC pour chaque classe segmentée en
tenant compte de l’ensemble d’évaluation . . . . . . . . . . . . 56
viii
Liste des tableaux
1.1 Comparaison entre tumeurs bénignes /malignes. . . . . . . . . 12
2.1 Le résumé de l’histoire de deep learning . . . . . . . . . . . . 17
3.1 Résultat de la comparaison. . . . . . . . . . . . . . . . . . . . 35
3.2 Comparaison des résultats obtenus par différents algorithmes . 40
4.1 Valeurs DSC moyennes en considérant les trois principales
classes de tumeurs par rapport à d’autres travaux utilisant
les mêmes ensembles de données BRATS 2015. . . . . . . . . . 57
ix
Résumé
La segmentation des tumeurs cérébrales est une tâche importante dans le
traitement d’images médicales. Le diagnostic précoce des tumeurs cérébrales
joue un rôle important dans l’amélioration des possibilités de traitement et
augmente le taux de survie des patients. La segmentation manuelle des tu-
meurs cérébrales pour le diagnostic du cancer, à partir d’une grande quantité
d’images IRM générées en routine clinique, est une tâche difficile et longue.
Il existe un besoin de segmentation automatique des images des tumeurs cé-
rébrales. Dans cette thèse, nous proposons un réseau neuronal à convolution
profonde (CNN) pour segmenter les tumeurs cérébrales en IRM. L’approche
proposée est basée sur des auto-encodeurs destinés à la segmentation d’images
d’imagerie par résonance magnétique pondérées en T2. Le modèle CNN pro-
posé utilise des connexions par sauts pour améliorer la segmentation. Notre
proposition a été validée en a dans la base de données (BRATS 2015) pour
les trois principales classes de tumeurs contre d’autres travaux en terme de
métrique du coefficient de similarité des dés (DSC). Le modèle CNN proposé
avait une précision de 98 %, ce qui peut concurrencer les travaux récents.
Mots clés : IRM, réseaux de neurones convolutifs, segmentation des
tumeurs cérébrales, segmentation sémantique.
Abstract
Brain tumor segmentation is an important task in medical image processing.
Early diagnosis of brain tumors plays an important role in improving treat-
ment possibilities and increases the survival rate of the patients. Manual
segmentation of the brain tumors for cancer diagnosis, from large amount
of MRI images generated in clinical routine, is a difficult and time consu-
ming task. There is a need for automatic brain tumor image segmentation.
In this dissertation, we propose a deep convolution neural network (CNN) to
segment brain tumors in MRI. The proposed approach is based on autoenco-
ders intended for segmentation of T2-weighted magnetic resonance imaging
images. The proposed CNN model makes use of skip connections to improve
segmentation. Our proposal was validated in has in the data base (BRATS
2015) for the three main classes of tumors against other work in term of the
dice similarity coefficient metric(DSC). The proposed CNN model had an
accuracy of 98 % , which can compete with recent works.
Keywords : MRI, Convolutional neural networks, brain tumor segmen-
tation, semantic segmentation .
ii
Introduction générale
La détection des tumeurs cérébrales signifie l’identification non seulement
de la partie affectée du cerveau, mais également de la forme, de la taille, de la
limite et de la position de la tumeur. Différentes technologies d’imagerie telles
que l’image par résonance magnétique (IRM), la tomodensitométrie (CT), la
tomographie par émission de positons (TEP), etc. sont utilisées pour l’ima-
gerie du cerveau. Le plus souvent, l’anatomie de la tumeur cérébrale peut
être testée par IRM. L’IRM permet une visualisation précise de la formation
anatomique des tissus du cerveau [1]. L’IRM est un appareil qui conduit un
champs magnétique et des ondes radio pour générer des images détaillées des
organes et des tissus. Le traitement des images IRM est extrêmement compli-
qué et constamment scruté par les chercheurs pour donner aux pathologistes
une expérience améliorée pour diagnostiquer les patients. Pour ces raisons,
la segmentation automatique des tumeurs cérébrales devient significative. La
segmentation des tumeurs cérébrales peut augmenter la probabilité de survie
d’une tumeur.
La segmentation de l’image isole la région infectieuse du reste de l’image.
La planification du traitement est facilitée lorsqu’une méthode de segmenta-
tion précise permet de déterminer la taille et l’emplacement de la tumeur [2].
Pour ce faire, un clinicien qualifié doit soit définir les conditions initiales, soit
fournir des données de formation pour la classification. Diverses recherches
ont été menées pour détecter de nombreux types de tumeurs sur la base de
l’extraction d’informations visuelles à partir d’images médicales. Dans le do-
maine médical, il n’existe aucune méthode standard qui puisse être élaborée
pour la segmentation des tumeurs cérébrales.
Plus récemment, des techniques d’apprentissage en profondeur ont été
adoptées dans les études de segmentation des tumeurs cérébrales suite à leur
1
succès dans les domaines généraux de l’analyse d’images, tels que la classi-
fication d’images, la détection d’objets et la segmentation sémantique. En
particulier, les réseaux de neurones convolutifs (CNN) ont été adoptés pour
la segmentation de l’image des tumeurs cérébrales dans le cadre du défi de
segmentation multimodale de l’image des tumeurs cérébrales (BRATS) 2014.
Des méthodes de segmentation des tumeurs cérébrales plus basées sur l’ap-
prentissage en profondeur ont été présentées dans le BRATS 2015 et différents
modèles d’apprentissage en profondeur ont été adoptés, y compris les CNN
[3].
Une segmentation précise de la zone tumorale est considérée comme la
première étape du traitement des tumeurs cérébrales. L’apprentissage en pro-
fondeur est un ensemble de techniques prometteuses qui pourraient fournir
de meilleurs résultats par rapport aux techniques d’apprentissage sans étape
pour segmenter une partie tumorale à l’intérieur d’un cerveau [4]. Notre pro-
position présente un réseau neuronal convolutif profond (CNN) pour seg-
menter les tumeurs cérébrales en IRM. Le réseau proposé utilise un jeu de
données de défi de segmentation BRATS 2015 composé d’images obtenues à
travers quatre modalités. L’architecture de réseau neuronal convolutif pro-
fond (CNN) se compose de plusieurs couches de réseau neuronal connectées
dans un ordre séquentiel avec l’alimentation de cartes de caractéristiques
convolutionnelles au niveau des pairs. Les résultats expérimentaux sur les
données de référence BRATS 2015 montrent ainsi l’utilisabilité de l’approche
proposée et sa supériorité sur les autres approches dans ce domaine de re-
cherche.
Ce mémoire s’articule autour de ce schéma : Le premier chapitre pré-
sente le cadre applicatif du travail. Il rappelle quelques notions d’anatomie
du cerveau humain, les principes fondamentaux de la technique d’imagerie
par résonance magnétique, où la problématique est posée d’une manière dé-
taillée sur la maladie tumeur cérébrale.
Dans le chapitre deux, nous présentons les concepts de deep learning, ou
sont d’écrites les déférent architecteur de cette technique, parmi ces archi-
tecteur, nous détaillons le réseau de neurones convolutifs(CNN).
Dans le chapitre trois, nous présentons les différentes approches et stra-
tégies généralement utilisées pour la segmentation de tumeur à partir des
images IRM, tout en évoquant les avantages et les inconvénients de chaque
approche.
2
Le chapitre quatre présente notre proposition pour la détection de la tu-
meur cérébrale et les résultats obtenus dans le cadre de cette étude et illustre
le fonctionnement du système sur des images médicales réelles .
3
Chapitre 1
Concepts médicales et techniques
1.1 Introduction
Malgré les avancées technologiques dans le domaine médical, mais Le type
d’imagerie par excellence de l’anatomie cérébrale est l’imagerie par résonance
magnétique (IRM), est devenue un outil de plus en plus important dans la
segmentation automatique des structures cérébrales.
Dans ce chapitre nous décrivons des concepts médicales de notre travail,
nous commençons par l’imagerie médical et l’imagerie par résonance ma-
gnétique (IRM), sa composantes ...etc. Ensuite, nous présontons le cerveau
humain, les tissus principaux du cerveau.
Enfin, nous donnons les types des tumeurs cérébrale et quelques termes
de vocabulaire liés aux tumeurs cérébrales.
1.2 Imagerie médicale
L’imagerie médicale est certainement l’un des domaines de la médecine
qui a vécu le plus progressé ces vingt dernières années, c’est une méthode
pour concevoir une carte de caractéristiques spécifiques du corps humain à
utiliser pour établir un diagnostic ou un traitement médical .
L’imagerie médicale regroupe l’ensemble des techniques permettant de
visualiser une partie du corps humain ou d’un organe sans avoir à opérer le
patient ; cela, en créant une image visuelle compréhensible d’une information
à caractère médical dans le but d’établir un diagnostic et de faire un suivi
4
approprié du traitement. Il existe plusieurs modalités d’imagerie médical tel
que la tomodensitométrie X (TDM), échographie, tomographie par émission
de positons (TEP ou PET) et Imagerie par Résonnance Magnétique (IRM).
Dans ce mémoire, nous nous intéressons à l’IRM [5].
1.2.1 L’imagerie par résonnance magnétique IRM
L’Imagerie par Résonance Magnétique (IRM) est une technique d’image-
rie médicale, utilisée pour faire un diagnostic et se basant sur les principes de
Résonance Magnétique Nucléaire (RMN). Ainsi, elle permet de produire des
images anatomiques dans des plans multiples et qui peut fournir des informa-
tions sur la composition des tissus. Cette modalité d’imagerie est devenue un
outil de plus en plus important en médecine cérébrale ou dans la recherche
en neurosciences cognitives.
Un appareil d’IRM utilise un champ magnétique et des ondes radio pour
générer des images de diverses partie du corps, que nous ne pouvons pas voir
avec les rayons X, la tomographie et l’écographie.
1.2.2 Les composantes principales de IRM
Les scanners IRM ont considérablement évolués depuis les années 1980.
Un imageur est essentiellement constitué de cinq éléments fondamentaux :
• L’aimant.
• Les génératrices d’onde radiofréquence (RF).
• Les récepteurs d’ondes.
• Les bobines de gradient.
• L’unité de traitement.
5
Figure 1.1 – l’imagerie par résonance magnétique IRM
Ł’aimant est le composant le plus coûteux en imagerie par résonance
magnétique, il produit le champ B0 . Les bobines de gradient produisent un
gradient de champ B0 dans les directions X, Y et Z. La bobine RF produit
un champ magnétique B1 nécessaire pour la rotation des spins de 90◦ à 180◦ .
La bobine RF détecte également le signal des spins dans le corps humain. Le
patient est placé à l’intérieur de l’aimant où un ordinateur contrôle la table
du patient. La salle d’examen est entourée par un blindage [6] .
1.2.3 Principe de l’IRM
L’IRM se base sur les propriétés magnétiques des atomes composant les
molécules du corps humain. Elle se focalise plus précisément sur les molécules
d’hydrogène contenues dans l’eau qui compose notre corps à plus de 70%.
Le noyau d’hydrogène se comporte comme une charge en rotation autour
de son axe :
C’est le mouvement de spin. Les protons peuvent alors être assimilés à des
dipôles magnétiques. En l’absence de tout champ magnétique, ceux-ci vont
s’orienter dans l’espace de façon aléatoire. Ce mouvement confère au noyau
6
un moment cinétique qui dépend de sa masse et un moment magnétique qui
dépend de sa charge.
Dans un champ magnétique B0 , les protons s’orientent alors par rapport à
B0 et décrivent autour de ce champ un mouvement de précession (en forme de
cône), de vitesse angulaire constante. L’ensemble des protons s’orientent dans
le sens de B0 formant alors une sous-population de spins +1/2 ; l’ensemble
s’oriente dans le sens inverse formant la sous population de spins -1/2. La sous
population de spins +1/2 étant la plus importante, il existe une aimantation
résultante M0 proportionnelle au nombre de protons présents . M0 ne possède
qu’une composante longitudinale, dans le sens de B0 [7].
Figure 1.2 – Principe de IRM
1.2.4 Pondération et séquences des images IRM
Les paramètres de séquence sont les paramètres que le manipulateur fixe
sur la console pour définir la séquence IRM, Ils permettent de contrôler l’in-
fluence des différents paramètres tissulaires et de moduler ainsi le contraste
dans l’image.
En modifiant les paramètres d’acquisition, en particulier le temps de ré-
pétition entre deux excitations (TR) ou le temps entre le signal d’excitation
et la réception de l’écho (Temps d’Echo, TE). Le choix de l’ensemble des
7
paramétres est alors fonction de l’étude clinique a réaliser. On peut obtenir
des images pondérées en T1 , en T2 , en densité de protons ρ, etc [46].
[Link] Image pondérée en densité de protons(ρ)
Pour un TR long (de l’ordre de 2s) et un TE court (de l’ordre de 20ms), la
différence de densité protonique entre la matière grise et la matière blanche
s’exprime. On obtient une séquence qui reflète la localisation et la concen-
tration des noyaux d’hydrogène des différentes structures. On obtient une
séquence pondérée en densitée de protons ρ, qui refléte la localisation et la
concentration des noyaux d’hydrogéne des différentes structures. Les tissus
sont ordonnés par niveaux de gris croissants en matière blanche (MB), ma-
tière grise (MG) et liquide céphalo-rachidien (LCR)[8].
[Link] Image pondérée en T2
Pour des TR longs (de l’ordre de 2s) et des TE longs (environ 90ms)
est moins « agréable à l’œil », mais très informative sur la composition des
tissus (teneur hydrique principalement), la décroissance du signal domine
la différence de densité protonique entre tissus. Le signal est alors suffisant
pour réaliser une image dite pondérée en T2 , ou les tissus sont ordonnés par
niveaux de gris croissants en MB, MG, LCR [8].
[Link] Image pondérée en T1
Pour des TR de l’ordre de 600 ms, le contraste entre les tissus dépend
essentiellement de leur vitesse d’aimantation, donc de T1 . Pour des TE d’en-
viron 20 ms, les différences de décroissance du signal entre les tissus n’ont
pas le temps de s’exprimer, rendant le contraste indépendant de T2 . Ainsi,
on obtient une image pondérée en T1 , où les tissus sont ordonnés par niveaux
de gris croissants en liquide céphalo-rachidien, matière grise puis matière
blanche [8] .
8
Figure 1.3 – Différentes modalités d’images cérébrales IRM
(a) pondération T1 ; (b) pondération T2 ; (c) pondération en densité de
protons [8].
1.3 Anatomie cérébrale
1.3.1 L’encéphale
L’encéphale est constitué du tronc cérébral, du cervelet et du cerveau.
L’ensemble flotte dans un coussin protecteur de liquide céphalo-rachidien
(LCR). Le tronc cérébral est situé dans la fosse postérieure du crâne sous le
cerveau. Il représente un carrefour majeur du système nerveux central entre
le cerveau, en haut, le cervelet, en arrière et la moelle épinière en bas. Le
cervelet est le centre nerveux chargé de la coordination des mouvements.
C’est la deuxième plus grosse structure de l’encéphale après le cortex. Il est
issu de la partie dorsale du métencéphale et est relié au reste de l’encéphale
par les pédoncules cérébelleux. Le cerveau est constitué de deux hémisphères
séparés par un profond sillon médian. Les deux hémisphères sont reliés par
des faisceaux de fibres appelés commissures [6].
1.3.2 Les principaux tissus cérébraux
Le cerveau humain décompose en trois principaux types de tissus qui
sont la matière gris (MG), la matière blanche (MB) et le liquide céphalo-
rachidienne (CSF).
[Link] La matière blanche
La substance blanche est une catégorie de tissu du système nerveux cen-
tral, principalement composé des axones myélinisés des neurones. Elle consti-
tue la partie interne du cerveau et la partie superficielle de la moelle épinière.
9
La substance blanche contient les axones qui sont les prolongements des neu-
rones. Ces prolongements sont entourés d’une gaine de myéline et de cellules
de nature non nerveuse participant à la structure du tissu interstitiel neuro-
nal : la névroglie. Le rôle de la substance blanche est d’assurer la conduction
de l’influx nerveux .
[Link] La matiére grise
Composée essentiellement des corps cellulaires et de l’arbre dendritique
des neurones ainsi que de certaines cellules gliales. Elle apparaît plus foncée
que le reste du tissu car elle contient les noyaux des cellules. On retrouve de
la substance grise principalement au niveau du cortex cérébral, du cortex cé-
rébelleux, dans les noyaux gris centraux, et dans les noyaux du tronc cérébral
et à l’intérieur de la moelle épinière.
• Le cortex : recouvre la totalité du cerveau. Sa surface est importante
car il suit toutes les convolutions externes du cerveau, appelées sillons.
• Les noyaux de base : qui sont avec le cortex les seules structures de
substance grise du cerveau, sont également formés de corps cellulaires
neuroniques mais avec une densité moins importante que dans le cortex.
Ils sont composés des noyaux du télencéphale, ces noyaux sont appelés
les noyaux de base (ou corps strié), parmi eux, on distingue les noyaux
caudés et les noyaux [Link] 1-2 présente une coupe
axiale du cerveau.
Figure 1.4 – la substance blanche et la substance grise du cerveau
[11]
10
[Link] Le liquide céphalo-rachidien (CSF)
Le liquide céphalo-rachidien est une substance transparente constituée de
99% d’eau est contenu dans le Système nerveux central, dans deux zones
anatomiques bien distinctes. Le liquide céphalo-rachidien ou cérébro-spinal
entoure le cerveau et remplit les ventricules cérébraux Il permet de protéger
le cerveau des chocs en jouant un rôle d’amortisseur, et remplit des fonctions
importantes dans les échanges entre le sang et les tissus nerveux.
1.4 Tumeur cérébrale
Définition : Une tumeur cérébrale est une masse anormale qui est causé
par la multiplication accrue et non contrôlée de cellules. Une tumeur peut
être appelée lésion, néoplasme ou excroissance. On distingue deux grands
types des tumeurs cérébrales : tumeurs bénignes (n’est pas un cancer) et
tumeurs malignes.
1.4.1 Les tumeurs cérébrales bénignes
Ces tumeurs ne contient pas de cellules cancéreuses, elles sont constituées
de cellules qui croissent lentement, elles n’envahissent pas les tissus avoisi-
nants. Une tumeur cérébrale bénigne peut être soit simplement surveillée
radiologiquement, soit être extirpée chirurgicalement Complètement ou de
façon partielle. Si une tumeur bénigne n’est pas complètement enlevée, elle
peut récidiver [8].
1.4.2 Les tumeurs cérébrales malignes
Proviennent de cellules cancéreuses, elles envahissent les tissus avoisi-
nants et déplacent vers d’autres régions. Les tumeurs cérébrales malignes se
croissent rapidement et endommager des structures cérébrales importantes.
Toutes les lésions cérébrales métastatiques sont considérées comme malignes.
tableau I.1 compare les caractéristiques des tumeurs malignes et bénignes [9].
11
Tumeurs bénignes Tumeurs malignes
Bien limitée Mal limitée
Encapsulé Non encapsulé
Histologiquement semblable au Plus ou moins semblable au tissu
tissus d’origine(bien différenciée) d’origine
Cellules irrégulières(cellules can- Cellules irrégulières(cellules can-
céreuses) céreuses)
Croissance lente Croissance rapide
Refoulement sans destruction des Envahissement des tissus voisins
tissus voisins
Pas de récidive locale après exé- Exérèse complète difficile Réci-
rèse complète dive possible après exérèse suppo-
sée complète
PM% Pas de métastase Métastases
Table 1.1 – Comparaison entre tumeurs bénignes /malignes.
1.5 Différents types de tumeur cérébrale
1.5.1 Les gliomes
Tumeurs cérébrale qui se croissent à partir des structures de support du
système nerveux et des cellules gliales. Il existe de nombreux types de cellules
gliales qui travaillent pour développer plusieurs types de gliomes. La plupart
des tumeurs de cerveau sont des gliomes.
1.5.2 Les méningiomes
La plupart de temps, les tumeurs bénignes qui se développent aux dépens
des méninges, dans la boîte crânienne ou le long de la colonne vertébrale. La
majorité des méningiomes sont bénins, mais, quelques-uns cas isolés, on peu
noter que l’évolution est défavorable (bénin à malin).
1.5.3 Les neurinomes
Tumeurs le plus souvent bénignes (grade I dans la majorité des cas) qui
se développent à partir des gaines des nerfs périphériques, (appelées cellules
de Schwann). On trouve ces tumeurs au niveau des nerfs crâniens et des nerfs
périphériques de tout le corps. La tumeur la plus fréquente est le schwa nome
ou neurinome.
12
1.5.4 Les adénomes de l’hypophyse
Les adénomes de l’hypophyse sont des tumeurs bénignes. Cette tumeur
peut créer des troubles hormonaux ou parfois des troubles de la vue, ces
symptômes causés par la pression de la tumeur sur les régions cérébrales.
1.5.5 Les médulloblastomes
Tumeurs malignes localisées au niveau du cervelet touchent les enfants
surtout moins de 15 ans.
1.5.6 Les lymphomes
Les lymphomes sont des tumeurs affectant le système lymphatique. Un
lymphome primitif du SNC est une tumeur maligne rarement quant aux le
lymphome secondaire du SNC se manifestent généralement sous la forme
d’un envahissement des enveloppes du cerveau.
1.5.7 Les métastases
Tumeur constituées à partir de cellules cancéreuses qui se détachent d’une
première tumeur. Parfois ces tumeurs secondaires sont les premiers signes
d’une maladie. Métastases sont malignes et secondaires à une tumeur d’une
autre région du corps (poumon, sein, peau...). Des cellules cancéreuses migrent
vers cerveau empruntant la voie sanguine.
1.6 Diagnostique
Le diagnostique est un processus pour découvrir la nature, l’origine des
symptômes décrits et confirmer ou infirmer la présence d’une tumeur céré-
brale. L’une des méthodes pertinentes pour détecter les tumeurs cérébrales
est la segmentation de l’image médicale, qui est notre objectif principal dans
ce mémoire.
1.7 La segmentation de tumeur cérébrale
Pour aider a diagnostiquer les maladies tumorales, la planification théra-
peutiques et extraction de données, il est nécessaire de disposer d’une des-
cription dans la modélisation du cerveau humain, la localisation, le type et sa
segmentation de la tumeur, la description de son environnement anatomique
13
fonctionnel, des structures cérébrales internes et de leurs relations spatiales
à la tumeur, cette méthodologie représente à partir d’acquisitions IRM, de
structures cérébrales.
La segmentation d’images est un processus visant à décomposer une image
en un ensemble de régions - ou classes ou sous-ensembles homogènes au sens
d’un ou plusieurs critères [10].
Il existe deux grands types de méthode de segmentation :
• basées pixels de type classification (ex : EM, Fuzzy C-Means)
• basées modèles : modèles déformables 2D ou 3D.
1.8 Conclusion
Nous avons présenté dans ce chapitre les notions essentielles liées aux
principes d’acquisition des images médicales basé sur l’imagerie IRM qui la
modalité la plus utilisée par rapport aux autres puisque il est très utile pour
l’observation du cerveau. Nous avons présenté également les concepts liées à
l’anatomie du cerveau et les principales régions cérébrales qui ont une im-
portance dans l’examen.
Dans notre travaille nous intéressons aux techniques de l’apprentissage
en profondeur (Deep learning). Nous avons vu que le Deep learning permet à
l’ordinateur de créer des concepts complexes à partir de concepts plus simples.
Les détails font, l’objet du chapitre suivant.
14
Chapitre 2
Deep Learning- l’apprentissage profond
2.1 Introduction
L’intelligence artificielle est un domaine scientifique qui recherchant des
méthodes de solution des problèmes de complexité logique ou algorithmique
et plus généralement constitue dispositifs imitant ou remplaçante l’être hu-
main, mais Machine Learning (L’apprentissage automatique) est un champ
d’étude de l’intelligence artificielle qui utilisé les méthodes d’identification et
de mise en œuvre de systèmes et les algorithmes par lesquels un ordinateur
peut apprendre. Cette technologie présente de nombreux aspects de société :
de la recherche sur le Web au filtrage de contenu sur les réseaux sociaux en
passant par les recommandations sur les sites e-commerce, les produits de
consommation (appareils photo, Smartphones).
Le système d’apprentissage automatique est utilisé pour identifier les ob-
jets en images, transcrire le discours en texte, les messages ou les produits pré-
sentant les intérêts des utilisateurs et sélectionnez les résultats de recherche
pertinents. De plus en plus, ces applications utilisent une classe de techniques
appelées apprentissage profond (Deep Learning).
15
Figure 2.1 – La relation entre intelligence artificielle, Machine learning et
deep learning.
2.2 Deep-learning
Le deep learning ou apprentissage profond est un type d’intelligence arti-
ficielle dérivé du machine learning (apprentissage automatique), qui est une
nouvelle façon d’analyser une grande quantité de données, se rapprocherait
du cerveau humain et il va plus loin que la connexion entre les données et
les algorithmes puisqu’il permet à la machine d’apprendre et de progresser
grâce à son expérience où la machine est capable d’apprendre par elle-même.
Le DL, qui fait appel à la fois aux connaissances en neurosciences, aux ma-
thématiques et aux progrès technologiques, est aujourd’hui plébiscité comme
une véritable révolution dans le domaine de l’intelligence artificielle .
L’apprentissage en profondeur a la capacité d’extraire des caractéristiques
à partir des données brutes grâce aux multiples couches de traitement com-
posé de multiples transformations linéaires et non linéaires et apprendre sur
ces caractéristiques petites à petit à travers chaque couche avec une inter-
vention humaine minime.
Le deep learning a l’avantage de mieux traiter les concepts abstraits, ce
qui le différencie du machine learning, À l’ère du Big Data et de la collecte
massive de données, l’apprentissage profond est devenu une norme.
Ces étapes sont résumées dans le tableau suivant [12][13] :
16
L’année Contributeur Contribution
300 AC Aristotle -Introduction de l’associationnisme,début de
l’histoire des humains qui essayent de com-
prendre le cerveau.
1873 Alexander Bain -Introduction du Neural Groupings comme
les premiers modèles de réseaux de neurone.
1943 McCulloch et -Introduction du McCulloch Pitts (MCP)
Pitts modèle considérer comme L’ancêtre des ré-
seaux de neurones artificielle.
1949 Donald Hebb -Considérer comme le père des réseaux de
neurones, il introduit la règle d’apprentissage
de Hebb qui servira de Fondation pour les ré-
seaux de neurones modernes.
1958 Frank Rosen- -Introduction du premier perceptron.
blatt
1974 Paul Werbos -Introduction de la retro propagation.
1980 Teuvo Kohonen -Introduction des cartes auto organisatrices.
1980 Kunihiko Fuku- -Introduction du Neocognitron, qui a inspiré
shima les réseaux de neurone convolutif.
1982 John Hopfield -Introduction des réseaux de Hopfield
1985 Hilton et Sej- -Introduction des machines de Boltzmann
nowski
1986 Paul Smolensky -Introduction de Harmonium,qui sera connu
plus tard comme machines de Boltzmann res-
treintes
1986 Michael I. Jor- Définition et introduction des réseaux de
dan neurones récurrent .
1990 Yann LeCun -Introduction de LeNet et montra la capaci-
tés des réseaux de neurones profond
1997 Schuster et Pali- -Introduction des réseaux de neurones récur-
wal rent bidirectionnelles
1997 Hochreiter et -Introduction de LSTM, qui ont résolu le pro-
Schmidhuber blème du vanishing gradient dans les réseaux
de neurones récurrent .
2006 Geoffrey Hinton -Introduction des Deep Belief Network .
2009 Salakhutdinov -Introduction des Deep Boltzmann Machines
et Hinto
2012 Geoffrey Hinton -Introduction de AlexNet qui remporta le
challenge ImageNet
Table 2.1 – Le résumé de l’histoire de deep learning
[12][13]
17
2.2.1 Pour quoi le choix le Deep learning ? ?
Au cours des dernières années, l’apprentissage automatique a échoué ten-
tant de résoudre une grande variété de problèmes de l’intelligence artificielle
(l’IA) et pour cela il est apparu les différents algorithmes du deep Learning :
• Le développement des algorithmes traditionnels.
• les caractéristiques de façon automatique [13].
• De développer une grande quantité de données telle que les big data [14].
• De s’adapter à n’importe quel type de problème [14].
• de grandes quantités de données d’entraînement [15].
• efficace du système conjoint de bout en bout [16].
• apprendre à la fois sans surveillance et sous surveillance [16].
2.2.2 Exemples d’application de Deep Learning
[Link] La reconnaissance faciale
Les yeux, le nez, la bouche, tout autant de caractéristiques qu’un algo-
rithme de Deep learning va apprendre à détecter sur une photo. Il va s’agir
en premier lieu de donner un certain nombre d’images à l’algorithme, puis
à force d’entraînement, l’algorithme va être en mesure de détecter un visage
sur une image [17].
[Link] Traduction automatique
Il s’agit d’une tâche dans laquelle des mots, expressions ou phrases donnés
dans une langue sont automatiquement traduits dans une autre langue. La
traduction automatique existe depuis longtemps, mais Deep learning permet
d’obtenir les meilleurs résultats dans deux domaines spécifiques :
• Traduction automatique de texte.
• Traduction automatique d’images.
18
La traduction de texte peut être effectuée sans aucun traitement préalable
de la séquence, ce qui permet à l’algorithme d’apprendre les dépendances
entre les mots et leur correspondance avec une nouvelle langue [17].
[Link] Reconnaissance d’image
Un autre domaine populaire en matière de Deep Learning est la reconnais-
sance d’image. Son objectif est de reconnaître et d’identifier les personnes et
les objets dans les images, ainsi que de comprendre le contenu et le contexte.
La reconnaissance d’image est déjà utilisée dans plusieurs secteurs tels que
les jeux, les médias sociaux, la vente au détail, le tourisme, etc. Cette tâche
nécessite la classification des objets d’une photo parmi un ensemble d’ob-
jets connus auparavant. Une variante plus complexe de cette tâche, appelée
détection d’objet, consiste à identifier spécifiquement un ou plusieurs objets
dans la scène de la photo et à dessiner un cadre autour d’eux [17].
[Link] La description automatique d’image
Le sous-titrage automatique des images est la tâche pour laquelle le sys-
tème doit générer une légende décrivant le contenu de l’image. Une fois que
vous pouvez détecter des objets sur des photographies et générer des éti-
quettes pour ces objets, vous pouvez voir que l’étape suivante consiste à
transformer ces étiquettes en description de phrase cohérente. Généralement,
les systèmes impliquent l’utilisation de très grands réseaux de neurones convo-
lutifs pour la détection d’objets sur les photographies, puis d’un réseau de
neurones récurrent comme une mémoire à court terme à long terme pour
transformer les étiquettes en une phrase cohérente [17].
[Link] La détection du cancer du cerveau
Une équipe de chercheurs français a noté qu’il était difficile de détecter
les cellules cancéreuses du cerveau invasives au cours d’une intervention chi-
rurgicale, en partie à cause des effets de l’éclairage dans les salles d’opération.
Ils ont découvert que l’utilisation de réseaux de neurones conjointement
avec la spectroscopie Raman pendant les opérations leur permettait de dé-
tecter les cellules cancéreuses plus facilement et de réduire le cancer résiduel
après l’opération [17].
19
2.2.3 Les différentes Architectures du Deep Learning
L’apprentissage en profondeur est une technique à croissance rapide et de
nouvelles architectures, ou algorithmes apparaissent à chaque fois. Entre ces
architectures parmi eux :
[Link] Les réseaux de neurones convolutifs
Les réseaux de neurones convolutifs(CNN) sont un type de réseau de neu-
rones spécialisés pour le traitement de données ayant une topologie comme
à une grille. Qui se sont avérés très efficaces. Le reste de cette sujet nous
parlons en plus tard.
[Link] Réseau de neurones récurrents
Réseau de neurones récurrents est un type de Réseau de neurones artifi-
ciels qui traiter des données séquentielles, cette réseau est consiste d’unités
interconnectées interagissant non-linéairement et pour lequel il contient au
moins un cycle dans la structure. Le RNN est appelée récurrent puisque, il
exécute la même tâche pour chaque élément d’une séquence, la sortie étant
basée sur les calcules précédents.
Au cours des dernières années, un type de RNN est devenu la norme
grâce à ses excellentes performances sur des taches aussi nombreuses que va-
riées : les réseaux de neurones à base de cellules Long Short-Term Memory
(LSTM) [18]. Réseau de neurones récurrents sont Utilisées dans la reconnais-
sance vocale, la modélisation du langage et génération de texte, la traduction
automatique et la description des images. . . .
[Link] Modèle génératif
Si les modèles discriminatifs comme (CNN, RNN) sont utilisés pour pré-
dire les données du label et de l’entrée, tant disque le modèle génératif décrit
comment générer les données, il apprend et fait des prédictions en utilisant
la loi de Bayes [19].
Quelque exemples de modèle génératif comme : Deep Belief Networks [20],
Boltzmann Machines [21], Generative Adversarial Networks Generative Sto-
chastic Networks [22].
20
Figure 2.2 – Différents modèles du Deep Learning
[14]
2.3 Les réseaux de neurones convolutionnels
La plupart des modèles modernes d’apprentissage en profondeur s’ap-
puient sur des réseaux de neurones artificiels, en particulier le réseau neu-
ronal convolutionnel (CNN), c’est une puissante application de l’intelligence
artificielle (IA), au traitement des images qui se sont avérés très efficaces
dans des domaines tels que la reconnaissance et la classification d’images.
Les CNN ont réussi à identifier les visages, les objets, panneaux de circu-
lation et auto-conduite des voitures. Les réseaux de neurones à convolution
(CNN) sont une famille de réseaux profonds qui peuvent exploiter la struc-
ture spatiale des données (par exemple, des images) pour en savoir plus sur
les données, afin que l’algorithme puisse atteindre un objectif prédéfini tel
que l’identification des objets[23].
Les réseaux neurones convolutionnel es sont devenus très populaires après
2010 car ils ont surpassé toute autre architecture de réseau sur les données
visuelles.
Le réseaux de neurones convolutionnel (Convolutional Neural Network ou
ConvNet ou CNN) est un type de réseau de neurones artificiels acycliques
qui consistent en un empilage multicouche de perceptrons. Les CNN sont
considérés à ce jour les modèles les plus performants pour classer des images
21
dont le but est de prétraiter de petites quantités d’informations dans lequel
le motif de connexion entre les neurones est inspiré par le cortex visuel des
animaux. Les réseaux neuronaux convolutionnel ont de larges applications
dans la reconnaissance d’image et vidéo, les systèmes de recommandation et
le traitement du langage naturel.
Ils sont très utilisés dans le domaine de la vision par ordinateur.
Un réseau convolutif est un type de réseau de neurones feed-forward, il
a été inspiré par des processus biologiques elle fonctionne selon des étapes
La première partie d’un CNN est la partie convolutive. Une image est passée
à travers une succession de filtres, pour créer de nouvelles images appelées
cartes de convolutions.
Ces derniéres constituent la sortie de la partie convolutive qui est ensuite
branché en entrée d’une deuxième partie, constituée de couches entièrement
connectées (perceptron multicouche). Le rôle de cette partie est de combiner
les caractéristiques du code CNN pour classer l’image.
La sortie est une dernière couche comportant un neurone par catégorie.
Les valeurs numériques obtenues sont généralement normalisées entre 0 et 1,
de somme 1, pour produire une distribution de probabilité sur les catégories
[25].
Figure 2.3 – Exemple de réseau CNN .
[23]
22
2.3.1 Principe des réseaux de neurone convolutionnel
CNN est un réseau neuronal multicouche contenant la convolution, la
mise en commun, activation et couches entièrement connectées. Les couches
de convolution sont au cœur des CNN et sont utilisées pour l’extraction de
caractéristiques. L’opération de convolution peut produire différentes cartes
de caractéristiques en fonction des filtres utilisés. La couche de regroupement
effectue une opération de sous-échantillonnage en utilisant le maximum ou la
moyenne du voisinage défini comme valeur pour réduire la taille spatiale de
chaque carte d’entités. La couche rectifiée non linéaire (ReLU) et ses modifi-
cations telles que Leaky ReLU sont parmi les fonctions d’activation les plus
couramment utilisées[30][29], qui transforme les données en écrêtant toutes
les valeurs d’entrée négatives à zéro tandis que les valeurs d’entrée positives
sont passées en sortie. Les neurones d’une couche entièrement connectée sont
entièrement connectés à toutes les activations de la couche précédente. Ils
sont placés avant la sortie de classification d’un CNN et sont utilisés pour
aplatir les résultats avant qu’une prédiction ne soit faite à l’aide de classifica-
teurs linéaires. Lors de la formation de l’architecture CNN, le modèle prédit
les scores de classe pour les images de formation, calcule la perte en utilisant
la perte sélectionnée[28].
2.3.2 Les différentes couches de CNN
Il existe quatre couches principales opérations illustrées dans le CNN à
savoir :
[Link] La couche de convolution
La couche de convolution est la couche la plus importante de l’ensemble
du réseau neuronal et constitue toujours au moins leur première couche, c’est
un outil mathématique et la partie principale de cette couche est le filtre.
L’opération de convolution utilise un jeu de filtres, Son but est de repé-
rer la présence d’un ensemble de caractéristiques (Features) dans les images
reçues en entrée, très utilisé en retouche d’image, car il permet d’en faire
ressortir l’extraction descaractéristiques à partir des images d’entrées, afin
d’appliquer un bon filtre [14].
Une convolution prend simplement en entrée une image et un filtre, effec-
tue un calcul, puis renvoie une nouvelle image appelée une carte d’activation,
ou feature map [14].
23
Le filtre est caractérisé par une petite matrice de nombres (appelée noyau
ou filtre), cette matrice est passéesur l’image entrée à fin de la tansformer en
fonction des valeurs du filtre.
Les valeurs de carte d’activation suivantes sont calculées selon la formule
suivante :
G[m, n] = (f ∗ h)[m, n] [27]
Telle que f l’image entrée et h son filtre. Les valeurs m et n sont des
indices utilisés pour parcourir l’image.
Figure 2.4 – Couche de convolution
[Link] Nombre de filtre
Comme la taille des images intermédiaires diminue avec la profondeur
du traitement, les couches proches de l’entrée ont tendance à avoir moins
de filtres tandis que les couches plus proches de la sortie peuvent en avoir
davantage. Pour égaliser le calcul à chaque couche, le produit du nombre de
caractéristiques et le nombre de pixels traités est généralement choisi pour
être à peu près constant à travers les couches. Pour préserver l’information
en entrée, il faudrait maintenir le nombre de sorties intermédiaires (nombre
d’images intermédiaire multiplié par le nombre de positions de pixel) pour
24
être croissante (au sens large) d’une couche à l’autre. Le nombre d’images in-
termédiaires contrôle directement la puissance du système, dépend du nombre
d’exemples disponibles et la complexité du traitement [25].
[Link] format de filtre
Ils sont généralement choisis en fonction de l’ensemble de données. Les
meilleurs résultats sur les images de MNIST (28x28) sont habituellement
dans la gamme de 5x5 sur la première couche, tandis que les ensembles de
données d’images naturelles (souvent avec des centaines de pixels dans chaque
dimension) ont tendance à utiliser de plus grands filtres de première couche
de 12x12, voire 15x15. Le défi est donc de trouver le bon niveau de granularité
de manière à créer des abstractions à l’échelle appropriée et adaptée à chaque
cas [25].
[Link] Couches de correction (ReLU)
Acronyme de RectifiedLinear Unit (unité linéaire rectifiée), c’est fonction
d’activation utilisée après chaque opération de convolution, très couramment
utilisée. Elle remplace toutes les valeurs pixels négatifs sont mises à zéro [25].
La fonction Relu est interprétée par la formule :
f (x) = max(0, x)
il existe plusieurs fonctions d’activation comme La correction par tan-
gente hyperbolique, la correction par la fonction sigmoïde, la correction par
la tangente hyperbolique saturante. Cependant, la correction Relu est pré-
férable, car il en résulte la formation de réseau neuronal plusieurs fois plus
rapide, sans faire une différence significative à la généralisation de précision
[24].
25
Figure 2.5 – Fonction d’activation ReLU
[18].
[Link] La couche de d’union ( pooling)
Un autre outil très puissant utilisé par les CNN s’appelle le Pooling.
C’est une forme de sous-échantillonnage de l’image, qui consiste à réduire
progressivement la taille de l’image en ne gardant que les informations les
plus importantes.
Il existe plusieurs types de couches de pooling, tel que :
• Le « max pooling» qui revient à prendre la valeur maximale de la
sélection C’est le type le plus utilisé, car il est rapide à calculer (immé-
diat)[14].
• Le « meanpooling » soit la moyenne des pixels de la sélection : on
calcule la somme de toutes les valeurs et on divise par le nombre de
valeurs [14].
• Le « sumpooling », c’est la somme sans avoir divisé par le nombre de
valeurs (on ne calcule que leur somme) [14].
Nous nous focaliserons sur l’étude de la couche d’union par maximum,
car elle est dans de nombreux cas plus performante que la couche d’union
par moyenne. Dans ce cas on définit un voisinage spatial ; par exemple, une
fenêtre 2× 2 dans la carte de caractéristiques(featuremap)et de prendre le
plus grand élément dans cette fenêtre. La figure 2.6 montre un exemple d’un
filtre de max pooling de taille 2×2.
26
Figure 2.6 – Couche pooling(Max pooling)
[14]
La fonction de Pooling consiste à réduire progressivement la taille de la
carte de caractéristiques rectifiée,en particulier, pooling :
• Rend les représentations d’entrée plus petites et plus faciles à gérer [14].
• Réduit le nombre de paramètres et les calculs dans le réseau [[14].
• Rend le réseau invariant aux petites transformations, les distorsions et les
translations dans l’image d’entrée [14].
[Link] Couche entièrement connectée (FC)
Après plusieurs couches de convolution et de max-pooling, le maxrai-
sonnement de haut niveau dans le réseau neuronal se fait via des couches
entièrement connectées.
La couche entièrement connectée (Fullyconnected layer) est un tradition-
nel perceptron multicouche (Multi Layer Perceptron)Cette couche est utilisée
pour associer les différents motifs afin d’en déduire la classe. Comme son nom
l’indique, la matrice de connexion est entièrement connectée. Utilisant une
fonction d’activation notamment appelée « softmax » dans la couche de sor-
tie. Le terme «entièrement connecté» implique que chaque neurone dans la
couche précédente est connecté à chaque neurone sur la couche suivante. Le
but de la couche entièrement connectée est de pouvoir utiliser ces fonctions
pour classer l’image d’entrée dans différentes classes en fonction de l’ensemble
de données d’apprentissage.
27
Figure 2.7 – Couche entiérement connectées
2.3.3 Avantages de CNN
Un avantage majeur des réseaux convolutifs est l’utilisation d’un poids
unique associé aux signaux entrant dans tous les neurones d’un même noyau
de convolution. Cette méthode réduit l’empreinte mémoire, améliore les per-
formances et permet une invariance du traitement par translation. C’est le
principal avantage du CNN par rapport au MLP, qui lui considère chaque
neurone indépendant et donc affecte un poids différent à chaque signal en-
trant [26].
Les CNN sont particulièrement utiles pour trouver des motifs dans les
images afin de reconnaître des objets, des visages et des scènes. Ils ap-
prennent directement à partir des données d’image, en utilisant des modèles
pour classer les images et en éliminant le besoin d’extraction manuelle des
caractéristiques[31].
Les applications qui nécessitent la reconnaissance d’objets et la vision
par ordinateur - telles que les véhicules autonomes et les applications de re-
connaissance faciale - dépendent fortement des CNN. En fonction de votre
application, vous pouvez créer un CNN à partir de zéro ou utiliser un modèle
pré-entraîné avec votre jeu de données [31].
L’utilisation des CNN pour l’apprentissage en profondeur est devenue de
plus en plus populaire en raison de trois facteurs importants [31]
• Les CNN éliminent le besoin d’extraction manuelle des fonctionnalités -
les fonctionnalités sont apprises directement par le CNN [31].
• Les CNN produisent des résultats de reconnaissance de pointe[31].
28
• Les CNN peuvent être recyclés pour de nouvelles tâches de reconnaissance,
ce qui vous permet de vous appuyer sur des réseaux préexistants [31].
• Les CNN offrent la possibilité de calculer automatiquement des cartes de
caractéristiques (feqturemqps), évitant ainsi à l’utilisateur d’effectuer des cal-
culs de caractéristiques lourds .
2.4 conclusion
Dans ce chapitre, nous avons vu premièrement qu’est ce que le Deep Lear-
ning,et Pourquoi nous choisi le deep learning, ensuite nous avons mentionné
quelques application de deep learning dans la vie quotidiennes, nous avons
également parlé des trois familles majeurs de modèle a savoir les réseaux
convolutifs, les réseaux récurrents ainsi que les modèles généretifs.
Les progrès récents de la puissance de calcul et des techniques d’apprentis-
sage automatique ont conduit à l’émergence d’un type spécifique d’apprentis-
sage profond - les réseaux de neurones convolutifs à appliquer aux tâches de
reconnaissance d’images, nous avons parlé dans ce chapitre également des ré-
seaux de neurone convolutifs, nous avons expliquer tous d’abord les concepts
principaux de réseau de neurone à convolution (CNN), et aussi essayé défini
l’architecture utilisée, et les couches principaux,nous avons termine ce cha-
pitre par les avantages de CNN.
Dans le chapitre suivant, nous avons vu des méthode de segmentation des
tumeurs cérébrales basée sur les réseaux convolutif (CNN).
29
Chapitre 3
Etat de l’art sur les méthodes de
segmentation de la tumeur
3.1 Introduction
La segmentation d’images est au cœur de nombreux problèmes en ima-
gerie médicale, puisque bien souvent elle constitue la première étape d’un
véritable flux de traitements d’images [32]. Elle a pour objectif la détection
de tumeur cérébrale à partir des images IRM.
Ils existent plusieurs méthodes de détection de tumeur, par conséquence,
le choix d’une méthode de segmentation efficaceest une tache difficile. Dans
cette étude nous présentons un état de l’art sur quelques méthodes exis-
tantes pour la segmentation d’images cérébrales. Particulièrement, nous nous
intéresserons aux méthodes de segmentation entièrement automatiquesavec
Réseaux de neurones convolutionneles(CNN), ensuite, nous proposons un ta-
bleau comparative entre qui résume les avantages et les inconvénients de ses
méthodes en terme d’efficacité et robustesse, enfin nous fournissons par une
discussion de l’évolution et tendances futures dans le contexte de la segmen-
tation de la tumeur cérébrale par CNN.
30
3.2 Catégories des méthodes de segmentation
de tumeur à partir des images IRM
3.2.1 La Segmentation Manuel
La segmentation manuelle dépond sur la formation et à l’expérience du ra-
diologue car il utilise les informations multimodales présentées par les images
IRM avec différentes pondérations (tel que T1, T2 ou PD). Ainsi que des
connaissances anatomiques et physiologiques acquises.
Cette méthode est très laborieuse, qui implique normalement des pro-
cédures tranche par tranche, et les résultats reproductibles sont difficiles à
obtenir même par le même opérateur. Pour un essai clinique multimodal,
multi-institutionnel et longitudinal .
La segmentation manuelle est Largement utilisée pour évaluer les résultats
des autres méthodes (méthodes semi-automatiques et entièrement automa-
tiques).
3.2.2 Méthodes Semi-automatique
Les méthodes semi-automatiques nécessitent une interaction de l’utilisa-
teur à trois fins principales ; initialisation, intervention ou retour d’informa-
tion et évaluation[33].
Hamamci et al [34] ont proposé la méthode «Tumor Cut». Cette mé-
thode de segmentation semi-automatique nécessite que l’utilisateur dessine
le diamètre maximum de la tumeur sur les images IRM d’entrée. Suivit par
l’initialisation d’un automate cellulaire (CA). Cette méthode est un modèle
génératif, utilise des automates cellulaires pour obtenir une carte de proba-
bilité de tumeur. Cette approche vise à colbiner les résultats pour obtenir le
volume tumoral final en appliquant l’algorithmeséparément à chaque moda-
lité IRM ( T1, T2, T1-Gd et FLAIR).
Une autre méthode semi-automatique a utilisé approche de classification
[35]. Cette méthode utilise la machine vectorielle de support (SVM) pour
classer tous les voxels de la même image selon leur type de tissu.
Les méthodes semi-automatiques de segmentation des tumeurs cérébrales
est une tache qui ne prend pas un long-temps par apport aux méthodes
31
manuelles et ses résultats sont efficaces. Cependant, ils sont toujours sujets
à une variabilité intra et inter-évaluateurs / utilisateurs.
3.2.3 Méthodes de segmentation entièrement automa-
tique
Une méthode de segmentation entièrement automatique pour la segmen-
tation de la tumeur cérébrale est nécessaire pour une mesure efficace de l’éten-
due de la tumeur. Elle ne nécessite pas l’interaction de l’utilisateur mais elle
combine entre l’intelligence artificielle et les connaissances préalables pour ré-
soudre le problème de segmentation. Dans cette étude, nous pouvons indiquer
quelques développements de cette méthode dans le contexte de l’apprentis-
sage supervisé basé sur les réseaux de neurones artificiels :
[Link] Basée sur les réseaux de neurones artificiels
Même si l’IRM est vue commela meilleur technique et la plus utilisé dans
le diagnostic du cerveaux, la caractérisation de l’anomalie à partirdes images
IRM cérébrale reste un problème difficile. Ainsi, un instrument robuste et
fiable devrait être établit pour automatiser l’identification de la tumeur dans
le but qu’une détection et une division exactes du tissu anormal soient réa-
lisables.
N. Arunkumar et al [36] ont présenté une nouvelle méthode de segmen-
tation des tissus cérébraux àpartir des images IRM. L’approche de segmen-
tation et de classification proposé par N. Arunkumar et al[36] implique les
étapes suivantes : Initialement, l’enrichissement d’images, il s’agit de la pre-
mière étape de prétraitement des images pour laquelle une transformée de
Fourier a été utilisée permettant de convertir des signaux en éléments de leur
fréquence spectrale, et pour supprimer le bruit en supprimant les sous-bandes
haute fréquence. Le résultat finale sont des images améliorées.
Ensuite, après l’enrichissement d’images, une segmentation initiale est
appliquée qui sépare les région d’interet (ROI) de l’image IRM appelé seg-
mentation formable (binaire), le processus de segmentation formable a été
utilisée pour binariser l’image.
La phase de la segmentation d’image (segmentation entraînable)est di-
visé en plusieurs étapes, premièrement, l’extraction de fonctionnalités : les
objets dans une image peuvent être identifiés avec le descripteur de caracté-
ristiques appelé histogramme des gradients orientés (HOG), Cette méthode
32
est conçue pour quantifier les occurrences d’orientation de gradient dans les
sections d’image localisées.
Après l’extraction des caractéristiques, le classifieur pourrait apprendre
automatiquement les distributions d’informations réelles sans aucune infor-
mation préalable supplémentaire, mapper les informations qui sont les carac-
téristiques des images IRM vers leurs types de tissus probables. En plus de
la formation, les images de test sont classées par le modèle ANN formé.
Finalement, et après la segmentation d’image formable doit faire un étape
plus importantqui est le filtrage des objets non cérébraux (signe de l’histo-
gramme pour identifier le retour sur investissement). L’objectif principal de
ce filtrage est de filtrer ces objets non cérébraux, car après la segmentation
formable ontrouve des objets non cérébraux se comportant de manière ana-
logue à ROI, Par conséquent, un schéma entièrement automatisé vise à filtrer
ces objets non cérébraux pour extraire le retour sur investissement sur la base
de la circularité, de la surface et de la moyenne de l’échellede gris.
Figure 3.1 – Résultats de la segmentation
Pour vérifier en outre la capacité de la stratégie proposée à extraire la
tumeur cérébrale de manière évidente et précise avec une grande efficacité,
l’ensemble de données de test est exécuté qu’auparavant. Le principal défi
dans la segmentation de l’image médicale IRM est l’homogénéité entre les
parties du cerveau. Cela influence le stade de segmentation très complexe en
raison de l’incapacité de reconnaître les tissus sains et les tissus cancéreux.
En dépit de ces limitations, la stratégie proposée a extrait avec précision la
tumeur même en présence d’un chevauchement critique entre les tissus sains
et les tissus cancéreux.
33
[Link] Basée sur des auto-encodeurs visant à segmenter des ré-
gions de signal
Panagiotis Korfiatis et al [37] ont présenté une approche basée sur des
auto-encodeurs convolutifs qui segmentent des régions d’intensité de signal
accrue sur des images FLAIR .
L’ensemble de données de compétition BRATS 2015 (N 186) et un en-
semble de données de gliome collectées localement (N 135) ont été utilisé.
Tous les scans ont été soumis (par les auteurs BRATS) aux étapes de pré-
traitement suivantes : stripping du crâne, recalage des imagessur le même
plan anatomique et interpolation à une résolution de voxel de 1mm3 .
L’ensemble de données collectées localement, le décapage du crâne a été
effectué en utilisant une technique basée sur l’atlas, cette étape n’était pas né-
cessaire pour l’ensemble de données BRATS, car le décapage du crâne était
effectué. Pour les ensembles de données BRATS et locaux, une correction
du biais N4 (21) a été appliquée suivie d’une standardisation d’intensité de
Nyúl (22). L’étape de correction du biais N4 a été utilisée pour corriger l’ho-
mogénéité d’intensité et les artéfacts présents en IRM. Le concept principal
est que l’auto-encodeur apprend à reconstruire la sortie souhaitée segmentée
(à savoir, le masque de segmentation). La couche codeur se compose de 7
couches convolutives. Les convolutions sont utilisées pour produire les cartes
de caractéristique a fin de reconstruire la sortie souhaitée segmentée (à sa-
voir, le masque de segmentation). Pour tester les performances de ce modèle,
un ensemble de données accessible au public pour former et tester les auto-
encodeurs est utilisé, et la précision a été évaluée sur un ensemble de données
où 3 segmentations d’experts. L’algorithme d’estimation simultanée de la vé-
rité et du niveau de performance (STAPLE) a été utilisé pour fournir la vérité
terrain à des fins de comparaison, Pour l’évaluation, les ,esuressuivantes ont
été utilisé : Dice, le coefficient de Jaccard, la fraction vraie positive et la
fraction faux négatif (FPF)ont été calculés.
Le tableau suivant représente comparaison entre les propositions Méthode
et 3 segmentations manuelles Disponible avec l’algorithme STAPLE :
34
Mesure Utilisateur Utilisateur Utilisateur proposé
1 2 3
Jaccard 0.923 0.840 0.758 0.785
Dice 0.959 0.911 0.861 0.876
FPF 0.079 0.198 0.190 0.291
TPF 0.993 0.996 0.899 0.995
Table 3.1 – Résultat de la comparaison.
Cette méthode la pire , la source d’erreur importante dans cette approche
était due à un mauvais décapage du crâne. Les données BRATS avaient un
stripping précis du crâne confirmé par l’opérateur ; ainsi, l’algorithme avait
cela inclus dans son modèle. Cependant, a été utilisé que des méthodes en-
tièrement automatisées, de sorte que le nettoyage humain du stripping du
crâne était absent et a abouti à ce que de nombreuses régions non cérébrales
soient étiquetées comme tumorales. Cette approche pourrait bénéficier d’un
algorithme de décapage du crâne plus robuste.
[Link] Basés sur U-Net
Hao Don et al [38] Ont présentée une détection et une segmentation en-
tièrement automatiques des tumeurs cérébrales utilisant les réseaux à convo-
lution profonde basés sur l’architecture U-Net. C’est un modèle pré-entraîné
basé sur les expériences sur un ensemble de données d’analyse comparative
bien établi (BRATS), qui contient des patients avec des tumeurs de type
HGG et LGG.
En outre, ils ont appliqué une fonction de perte basée sur les dés «souples»
introduite dans [39]. Le Soft Dice basé la fonction de perte qui a été utilisé
comme fonction de coût du réseau. Cette fonction a avantage unique qui
est adaptatif aux échantillons déséquilibrés, qui est très important pour la
segmentation des tumeurs cérébrales. L’architecture réseau qui est basée sur
l’U-Net, consiste en un sous-échantillonnage (codage) et un chemin de sur
échantillonnage (décodage), comme indiqué sur la figure 3.2.
Hao Don et al [38] ont présentons dans cette méthode les étapes qui
impliquent. Dans la première étape dans les deux sens (échantillonnage, sur-
échantillonnage). Le chemin de sous-échantillonnage a 5 blocs convolutifs.
Chaque bloc a deux convolutifs couches avec une taille de filtre de 3 × 3,
pas de 1 dans les deux sens et activation du redresseur, qui augmentent
35
le nombre de cartes d’entités de 1 à 1024. Pour le sous-échantillonnage, le
pooling max avec foulée 2 × 2 est appliqué à la fin de chaque bloc sauf le
dernier bloc, Ainsi, la taille des cartes de caractéristiques passe de 240 × 240
à 15 × 15. Dans le chemin de sur échantillonnage, chaque bloc commence
par une couche déconvolutionnelle avec une taille de filtre de 3 × 3 et un
pas de 2 × 2, ce qui double la taille des cartes d’entités dans les deux sens
mais diminue le nombre des cartes d’entités par deux, de sorte que la taille
des cartes d’entités passe de 15 ×15 à 240 × 240. Dans chaque bloc de sur
échantillonnage, deux couches convolutives réduisent le nombre de cartes des
caractéristiques de la concaténation des cartes des caractéristiques déconvo-
lutionnelles et des cartes des caractéristiques à partir du chemin de codage.
Différent de l’architecture U-Net originale [40], nous utilisons zéro padding
pour conserver la dimension de sortie pour toutes les couches convolutives
des deux sous-échantillonnages et chemin de sur échantillonnage. Enfin, une
couche convolutives 1 × 1 est utilisée pour réduire le nombre d’entités corres-
pond à deux qui reflètent la segmentation de premier plan et d’arrière-plan
respectivement. Aucune couche entièrement connectée n’est appelée dans le
réseau.
Figure 3.2 – Architecture U-Net développée.
Cette méthode a utilisé la mesure Dice Similarité Coefficient (DSC) pour
évaluation de la segmentation des tumeurs HGG et LGG tell que : HGG 0.88
et LGG 0.84. Le DSC fournit la mesure de chevauchement entre le cerveau
délimité manuellement.
36
[Link] Segmentation en IRM multi spectrale utilisant(CNN)
La communauté de recherche en imagerie médicale applique CNN pour
la segmentation et classification pour extraire les maladies et les domaines
d’intérêt. Sajid Iqbal et al [4] ont proposé une nouvelle méthode entièrement
automatique.
Cette approche dépond sur trois étapes majeures : le prétraitement des
données, formation du réseau et génération de prédictions basées sur l’en-
semble de données de test. Ce travail étend l’architecture de réseau neuro-
nal proposée par Badrinarayanan et al [45] pour la segmentation d’images
contextuelles. Trois différentes architectures(les modèles) de réseau, notam-
ment Interpolâtes Network, Skip-Net, SE-Net sont proposés. Les trois se
composent d’une architecture de décodeur et d’encodeur. La première étape
applique une série de techniques de prétraitement de donnée avant d’alimen-
ter CNN, à la deuxième étape ils ont utilisée l’opération max pooling dans
les deux premiers réseaux proposés pour réduire les cartes de fonctionnalités
encodeur à la moitié de la taille spatiale, ensuite ils ont utilisée la couche de
dé-convolution Caffe pour décodeur est effectué Le sur échantillonnage par
conséquence les cartes d’entités sur échantillonnées sont concaténées avec
cartes de caractéristiques extraites du bloc d’encodeur correspondant. En-
suite, ils ont utilisée la normalisation et les couches ReLU comme unité de
base dans L’encodeur. Enfin ils ont ajouté des couches de normalisation par
lots après chaque convolution Pour garder la stabilité des gradients convolu-
tifs et une formation fluide.
Cette méthode a été évaluée à plusieurs expériences avec chaque modèle
(Interpolâtes Network, Skip-Net, SE-Net) : Sur les données LGG unique-
ment, puis formation sur les données HGG uniquement et enfin, formation
sur les données combinées (HGG et LGG).
Le tableau suivant représente la comparaissant entre le modèle proposé :
37
Figure 3.3 – Tableau de comparaissant entre les modèle
La méthode de multi spectrale a été classée la meilleures que de nombreux
ouvrages publiés. Apré le tableau Le troisième modèle a réalisé mieux que
le deuxième modèle proposée et cette dernière et a mieux performé que le
premier modèle.
[Link] La segmentation a l’aide de CNN
Sérgio Pereira et al [41] a proposé une méthode de segmentation auto-
matisée basée sur des réseaux de neurones convolutifs (CNN) qui étudie la
possibilité d’utiliser des structures profondes avec de petits noyaux convolu-
tifs ou filtres pour segmenter les gliomes dans des images IRM. Il a suggéré
d’utiliser 3 × 3 petits noyaux pour obtenir des CNN plus profonds. Avec des
noyaux plus petits, des couches plus convolutives peuvent être empilées.
Cette méthodes comportes trois étapes principales : le prétraitement, la
classification via CNN et le post-traitement :
dans l’étape de prétraitement consistant à la correction du champ de
biais, l’intensité et la normalisation du patch. Après cela, pendant l’entraîne-
ment, le nombre des entrées d’entraînement est artificiellement augmenté en
leurs faisant pivoter et en utilisant des échantillons de HGG pour augmen-
ter le nombre de classes LGG rares. Le CNN est construit sur des couches
convolutives avec de petits noyaux 3×3 pour permettre une architectures
plus profonde.
En concevant cette méthode, l’hétérogénéité induite par l’obtention de
scanners multi-sites pour les images IRM est traitée en utilisant la normali-
sation de densité comme suggéré par Nyúl et al [42]. Les tumeurs cérébrales
38
sont très variables dans leur emplacement spatial et leur composition struc-
turelle, de sorte qu’une enquête a été menée sur l’utilisation de données aug-
mentatives pour traiter cette variation. L’augmentation a été étudiée dans
des données d’entraînement spécifiques cartographiées par rotation de points
ainsi que dans les classes d’échantillonnage HGG qui étaient sous-représentées
dans le LGG. Il a été souligné que l’augmentation des données est également
efficace, bien qu’elle n’ait pas été pleinement explorée dans les méthodes
d’apprentissage en profondeur pour la segmentation des tumeurs cérébrales.
De plus, le potentiel des structures profondes sur de petits noyaux a été étu-
dié en comparant cemodèle CNN profond à des constructions peu profondes
avec des filtres plus grands. Les architectures de surface se sont révélées peu
performantes même lorsque davantage de panneaux de caractéristiques sont
utilisés. Enfin, il a été vérifié que la fonction d’activation de LReLU était
plus importante que ReLU pour former efficacement CNN.
la méthode proposée a été validée dans la base de données Brain Tu-
mor Segmentation Challenge 2013 (BRATS 2013), obtenant simultanément
la première position pour les régions complètes, principales et améliorées dans
la métrique Dice Similarity Coefficient (0,88, 0,83, 0,77) pour l’ensemble de
données du défi. En outre, il a obtenu la première position globale sur la pla-
teforme d’évaluation en ligne. cette méthode a également participé au défi
BRATS 2015 sur site en utilisant le même modèle, obtenant la deuxième
place, avec une métrique de coefficient de similarité de dés de 0,78, 0,65 et
0,75 pour les régions complète, principale et d’amélioration, respectivement.
39
3.3 Analyse comparative
La méthode L’auteur Les avantages Les inconvénients
Panagiotis • Les caractéristiques • Échec inexact
Korfiati sont apprises direc-
Segmentation
Et al tement à partir des
basée sur
[37] images sans avoir
des auto-
besoin de techniques
encodeurs
d’extraction de carac-
visant à seg-
téristiques spéciales.
menter des
régions de
• Utile pour réduire la
signal
variabilité inhérente à
l’identification des tu-
meurs humaines.
N. • La tumeur est extraite • La segmentation in-
Arun- avec précision même en exacte car ellene donne
Segmentation
kumar présence d’un chevau- pas toujours des résul-
Basée sur
et al chement critique entre tats précise.
les réseaux
[36] les tissus sains et can-
de neurones
céreux.
artificiels
Sérgio • Rapide et efficace -
.segmentationa Pereira
l’aide de CNN et al
dans IRM [41]
Sajid • structure de réseau • les gradients convolu-
Iqbal et est petite, rapide et tifs peuvent facilement
segmentation
al [4] moins exigeant en mé- exploser ou disparaître
en IRM multi
moire. après quelques itéra-
spectrale uti-
• résultats prometteurs tions d’entraînement.
lisant(CNN)
et réalisables.
Hao • segmentation efficace • Déformation légère-
Don et et robuste. ment la forme globale
Segmentation
al [38] • générationd’un mo- de la tumeur dans le
basée sur ba-
dèle de segmentation de sens horizontal.
sés sur U-Net
tumeur cérébrale spé- • difficulté de suréqui-
.
cifique au patient sans per un réseau avec une
une interférence ma- grande quantité de for-
nuel. 40 mation les données.
Table 3.2 – Comparaison des résultats obtenus par différents algorithmes
3.4 Orientations futures
Malgré la grande influence des techniques d’apprentissage en profondeur
dans l’imagerie par résonance magnétique quantitative du cerveau, il est en-
core difficile d’obtenir une méthode générale qui soit robuste pour toutes les
formes d’images IRM cérébrales provenant de différentes institutions et ap-
pareils IRM.
les architectures CNN ont tendance à surpasser les algorithmes d’appren-
tissage automatique avancés traditionnels et à devenir plus matures. L’ana-
lyse d’images cérébrales a toujours été un défi majeur pour les techniques
assistées par ordinateur en raison de l’anatomie cérébrale complexe et de la
variété de son apparence, des échelles RM non standard en raison de la diver-
sité des protocoles d’imagerie, du manque d’acquisition d’images et de la pré-
sence de pathologie. Par conséquent, des techniques plus générales telles que
l’apprentissage en profondeur qui manipuleraient manipulent ces variables
sont nécessaires.
Les réseaux de neurones convolutifs (CNN) ont l’avantage d’apprendre au-
tomatiquement des caractéristiques complexes représentatives pour les tissus
cérébraux sains et les tissus tumoraux directement à partir des images IRM
multimodales. Les améliorations et modifications futures des architectures
CNN et l’ajout d’informations complémentaires provenant d’autres modali-
tés d’imagerie telles que la tomographie par émission de positrons (TEP),
la spectroscopie par résonance magnétique (MRS) et l’imagerie par tenseur
de diffusion (DTI) pourraient améliorer les méthodes actuelles, conduisant
à terme au développement de méthodes de segmentation automatique du
gliome cliniquement acceptables pour un meilleur diagnostic.
3.5 Conclusion
Dans ce chapitre, nous avons proposé un état de l’art, nous avons présenté
une revue des méthodes de segmentation des tumeurs cérébrales basées sur
l’IRM, la segmentation automatique à l’aide de méthodes d’apprentissage en
profondeur, nous avons présenté les différentes architectures de segmenta-
tions et algorithmes de détection et de classification des tumeurs.
Différentes techniques donnent des résultats différents en termes de pré-
cision, d’efficacité, de sensibilité et de localisation de la tumeur. Malgré la
grande influence des techniques d’apprentissage en profondeur dans l’imagerie
41
par résonance magnétique quantitative du cerveau, il est encore difficile d’ob-
tenir une méthode générale qui soit robuste pour toutes les formes d’images
IRM cérébrales.
42
Chapitre 4
Un modèle CNN de segmentation
sémantique pour la détection des
tumeurs cérébrales
4.1 Introdution
Au fur et à mesure que les techniques d’apprentissage en profondeur se
développent avec des architectures plus sophistiquées et complexes. Et avec
la difficulté de former ces modèles avec les ensembles de données disponibles
dans le domaine médical en raison de leur taille limitée, de leur variabilité
ou de l’absence de segmentation de la vérité terrain. Il existe un fort besoin
de concevoir des architectures plus simples mais puissantes capables de gé-
rer avec succès le problème de la segmentation des tumeurs cérébrales. Pour
atteindre cet objectif, nous présentons dans ce chapitre un modèle d’appren-
tissage profond basé sur CNN inspiré de la conception des auto-encodeurs
qui prend en entrée une coupe IRM et produit son masque de segmentation
correspondant.
4.2 Approche proposée
Pour créer un modèle d’apprentissage en profondeur, un série de taches
doit être construite à partir de la collecte de données, traitement des données,
construction du modèle, apprentissage et l’évaluation jusqu’à la prédiction
finale. Dans ce travail, nous proposons de suivre les étapes suivantes présenté
dans la figure 4.1 .
43
Figure 4.1 – Pipeline proposé.
Chaque étape sera présentée et expliquée en détail dans la suite de ce
document. Tout d’abord, nous commençons par donner une brève description
des données, qui constituent la pierre angulaire de toute solution basée sur
l’apprentissage en profondeur.
4.2.1 Collecte de données
Nous avons utilisé des images IRM de l’ensemble de données BRATS
2015. L’ensemble de données comprend à quatre modalités d’imagerie RM
(deux variantes de séquences pondérées en T1, pondérées en T2 et FLAIR)
avec deux types de tumeurs cérébrales à savoir : HGG et LGG. Dans ce
travail, nous avons choisi de travailler avec des séquences IRM pondérées en
T2 car ce type de séquence améliore la visualisation de la tumeur. De plus,
nous nous sommes concentrés sur la détection des tumeurs HGG. La figure
ci-dessous montre quelques coupes des images utilisées avec leurs masques de
segmentation correspondants.
44
Figure 4.2 – coupes axiales de séquences IRM pondérées en T2 avec leurs
masques de segmentation correspondants
4.2.2 Prétraitement des données
L’ensemble d’images BRATS contient 220 volumes trois dimensionnels
RM pondérés en T2. Initialement, tous les T2 ont la taille de 240 * 240 avec
un nombre de coupe égal à 155. Toutes les images sont déjà enregistrées
sur le même système de coordonnées et toutes ont le crâne dépouillé. Par
conséquent, un prétraitement mineur est nécessaire.
[Link] Préparation des images d’entrée
Pour une efficacité de calcul, toutes les images ont été rééchantillonnées à
la taille de 128 * 128. Après cela, un recadrage a été appliqué aux images pour
ne conserver que la région du cerveau. Cela a été suivi d’une concaténation
de toutes les coupes des image pour former un ensemble d’images de taille
128 * 128 * 34100. De plus, toutes les tranches vides (n’ayant qu’un arrière-
plan) ont été supprimées, réduisant la taille de l’image définie à 16114 images
chacune de taille 128 * 128.
[Link] Traitement des masques d’image
Le masque de segmentation contient un total de cinq classes de tissus,
à savoir : fond, noyau nécrodique, œdème, tumeur non rehaussée et tumeur
rehaussée. La distribution de chaque classe avec son nombre de pixels corres-
45
pondant est indiquée dans l’histogramme présenté à la figure 4.3. Cependant,
dans ce travail et comme dans tout les autres travaux se basant sur l’ensemble
BRATS 2015, nous nous concentrons sur trois classes principales de tumeurs,
à savoir : la tumeur en entier (l’étiquette de classe est 0, formée par les quatre
classes de la tumeur), noyau nécrodique (l’étiquette de classe est 1) et tumeur
rehaussée, identifiée par l’étiquette de classe 4.
Figure 4.3 – Distributions de classe par classe de tissu
Un prétraitement similaire a été appliqué aux masques de segmentation.
De plus, tous les masques étaient codé par une matrice de 128 * 128 * 5
où chaque sous-matrice est un masque binaire pour la classe de tissu i (i =
0,. . . , 4). La figure ci-dessous montre un exemple de codage d’un masque de
segmentation.
46
Figure 4.4 – Exemple de codage pour un masque de segmentation
4.2.3 Architecture CNN proposée pour la segmentation
sémantique
Dans ce travail, nous proposons un modèle de segmentation pixel par
pixel. Ce processus est appelé segmentation d’image sémantique. Autrement
dit, au lieu de faire une seule prédiction de pixel à chaque itération. La
segmentation sémantique permet de donner le masque de segmentation pour
toute l’image d’entrée. Pour ce faire, nous utilisons une architecture CNN
composée de deux parties : un encodeur et un décodeur. La figure 4.5 suivante
présente un aperçu de l’architecture proposée.
47
Figure 4.5 – Un aperçu du modèle CNN proposé pour la segmentation
sémantique des tumeurs cérébrales
Les détails de chaque couche (nombre de filtres et taille des cartes d’en-
tités) sont décrits ci-dessous en considérant chaque partie du modèle séparé-
ment.
4.2.4 Partie codeur
La figure 6 montre les détails de chaque couche. La partie encodeur est
composée de plusieurs couches convolutives qui visent à extraire progressi-
vement plus de caractéristiques spécifiques à l’image en passant de représen-
tations de bas niveau dans les premières convolutions à des représentations
de haut niveau dans des convolutions plus profondes. Au fur et à mesure
que l’architecture va plus loin, nous augmentons le nombre de filtres par
convolution pour permettre d’extraire les caractéristiques nécessaires. Les
composants suivants forment la partie encodeur :
La partie codeur se compose a 6 couche de convolution avec la fonction
d’activation ReLU (entre les deux couche, suivis de couche de drop-out et la
dernière couche de convolution connecté au chemin décoder), et 3 couches de
normalisation (la première couche suivis de couche de convolution et les reste
suivis de couche de max pooling). La couche max poolingest une opération
qui permet réduire la taille d’image.
48
4.2.5 Partie décodeur
Le décodeur prend les cartes de caractéristiques de faible dimension conte-
nant des représentations de haut niveau produites par l’encodeur et les traite
avec des convolutions successives et des couches de sur-échantillonnage afin
de reproduire la même résolution des images d’entrée et en même temps créer
des cartes de segmentation. Lorsque les couches de convolution atteignent la
sortie, nous diminuons le nombre de filtres par convolution. À la dernière
couche, nous nous retrouvons avec une couche de convolution avec le nombre
de classes souhaité. Les composants suivants forment la partie décodeur :
Dans cette partie, nous remplaçons les couches de max poolingpar des
opérateurs de sur échantillonnage (cauche de up-sampling) qui permettent
d’agrandir la taille image. suivi de 4 couches convolution transposée sur-
échantillonne (cauche de concatenate) qui augmentent la profondeur et de 4
couches de convolution qui réduire la profondeur, entre ces couches , il ya des
liens nommé drop-out [Link] couche finale softmaxest utilisée pour
faire correspondre chaque pixel à sa classe (dans ce cas, il s’agit des 5 types
de tissue).
4.2.6 Lien de saut
Lors du passage d’une couche convolutionnelle à une couche plus pro-
fonde pour une extraction plus détaillée, les caractéristiques de bas niveau
peuvent être perdues. Pendant le sur-échantillonnage dans la partie décodeur,
le modèle CNN peut utiliser des caractéristiquessupplémentaires de la par-
tie encodeur pour reconstruire correctement la sortie. Ceci peut être réalisé
en utilisant des liens de saut qui permettent de relier les cartes de caracté-
ristiques de sortie de la partie encodeur à l’entrée des couches convolutives
dans la partie décodeur. Dans ce travail, nous choisissons de lier la sortie
des couches convolutives du codeur à l’entrée des couches convolutives du
décodeur en utilisant l’opération de concaténation.
Cette opération permet de concaténer des cartes de caractéristiques à la
fois du codeur et du décodeur à un certain point suivant le nombre de canaux.
De telle sorte que, si l’entrée de la couche convolutive d’un décodeur est de
taille (taille de lot, 64,64, 64) et la sortie dans un décodeur est (taille de
lot, 64,64,128) alors le résultat de la concaténation est une matrice de taille
(taille du lot, 64,64,192). Dans ce travail, nous avons utilisé quatre liens de
saut.
49
Figure 4.6 – Architecture CNN proposée
50
4.2.7 Environnement d’implémentation
L’implémentation de modèles d’apprentissage en profondeur nécessite du
matériel sophistiqué. Par conséquent, le modèle CNN de segmentation sé-
mantique proposé a été implémenté et évalué sur un système d’exploitation
Windows 64 bits, un processeur Intel (R) core i7 (2,80 GHz) avec 16 Go de
RAM et une carte GPU GEFORCE GTX 1050Ti avec 4 Go de mémoire. En
outre, le prétraitement des données, la visualisation et la mise en œuvre de
l’approche proposée ont été effectués à l’aide du langage de programmation
Python avec l’API Keras exécutant tensorflow en tant que backend.
Python est le langage de programmation le plus utilisé dans le domaine
du Machine Learning, du Big Data et de la Data Science, Il est doté d’un ty-
page dynamique fort, d’une gestion automatique de la mémoire par ramasse-
miettes et d’un système de gestion d’exceptions ; il est ainsi similaire à Perl,
Ruby, Scheme, Smalltalk et Tcl. Le langage Python est placé sous une licence
libre proche de la licence BSD5 et fonctionne sur la plupart des plates-formes
informatiques, des smartphones aux ordinateurs centraux, de Windows à
Unix avec notamment GNU/Linux en passant par macOS, ou encore An-
droid, iOS, et peut aussi être traduit en Java ou NET. Il est conçu pour
optimiser la productivité des programmeurs en offrant des outils de haut ni-
veau et une syntaxe simple à utiliser Depuis quelques années, ce langage de
programmation s’est hissé parmi les plus utilisés dans le domaine du déve-
loppement de logiciels, de gestion d’infrastructure et d’analyse de données.
TensorFlow est l’un des outils les plus utilisés en intelligence artificielle
dans le domaine de l’apprentissage machine. Il est conçu pour rationaliser le
processus de développement et d’exécution d’applications d’analyse avancées
pour les utilisateurs tels que les scientifiques des données, les statisticiens
et les modélisateurs pré[Link] gère les ensembles de données qui
sont mis en réseau sous forme de nœuds de calcul sous forme de graphique.
Les arêtes qui relient les nœuds dans un graphe peuvent représenter des
vecteurs multidimensionnels ou des matrices, créant ce que l’on appelle des
tenseurs.
Keras est une API de réseaux de neurones de haut niveau, écrite en Py-
thon et interfaçable avec TensorFlow, CNTK et Theano. Conçue pour per-
mettre une expérimentation rapide avec les réseaux de neurones profonds,
elle se concentre sur son ergonomie, sa modularité et ses capacités d’exten-
sion. Elle a été développée dans le cadre du projet ONEIROS (Open-ended
Neuro-Electronic Intelligent Robot Operating System).
51
4.2.8 Phase d’apprentissage et d’évaluation
Le modèle de segmentation proposé a été formé sur 30 itérations (époques)
prenant 80% des données pour l’apprentissage et les 20 % restants pour
l’évaluation. De plus, le modèle CNN a été formé à l’aide de l’algorithme
d’optimisation Adam qui constitue une extension de l’algorithme de descente
de gradient stochastique. L’optimisation a pris en compte la maximisation
de la métrique de précision.
4.2.9 Résultats et discussion
Figure 4.7 – Précision durant les phases d’apprentissage et d’évaluation sur
30 itérations
La figure 4.7 représente Précision de la formation avec la précision d’éva-
luation sur 30 itérations. Nous avons remarquée que La précision de validation
moyenne était de 0,98 ou 98%, ce qui est considéré comme significatif.
De l’itération 1 à 15 :nous remarquons un augmentation rapide de la
précision de l’apprentissage et la précision d’évaluation jusqu’à atteindre la
52
valeur 0.980.
De 15 à 30 époques : on remarque une lente augmentation de la préci-
sion de l’apprentissage correspondant à une augmentation fluctuante de la
précision d’évaluation jusqu’à ce qu’elle atteigne sa valeurs maximale dans
l’époque 30 qui est de 0.985. Donc nous disons qu’il existe une relation di-
recte entre Précision d’entraînement et précision d’évaluation, cela est du
l’augmentation des données qui améliorer les performances du réseau en pro-
duisant plus de données d’apprentissage
Figure 4.8 – Perte de formation avec perte d’évaluation sur 30 époques
La figure 8 représente Perte d’entraînement avec perte d’évaluation sur
30 époques.
De 1 à 5 époques : on remarque une diminution rapide et stricte de la
perte d’entrainement et la perte d’évaluation de 0.16 à 0.09.
De 5 à 30 époques : on observe une lente diminution de Perte d’entraîne-
ment accompagnée d’une diminution volatile et lente de perte d’évaluation
53
de 0.08 à 0.045. Donc nous disons qu’il existe une relation directe entre perte
d’entraînement et perte d’évaluation, cela est dû à l’augmentation des don-
nées afin d’améliorer les performances du réseau en générant plus de données
de formation.
Figure 4.9 – Tranches axiales des cartes de segmentation résultantes en
utilisant la méthode proposée
54
Figure 4.10 – Coupes axiales de la segmentation de la vérité terrain
Pour l’évaluation statistique, nous avons calculé le coefficient de similarité
des dés (DSC) entre les images segmentées et la vérité terrain en considérant
l’ensemble d’évaluation composé de 3220 coupes, le DSC est donné comme :
2∗(VCT ∩VpCT )
DSC = VCT +VpCT
tq où V est la carte binaire pour un volume de tissu spécifique dans les images
CT et pCT d’origine. DSC prend des valeurs dans l’intervalle [0 ; 1].
55
Figure 4.11 – Distribution des valeurs DSC pour chaque classe segmentée
en tenant compte de l’ensemble d’évaluation
Le Box plot donné par la figure représente la distribution des valeurs DSC
pour chaque type de classe segmenté ‘’tumeur entière, noyau nécrotique et
améliorer le noyau”.
On remarque que la classe Noyau nécrotique a le score DSC le plus élevé
par rapport les autres classes qui est de valeur 1 et on remarque également
que le score DSC avec une valeur de 0,9 et 0, 78 respectivement tumeur
entière, tumeur rehaussée.
56
0 ≤ DSC ≤ 1
Référence Séquence IRM
tumeur en entier noyau nécrodique tumeur rehaussée
CNN proposé T2-W 0.77 0.70 0.65
K. Konstantinos et al [43] Flair 0.84 0.66 0.63
S. Pereira et al [41] T1w 0.84 0.71 0.57
C. Shaoguoet al [44] Flair, T1, T1w, T2w 0.89 0.77 0.80
Table 4.1 – Valeurs DSC moyennes en considérant les trois principales
classes de tumeurs par rapport à d’autres travaux utilisant les mêmes en-
sembles de données BRATS 2015.
Le tableau 2 présente les valeurs DSC moyennes considérant les trois prin-
cipales classes des tumeurs par rapport à d’autres travaux utilisant les mêmes
ensembles de données BRATS 2015. Notre approche proposée a obtenu les
valeurs de DSC 0.77, 0.70 et 0.65 dans toutes les régions tumorales. K. Kons-
tantinos et all [43] ont obtenu les valeurs de DSC 0.84, 0.66 et 0.63 pour les
mêmes régions.
De même, S. Pereira et all [41] ont obtenu les valeurs de DSC 0.84, 0. 71
et 0. 57 pour. Enfin C. Shaoguoet et all [44] ont obtenu les valeurs de DSC
0.89, 0.77 et 0.80 pour les régions tumorales considérées .
On remarque que quelques résultats de ces travaux sont meilleurs que
notre proposition notamment pour la class tumeur en entier. Ceci peut être
due au fait que ces derniers ont utilisé plusieurs types de séquence IRM ce qui
peut donner des résultats améliorés. et en sus, chaque méthode a utilisé des
paramètres différente par rapport aux autres, ce qui peut affecter le résultat
final.D’un autre coté, notre approche a donné des résultats meilleurs que
celles deKonstantinos et al en ce qui concerne les classes noyau nécrodique et
tumeur rehaussé. Ainsi, la valeur DSC donnée par le modèle CNN proposé a
donné une valeur de 0.65 comparant avec 0.57 de S. Pereira et al[41].
4.3 Conclusion
Dans ce chapitre, nous avons présenté l’architecture du modèle CNN pro-
posé qui se compose des composants principaux : un encodeur et un décodeur,
l’encodeur aidera à apprendre les caractéristiques des images et à les com-
presser dans une taille de faible dimension qui sera définie comme une entrée
pour le décodeur qui tentera de reconstruire l’image en donnant des étiquettes
pour chaque pixel tout en profitant des connexions sautées qui fourniront des
informations sur les caractéristiques d’image de plus haut niveau pour une
57
meilleure prédiction. Notre approche a montré de bons résultats qui peuvent
rivaliser avec les approches récentes.
58
Conclusion générale
La localisation et la quantification de structures cérébrales font appel à
la synthèse de diverses informations issues non seulement de l’imagerie, mais
également des connaissances anatomiques et fonctionnelles concernant ces
structures et la pathologie qui les affecte. Le clinicien réalise la synthèse de
ces différentes informations pour obtenir un diagnostic fiable et précis. Le but
de ce travail était, à travers la modélisation de ce processus par des méthodes
de segmentation, de fournir un outil de segmentation et de quantification vo-
lumique et fonctionnelle des structures cérébrales.
Après avoir effectué une revue bibliographique sur la segmentation dans
les chapitres précédents, nous avons démontré l’importance et les difficultés
de ces travaux de segmentation d’images IRM. Deux raisons expliquent ces
difficultés :
• La première est qu’il existe une très grande variété de tissus anormaux qui
différent par leur taille, leur forme, leur position et leur composition (nature
et homogénéité). En outre, dans certains cas, les formes des structures sont
difficiles à délimiter même par des experts.
• La seconde raison vient de ce que la donnée issue de l’acquisition IRM est
sensible au bruit de fond et à l’échantillonnage. Ainsi un voxel peut apparte-
nir à des tissus de différentes natures ce qui cause l’effet dit de volume partiel.
Ce mémoire porte sur les méthodes de segmentation des lésions de la
tumeur cérébrale dans des images par résonance magnétique. Cette segmen-
tation joue un rôle très important dans les études cliniques où la mesure
précise du volume des lésions est utilisée comme biomarqueur. Donc pour
réaliser notre travail de segmentation, nous avons utilisé le deep learning, la
méthode d‘apprentissage qui a montré ses performances ces dernières années
59
et nous avons choisi la méthode CNNs comme méthode de segmentation, ce
choix est justifié par la simplicité et l’efficacité de la méthode.
Nous avons présenté les résultats de notre travail qui consiste à deep lear-
ning pour segmenter des images médicales en vue d’améliorer la qualité de la
détection de la tumeur. La segmentation a été réalisée sur des images IRM
cérébrales bidimensionnelles, les résultats obtenus après segmentation sur un
ensemble de données sont satisfaisants.
Notre travail n’est que dans sa version initiale. On peut dire qu’il reste
ouvert pour des travaux de comparaison et/ou d’hybridation avec d’autres
méthodes de classification.
60
Bibliographie
[1] J. Patel, K. Doshi, A study of segmentation methods for detection
of tumor in brain MRI. Adv Electron Electr Eng. 4, 279–284, 2014.
[2] G. Mohana, M. M. Subashinib,MRI based medical image analy-
sis : Survey on brain tumor grade classification . Journal Biomedical
Signal Processing and Control, 2017.
[3] X. Zhao, Y. Wu, G. Song, Z. Li, Y. Zhang, Y. Fan,A deep
learning model integrating FCNNs and CRFs for brain tumor seg-
mentation . Medical Image Analysis, 2017.
[4] S. Iqbal, M. U. Ghani, T. Saba, A. Rehman,Brain tumor seg-
mentation in multi-spectral MRI using convolutional neural net-
works (CNN). MICROSCOPY RESEARCH and TECHNIQUE,
2017.
[5] R. bentata , segmentation d’image tomographique par émission de
positon. Mémoire de magister Université " Es-Sénia " .Oran, 2011.
[6] R. S. Boussedi et M. Kenadil , Segmentation des tumeurs céré-
brales par la ligne de partage des eaux sur des images IRM . Mémoire
de Master en Électronique Biomédicale, 2010-2011.
[7] M. T. Bennai , réalisation d’un système multi-agents adaptatifs
pour l’imagerie médicale . Mémoire de Magister en Systèmes In-
formatiques et Génie Logiciel. Université de "M’hamed Bougara" .
Boumerdes, 2013.
[8] K. Zeggai , A. Zebouchi ,Segmentation des images IRM du cer-
veau et reconstruction 3D. Mémoire de master en GENIE BIOME-
DICAL. université " Abou Bakr Belkaïd". Tlemcen. 2015,2016.
[9] CopathGénéralités sur les tumeurs . Collège Français des Patho-
logistes (CoPath), 2012.
61
[10] J.P. Cocquerez and S. Philipp,Analyse d’images : filtrage et
segmentation. Masson, 1995.
[11] http ://[Link]/2017/07/substance-blanche-et-
[Link]
[12] [Link], B. Raj, et E. P. Xing, On the origin of deep learning
. ArXiv preprint arXiv : 1702.07800, 2017.
[13] D. Y .Moualek , Deep Learning pour la classification des images.
Mémoire de doctorat. Université " Abou Bakr Belkaid ". Tlemcen,
2017.
[14] N.A.D. DIALLO , La reconnaissance des expressions faciales. Mé-
moire de master. Université " 8 Mai 1945 ". Guelma, 2019.
[15] J. Zhou et O. G. Troyanskaya, Predicting effects of noncoding
variants with deep learning-based sequence model . Nature Methods,
12(10), 931-934. 2015.
[16] Z. MIMOUNE , Développement d’une Architecture Basée sur l’Ap-
prentissage Profond (Deep Learning) pour la Détection d’Intrusion
dans les Réseaux. Mémoire de master. Université " Ahmed Draia".
Adrar, 2019.
[17] A. Medjdoubi , L’analyse du sentiment utilisant le Deep learning
. Mémoire de master. Université " TAHAR MOULAY " . Saida,
2019.
[18] B .GHENNAM et S. SMARA , Les réseaux de neurone convolu-
tionel (CNN) pour la classification des images associées aux places
de stationnement d’un parc de véhicule. Mémoire e master. Univer-
sité " DJILALI BOUNAAMA " . KHEMIS MILIANA, 2019.
[19] A.Y. Ng , M. I. Jordan , On discriminative vs Generative assi-
fiers : A comparison of logistic regression and naive bayes. In Ad-
vances in neural information processing systems (pp. 841-848), 2002.
[20] D. H. Ackley, G. E. Hinton and T. J. Sejnowski ,A learning
algorithm for Boltzmann machines . Cognitive sciences, 9(1],147-
169. 1985.
[21] G. E. Hinton, S Osindo and Y. W. Teh ,A fast learning al-
gorithm for deep belief nets. Neural computation , 18(7),1527-1554.
2006.
[22] I. Goodfellow, J. Pouget-Abadie, D. Ozair and Y. Ben-
gio,generative adversarial nets . In advances in neural systems pp.
2672-2680 information processing, 2014.
62
[23] S. Khan , H. Rahmani , [Link] , A. Shah et M. Bennamoun,
A Guide to Convolutional Neural Networks for Computer Vision .
2018.
[24] [Link] et [Link], L‘apprentissage profond (Deep
Learning) pour la classification et la recherche d’images par le
contenu . Mémoire de Master Professionnel Informatique et Techno-
logie de l’Information . Université " KASDI MERBAH ". Ouargla,
2016/2017.
[25] [Link] , Classification des images avec les réseaux de neurones
convolutionnels. Université " Abou Bakr Belkaid " .Tlemcen, 2017.
[26] [Link], Classification automatique des textes par Les réseaux de
neurones à convolution. Mémoire de Master en informatique. Uni-
versité " LARBI ben M’HIDI " . D’Oum El Bouagghi, 2018/2019.
[27] :https ://[Link]/gentle-dive-into-math-behind-
convolutional-neural-networks-79a07dd44cf9.12/06/2020.20 :45.
[28] :https ://[Link]/Lexique/reseau-de-neurones-
convolutifs/.
[29] T. Zhou , S. Ruan et S. Canu , A review : Deep learning for me-
dical image segmentation using multi-modality fusion. France, 2019.
[30] He K, Zhang X, Ren S, Sun J, Delving deep into rectifiers surpas-
sing human-level performance on imagenet classi-cation. In : Pro-
ceedings of the IEEE international conference on computer vision.
IEEE ; p. 1026–34. 2015.
[31] https ://[Link]/solutions/deep-learning/convolutional-
[Link].05/09/2020.19 :40.
[32] J. Lecoeur, C. Barillot ,Segmentation d’images cérébrales :
Etat de l’art . Rapport De recherche , pp.48. 2007.
[33] JL. Foo.A survey of user interaction and automation in medical
image segmentation methods . Tech rep ISUHCI20062, Human Com-
puter Interaction Department, Iowa State Univ, 2006.
[34] A. [Link]-Cut : segmentation of brain tumors on
contrast enhanced MR images for radiosurgery applications. IEEE
Trans Med Imaging ; 31(3) :790–804. 2012.
[35] M. Havaei, H. Larochelle, P. Poulin, PM. Jadoin,Within-
brain classification for brain tumor segmentation . Int J Cars
11 :777-788. 2016.
[36] N. Arunkumar, A. M. Mazin, S. A. Mostafa, D. A. Ibrahim,
J. J. P. C. Rodrigues, V. Hugo,Fully automatic model-based
63
segmentation and classification approach for MRI brain tumor using
artificial neural [Link] the check for updates. 2018.
[37] P. Korfiatis, T. L. Kline, B. J. Erickson,Automated Segmen-
tation of Hyperintense Regions in FLAIR MRI Using Deep Learning
"TOMOGRAPHY". 2016.
[38] H. Dong, G. Yang, F. Liu, Y. Mo, Y. Guo,Automatic Brain Tu-
mor Detection and Segmentation Using U-Net Based Fully Convo-
lutional Networks. Article a springer, 069, v3. 2017.
[39] F. Milletari, N. Navab, S. Ahmadi, V-Net,Fully Convolutio-
nal Neural Networks for Volumetric Medical Image Segmentation.
ArXiv. 1–11 . 2016.
[40] O. Ronneberger, P. Fischer, T. Brox,U-Net : Convolutional
Networks for Biomedical Image Segmentation . In : Medical Image
Computing and Computer -Assisted Intervention. pp. 234–241 .
2015.
[41] S. Pereira, A. Pinto, V. Alves, C. Silva, Brain Tumor Seg-
mentation Using Convolutional Neural Networks in MRI Images.
IEEE TRANSACTIONS ON MEDICAL IMAGING, VOL. 35, NO.
5. 2016.
[42] L. G. Nyúl, J. K. Udupa, and X. Zhang, New variants of a
method of MRI scale standardization . IEEE Trans. Med. Imag.,
vol. 19, no. 2, pp. 143–150, Feb. 2000.
[43] K. Kamnitsas, C. Ledig, VF. Newcombe, JP. Simpson ,
AD. Kane , DK. Menon ,Efficient multi-scale 3d cnn with fully
connected crf for accurate brain lesion segmentation. Med Image
Anal ;36 :61–78. 2017.
[44] S. Cui , L. Mao , J. Jiang, C. Liu ,S. Xiong ,Automatic se-
mantic segmentation of brain gliomas from mri images using a deep
cascaded neural network .J Healthc Eng 2018.
[45] V. Badrinarayanan, A. Kendall, R. Cipolla,Segnet : A deep
convolutional encoder-decoder architecture for image segmentation.
arXiv preprint arXiv : 1511. 00561. 2015.
[46] A. Melle Mous ,Segmentation des images IRM cérébrales par les
techniques de classifications. Mémoire de master en GENIE BIO-
MEDICAL. université " Abou Bakr Belkaïd". Tlemcen. 2016,2017.
64