1.
U-Net :
U-Net a été créé par Olaf Ronneberger, Philipp Fischer et Thomas Brox en 2015 dans
le cadre du document «UNet: réseaux de convolution pour la segmentation d'images
biomédicales».[1]
C'est une amélioration et un développement de la FCN: Evan Shelhamer, Jonathan Long et
Trevor Darrell (2014). [2]
U-Net est un réseau de neurones à convolution développé pour la segmentation d'images
biomédicales au département d'informatique de l'université de Fribourg en Allemagne. Le
réseau est basé sur l'architecture dite entièrement convolutionnelle (fully convolutional
networks), modifiée et étendue pour fonctionner avec moins d’images d'entrainement et
pour permettre une segmentation plus précise. La segmentation d'une image 512 * 512
prend moins d'une seconde sur un GPU récent.
L'idée principale est de compléter un contraction network par couches successives, les
opérations de pooling sont remplacées par des opérateurs de sur échantillonnage . Par
conséquent, ces couches augmentent la résolution de la sortie. De plus, une couche
convolutionnelle successive peut alors apprendre à assembler une sortie précise à partir de
cette information.
Une modification importante dans U-Net est qu'il existe un grand nombre de canaux de
fonctions dans la partie de ré-échantillonnage, ce qui permet au réseau de propager des
informations de contexte vers des couches de résolution supérieure. En conséquence, le
chemin d'expansion est plus ou moins symétrique à la partie contractante et donne une
architecture en forme de «U». Le réseau utilise uniquement la partie valide de chaque
convolution sans aucune couche entièrement connectée. Pour prédire les pixels dans la zone
de bordure de l'image, le contexte manquant est extrapolé en reflétant l'image d'entrée.
Cette stratégie de mosaïque est importante pour appliquer le réseau aux images
volumineuses, car sinon la résolution serait limitée par la mémoire du processeur graphique.
[3]
Il existe de nombreuses applications d’U-Net dans la segmentation d'images biomédicales,
telles que la segmentation d'images cérébrales ("BRATS") ou hépatiques ("siliver07").
Figure I.1 Architecture de U-net. Source [4]
2.Tranformers :
Transformers est un modèle d'apprentissage profond qui a été introduit en 2017 par
Vaswani et al. Il a révolutionné le traitement du langage naturel en surpassant les modèles
de réseaux de neurones récurrents (RNNs) dans de nombreuses tâches.
Contrairement aux RNNs qui traitent les séquences une entrée à la fois, les Transformers
sont capables de traiter l'ensemble de la séquence simultanément en utilisant l'attention.
L'attention permet au modèle de donner une importance différente à chaque élément de la
séquence en fonction de sa pertinence pour la tâche. Les Transformers utilisent des blocs
d'attention empilés les uns sur les autres pour transformer l'entrée en une représentation
vectorielle plus riche en informations.
Les Transformers ont été initialement utilisés pour le traitement du langage naturel, mais
ont depuis été appliqués à d'autres domaines, tels que la vision par ordinateur, la synthèse
de la parole et la génération de musique. Un exemple de modèle basé sur les Transformers
est GPT (Generative Pre-trained Transformer), qui est un modèle pré-entraîné pour la
génération de texte.
En résumé, les Transformers sont un modèle d'apprentissage profond qui utilisent l'attention
pour traiter les séquences. Ils ont été révolutionnaires pour le traitement du langage naturel
et ont été appliqués avec succès à d'autres domaines.[4]
Figure I.2 Architecture de Tranformers. Source [6]
3. AlexNet, ResNet et VggNet
L'apprentissage en profondeur (DL) est l'une des plus importantes et une partie plus
large de la famille de l'apprentissage automatique. L'apprentissage en profondeur utilise les
réseaux de neurones convolutifs (CNN) pour la classification des images, car il donne les
résultats les plus précis pour résoudre les problèmes du monde réel. CNN a diverses
architectures préformées comme AlexNet , ResNet, VGGNet etc. Dans cette étude, nous
avons utilisé l'architecture CNN et AlexNet pour détecter la maladie dans les feuilles de
mangue et de pomme de terre et comparer la précision et l'efficacité entre ces
architectures . Le jeu de données contenant 4004 images a été utilisé pour ce travail. Les
images pour la pomme de terre ont été extraites du site Web de Plant village, tandis que les
images pour la mangue ont été collectées sur le terrain GBPUAT. Les résultats montrent que
la précision obtenue avec AlexNet est supérieure à celle de l'architecture CNN. [7] [8]
Figure I.3 Architecture des AlexNet, ResNet et VggNet. Source [9]
4. Mask-RCNN
Nous présentons un cadre conceptuellement simple, flexible et général pour la
segmentation d'instances d'objets. Notre approche détecte efficacement les objets dans une
image tout en générant simultanément un masque de segmentation de haute qualité pour
chaque instance. La méthode, appelée Mask R-CNN, étend Faster R-CNN en ajoutant une
branche pour prédire un masque d'objet en parallèle avec la branche existante pour la
reconnaissance de la boîte englobante. Mask R-CNN est simple à former et n'ajoute qu'une
petite surcharge à Faster R-CNN, fonctionnant à 5 ips. De plus, Mask R-CNN est facile à
généraliser à d'autres tâches, par exemple, nous permettant d'estimer des poses humaines
dans le même cadre. Nous affichons les meilleurs résultats dans les trois pistes de la suite de
défis COCO, y compris la segmentation d'instance, la détection d'objets englobants et la
détection de points clés de personne. Sans cloches et sifflets, Mask R-CNN surpasse toutes
les entrées de modèle unique existantes sur chaque tâche, y compris les gagnants du défi
COCO 2016. Nous espérons que notre approche simple et efficace servira de base solide et
contribuera à faciliter les recherches futures sur la reconnaissance au niveau de l'instance.
[10]
Figure I.4 Architecture de Mask -RCNN. Source [11]
5.Conclusion
Dans cette chapitre nous avons défini les plus importants concepts en relation à
l'apprentissage automatique et l’apprentissage profond. Vu que nous nous intéressons aux
réseaux de neurones convolutifs et Transformers en vue du diagnostic automatique.
mais pour la deuxième chapitre , il sera consacré pour les nouveaux développements
concernant le pronostic automatique du cancer du cerveau où nous concentrons sur
contribution avec les paradigmes de l’intelligence artificielle évoqués dans ce chapitre.
1. (en) Olaf Ronneberger, Philipp Fischer et Thomas Brox, « U-Net: Convolutional Networks for
Biomedical Image Segmentation », Medical Image Computing and Computer-Assisted Intervention –
MICCAI 2015, Springer International Publishing, 2015, p. 234–241 (ISBN 978-3-319-24574-
4, DOI 10.1007/978-3-319-24574-4_28, lire en ligne [archive], consulté le 16 novembre 2022)
2. ↑ Revenir plus haut en :a b c et d Jonathan Long, Evan Shelhamer et Trevor Darrell, « Fully convolutional
networks for semantic segmentation », 2015 IEEE Conference on Computer Vision and Pattern
Recognition (CVPR), IEEE, juin 2015, p. 3431–3440 (ISBN 978-1-4673-6964-
0, DOI 10.1109/CVPR.2015.7298965, lire en ligne [archive], consulté le 16 novembre 2022)
3. « U-Net: Convolutional Networks for Biomedical Image Segmentation » [archive], lmb.informatik.uni-
freiburg.de (consulté le 24 décembre 2018)
4. A U-Net Deep Learning Framework for High Performance Vessel Segmentation in Patients With Cerebrovascular
Disease
5. L'article original de Google sur les transformateurs : "Attention Is All You Need" par Vaswani et al. (2017)
6. by Stefania Cristina on September 18, 2022 in Attention https://machinelearningmastery.com/the-
transformer-model/
7. Arpita Patel and Mrs. Barkha Joshi, "A Survey on the Plant Leaf Disease Detection
Techniques", International Journal of Advanced Research in Computer and Communication Engineering,
vol. 6, no. 1, 2007.
8. Nilay Ganatra and Atul Patel, "A Survey on Diseases Detection and Classification of Agriculture Products
using Image Processing and Machine Learning", International Journal of Computer Applications, vol.
180, no. 13, January 2018
9. Received: 14 April 2022 /Revised: 17 August 2022 /Accepted: 12 September 2022#The Author(s), under exclusive
licence to Springer Science+Business Media, LLC, part of Springer Nature 2022
10. [Submitted on 20 Mar 2017 (v1), last revised 24 Jan 2018 (this version, v3)]
11. T. Geiser, A. Christe, and S. Mougiakakou. Semanticsegmentation of pathological lung tissue with dilatedfully
convolutional networks. IEEE Journal of Biomed-ical and Health Informatics, 23(2):714–722, March2019
Introduction
Le cancer du cerveau est très dangereux et répartis dans le monde entier. En effet, la
tumeur cérébrale peut avoir une nature bénigne ou maligne où celle bénigne présente une
structure uniforme sans les cellules actives ou cancéreuses, d’autre part, celle maligne
présente une structure non uniforme avec des cellules actives. Les tumeurs cérébrale un peu
plus fréquentes chez les hommes que chez les femmes. Seuls les méningiomes, qui sont
généralement bénins, sont plus fréquents chez les femmes. Les tumeurs cérébrales peuvent se
développer à tout âge. Le type de tumeur cérébrale le plus grave, le glioblastome, est de plus
en plus fréquent chez les personnes âgées au fur et à mesure que la population vieillit. Les
tumeurs cérébrales, cancéreuses ou non, peuvent causer de graves problèmes en raison du fait
que le crâne est rigide, ne laissant pas de place pour la croissance de la tumeur. En outre, si
une tumeur se développe à proximité des parties du cerveau qui contrôlent les fonctions
vitales, elle peut causer des problèmes, comme une faiblesse, des difficultés à marcher, une
perte d’équilibre, une perte partielle ou complète de la vision, des troubles de la
compréhension ou de l’utilisation du langage, ainsi que des problèmes de mémoire.
Les radiologues sont actuellement submergés par trop de demandes d'interprétation des tests
d'imagerie IRM cérébrales où des méthodes d'apprentissage automatique ou en profondeur
peuvent désormais être utilisées pour acquérir des résultats plus rescision et plus efficacement.
Depuis leur introduction, les ordinateurs et leurs applications ont aidé énormément les
radiologues qui eux-mêmes examinent généralement les rapports, et ils peuvent désormais
vérifier leurs découvertes à l'aide d'outils CAD d’aide au diagnostic médical assisté par
ordinateur. En effet, durant ce chapitre nous allons évoquer l’état de l’art pour le dépistage des
tumeurs cérébrales.
II.7 L’aide au diagnostic médical du cancer du cerveau basé apprentissage
automatique
Nous présentons sur le tableau II.1 multiples approches CAD basées apprentissage
automatique, de détection de cancer du cerveau tout en soulignant les classifies et
techniques d'extraction de descripteurs, entre autres, les mesures de performance seront
mentionnées.
Tableau II.1 Approches CAD basées apprentissage automatique (Machine Learning) de
diagnostic du cancer du cerveau
Référence Base de données Contribution Evaluation des
utilisée performances
Une approche de
classification des
tumeurs cérébrales en
[32] Figshare trois classes en extrayant Acc = 98.5%
by Cheng les descripteurs de la
(Seulement 170 transformée en Ondelette
pour chaque classe) et en les donnant comme
entré aux SVM durant le
processus de
classification.
Une approche de
Une base de données classification des
[33] privée et publique tumeurs cérébrales par Acc = 96%
(1000 l’extraction des
Images utilisées au total) descripteurs de la
transformée en
Ondelettes et une
classification basée
réseau de neurone
récurrent (RNN).
Une approche de
classification des
[34] tumeurs cérébrales selon
Figshare Dataset 3 types en extrayant les Acc = 97%
(3064 images) descripteurs par le
modèle pré entrainé
Googlenet via une
classification basée
SVM.
Une approche de
classification nommée
(LIPC : Local
[35] MICCAI 2013 Independent Projection Acc = 89%
Based classification)
utilisant des descripteurs
texturaux et statistiques.
Une approche
d’extraction de
descripteurs texturaux en
3 dimensions dépendant
sur la matrice de
BRATS 2013 cooccurrence (GLCM) Acc = 93.3%.
[36] tout en appliquant
différents algorithmes
d’apprentissage
automatique pour
determiner le grade de
malignité de gliome.
Une approche
d’extraction de
descripteurs de forme,
texture, intensité utilisant
BRATS 2017 les formules de Beta et
[37] et BRATS Gamma. De plus, Acc = 98%
2015 L’homogénéité, l’énergie
et l’entropie ont été
calculé pour une
classification des
tumeurs, basée les SVM.
Une approche extrayant
25 descripteurs texturaux
et 7 descripteurs de
[38] BRATS 2015 forme pour la Acc = 94.33%
classification des
tumeurs cérébrales via
les SVM.
Une approche extrayant
des descripteurs
DICOM et texturaux ainsi que des
[39] Brain Web descripteurs statistiques Acc = 96.51 %
dataset dans un processus de
classification des tumeur
cérébrales basé les SVM.
II.7 Application de l’apprentissage profond pour l’aide au diagnostic
médical du cancer du cerveau
Nous allons présenter sur le tableau II.2 quelques approches CAD basées apprentissage
profond de diagnostic de cancer du cerveau.
Dans [25], les auteurs sont pointés vers une étude des différentes techniques d’apprentissage
profond ainsi que les architectures spécifiques pour la détection et la classification de cancer
du cerveau.
Tableau II.2 Approches CAD basées apprentissage profond de diagnostic du cancer du
cerveau
Référence Base de données Contribution Evaluation des
utilisée performances
Une approche proposant
un modèle improuvé de
RESnet50 pour une
[40] Base de données du site classification binaire en Acc = 97%
de Kaggle tumeur ou non tumeur où
8 couches ont été ajouté
à l’architecture originale
de RESnet 50.
Un modèle de réseau de
neurone convolutif a été
proposé selon 3 étapes :
la première consiste en
Convolution Block
Attention Module
(CBAM) permettant le
réseau de reconnaitre
[41] Base de données du site l'information spatiale. La Acc = 96.05%
de Kaggle deuxième étape permet
au réseau d'apprendre
des fonctionnalités plus
importantes et la dernière
consiste en hyper
Column technique
implémentée avant la
couche entièrement
connectée.
Une approche basée sur
l’augmentation des
image IRM de la base de
données utilisée, a été
Figshare (3064 proposée pour les fournir
[42] images) comme enytrées au Acc = 98%
modèle Resnt50
d’apprentissage profond
pour le processus de
classification des IRM
cérébrales.
Une approche basée le
modèe d’apprentissage
profond (GANs :
Generative Adversarial
Networks). L’idée
principale était
l’utilisation de CNN
[43]
Figshare (3064 comme un discriminateur Acc = 88%
images) de GAN pour le pré
entrainer. La dernière
couche du CNN
discriminateur dans le
GAN a été remplacé par
SoftMax pour la
classification.
Une approche hybride
SR-FCM-CNN a été
proposé. Premièrement
un pré traitement est
effectué basé SR CNN.
(TCGAGBM : Cancer Les images à basse
Genome atlas glioblasto résolution sont
[44] ma multiform) et une converties à haute Acc = 98%
base de données (TCIA : résolution en utilisant
cancer imaging archive ) cette approche ensuite
une segmentation basée
FCM est effectuée où
Squeeze-net a été
appliqué pour
l’extraction des
descripteurs basé ELM.
Une approche basée R-
CNN pour la detection et
classification des
Figshare (3064
[45] tumeurs cérébrales en 3
images) Acc = 77.60%
types a été proposé.
Region proposal network
a été utilisé pour le
marquage précis de la
région de la tumeur.
Une approche basée le
CNN modèle qui prend
comme entrée une IRM
[46] Base de données du site pour là segmenter et Acc = 90-99%
de Kaggle extraire les descripteurs
par le CNN. Les sorties
sont classifiées comme
tumeur ou non tumeur.
Une approche utilisant
(PG-GANS :
Progressively Growing
Generative
[47] Adversarial Networks) a
BRATS 2016 été proposé pour Acc = 91%
augmenter la base de
données de BRATS-
2016 pour la détection
précise des tumeurs
basée RESNET-50.
Conclusion
Dans le dernière période l'intelligence artificielle développé rapidement ,des études
récentes ont montré des résultats prometteurs par l’application des paradigmes de l'IA pour
détecter directement la présence et le type de tumeur cérébrale à partir des images
médicales, l'apprentissage automatique et en profondeur a engendré le développement
d’approches prometteuses pour le diagnostic assisté par ordinateur des tumeurs cérébrales,
améliorant dans ce sens le diagnostic tardif , minimise les fautes et réduisant l'intervention
humaine.
Nous allons exposer dans le chapitre prochain la problématique tirée dans ce domaine
d’actualité ainsi que le cadre méthodologique suivi pour l’implémentation de l’approche
proposée avec l’ultime but du diagnostic du cancer du cerveau. Assisté par ordinateur(AI).
[32] A. M. Sarhan, ‘Brain Tumor Classification in Magnetic Resonance Images Using Deep
Learning and Wavelet Transform’, J. Biomed. Sci. Eng., vol. 13, no. 06, pp. 102–112, 2020,
doi: 10.4236/jbise.2020.136010.
[33] S. S. Begum and D. R. Lakshmi, ‘Combining optimal wavelet statistical texture and
recurrent neural network for tumour detection and classification over MRI’, Multimed. Tools
Appl., vol. 79, no. 19–20, pp. 14009–14030, 2020, doi:10.1007/s11042-020-08643-w.
[34] N.A. Ali, A.R. Syafeeza, L. J. Geok, Y. C. Wong, N. A. Hamid, and A. S. Jaafar,
‘Design of Automated Computer-Aided Classification of Brain Tumor Using Deep Learning’,
Springer, Singapore, 2019, pp. 285–291.
[35] K. Abbas, P.W. Khan, K.T. Ahmed, W.C. Song, ‘‘Automatic Brain Tumor Detection in
Medical Imaging using Machine Learning,” ICTC 2019 - 10th Int. Conf. ICT Converg. ICT
Converg. Lead. Auton. Futur., pp. 531–536, 2019, doi: 10.1109/ICTC46691.2019.8939748.
[36] A.N. Al-Zurfi, F. Meziane, R. Aspin, ‘‘A computer-aided diagnosis system for glioma
grading using three-dimensional texture analysis and machine learning in mri brain tumour,”
BioSMART 2019 - Proc. 3rd Int. Conf. Bio-Engineering Smart Technol., pp. 1–5, 2019, doi:
10.1109/BIOSMART.2019.8734207.
[37] B. El-Sherbiny et al., ‘‘BLB (Brain/Lung cancer detection and segmentation and Breast
Dense calculation),” Proc. IWDRL 2018 2018 1st Int. Work. Deep Represent. Learn., pp. 41–
47, 2018, doi: 10.1109/IWDRL.2018.8358213.
[38] R. Pugalenthi, M.P. Rajakumar, J. Ramya, V. Rajinikanth, Evaluation and classification
of the brain tumor MRI using machine learning technique, Control Eng. Appl. Informatics 21
(4) (2019) 12–21.
[39] Nilesh Bhaskarrao Bahadure, Arun Kumar Ray, Har Pal Thethi, Image Analysis for MRI
Based Brain Tumor Detection and Feature Extraction Using Biologically Inspired BWT and
SVM, Int. J. Biomed. Imaging 2017 (2017) 1–12, https://doi.
org/10.1155/2017/9749108.
[40] A. Çinar and M. Yildirim, ‘Detection of tumors on brain MRI images using the hybrid
convolutional neural network architecture’, Med. Hypotheses, vol. 139, no. March, p. 109684,
2020, doi: 10.1016/j.mehy.2020.109684
[41] M. Toğaçar, B. Ergen, and Z. Cömert, ‘BrainMRNet: Brain tumor detection using
magnetic resonance images with a novel convolutional neural network model’, Med.
Hypotheses, vol. 134, p. 109531, Jan. 2020, doi: 10.1016/j.mehy.2019.109531.
[42] S. A. Abdelaziz Ismael, A. Mohammed, and H. Hefny, ‘An enhanced deep learning
approach for brain cancer MRI images classification using residual networks’, Artif. Intell.
Med., vol. 102, p. 101779, Jan. 2020, doi : 10.1016/j.artmed.2019.101779.
[43] N. Ghassemi, A. Shoeibi, and M. Rouhani, ‘Biomedical Signal Processing and Control
Deep neural network with generative adversarial networks pre-training for brain tumor
classification based on MR images’, Biomed. Signal Process. Control, vol. 57, p. 101678,
2020, doi: 10.1016/j.bspc.2019.101678.
[44] F. Özyurt, E. Sert, and D. Avcı, ‘An expert system for brain tumor detection: Fuzzy C-
means with super resolution and convolutional neural network with extreme learning
machine’, Med. Hypotheses, vol. 134, no. September 2019, p. 109433, Jan. 2020, doi:
10.1016/j.mehy.2019.109433.
[45] Y. Bhanothu, A. Kamalakannan, and G. Rajamanickam, ‘Detection and Classification of
Brain Tumor in MRI Images using Deep Convolutional Network’, 2020 6th Int. Conf. Adv.
Comput. Commun. Syst. ICACCS 2020, pp. 248–252, 2020, doi:
10.1109/ICACCS48705.2020.9074375.
[46] M. H C, ‘Evaluation of Brain Tumor MRI Imaging Test Detection and Classification’,
Int. J. Res. Appl. Sci. Eng. Technol., vol. 8, no. 6, pp. 124–131, 2020, doi:
10.22214/ijraset.2020.6019.
[47] C. Han et al., ‘Infinite Brain MR Images: PGGAN-Based Data Augmentation for Tumor
Detection’, Springer, Singapore, 2020, pp. 291–303.