0% ont trouvé ce document utile (0 vote)
851 vues48 pages

Memoire Pfe IA

Transféré par

hemaiziahemaizia0
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
851 vues48 pages

Memoire Pfe IA

Transféré par

hemaiziahemaizia0
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Algérienne Démocratique et

Populaire Ministère de l’Enseignement Supérieure et de la

Recherche Scientifique

Faculté des Sciences Exactes et de Science de la Nature de la Vie

Département : Mathématique et Informatique

Mémoire de fin d’étude Pour l’obtention du diplôme de LICENCE

Filière : Informatique

Option : Systèmes d’information

Intitulé de projet :

Une méthode d’Intelligence Artificielle (IA) pour la détection des


maladies pulmonaires.

Présenté par :
 MESBAHI Soundes
 FARES Wissal
Membre de jury :
Dr. MAHMOUDI Rachid : Encadreur

Dr. BOUAKKAZ Fatima : Examinateur


Date de soutenance :

28 Mai 2023
Remerciement

Nous voudrions d'abord remercier Dieu tout-puissant qui nous aide et qui est à lui Donné de la
force, du courage et de la patience pour accomplir cet humble travail.

Nos sincères remerciements aux membres du jury.

Nous remercions également sincèrement M. Examinateur Dr .Bouakkaz Fatima pour l'aider


Disponibilité, compétences scientifiques, soutien et gentillesse.

Merci également à tous nos professeurs. Pendant les années scolaires.

Dans un second temps, nous tenons à remercier notre encadreur

Dr .Rachid Mahmoudi, pour ses précieux conseils et son aide durant

Toute la période de travail.

Enfin, nous tenons également à remercier toutes les personnes qui

Participer directement ou indirectement à la réalisation de ce travail.

Merci à tous.
Dédicace

Avec l’expression de ma reconnaissance, je dédie ce modeste travail a ceux qui quels que soient les
termes embrassés, je n’arriverais jamais à leur exprimer mon amour sincère.

A l’homme de ma vie : mon papa RIDA, merci beaucoup pour les ailes que vous m’avez données, pour
m’avoir appris à me lever et à élargir mes horizons vers les cieux.

A la femme qui a souffert sans me laisser souffrir, qui n’a jamais dit non amés exigences et qui n’a
épargné aucun effort pour me rendre heureuse : mon adorable mère RAFIKA.

Aux amoureux du cœur, aux fleurs de notre maison, a ceux qui vivent dans mon cœur, à mes chères
sœurs : LINA et CHAHED.

A mon âme sœur, à mon épaule ferme qui ne tend pas à ma chance dans le monde, a qui mon âme se
remet, à qui les rires sont venus avec elle a la sœur que ma mère n’a pas enfantée :ROUFAIDA.

A qui je souhaitais que elle soit mon compagnon de graduation, à qui c’était mon bras droit dans la vie, a
ceux qui m’ont quitté et qui n’ont pas quitté mon cœur : MAYMOUNA, que dieu ait pitié de toi et me
ressemble avec toi au paradis, je dédie mon travail à ton âme pure.

A mon lieutenant d’enfance, a celui avec qui j’ai vécu les plus spéciales de ma vie, mon cher frère :
BILAL.

A mon deuxième père, a celui qui m’a fait de moi une princesse : AHMED. A ma chère grand-mère :
SOUAD.

A ceux qui m’ont réuni avec les jours et les meilleurs souvenirs, mes tantes: SAMIA, HALA et RIHAB.

A mes oncles WALID et CHAWKI, les sources de ma force. A tous mes oncles et tantes….

A mes meilleur amis : AMIRA, RAWEN et NESRINE.

A tous les cousins, les voisins et les amis que j’ai connu jusqu’à maintenant…merci pour leurs amours et
leurs encouragements.

Sans oublier mon binôme : SOUNDES, pour son soutien moral et pour leurs aides et support dans les
moments difficiles.

A tous mes collègues…..A tous ma famille.

FARES WISSAL
Dédicace

À mon cher père IBRAHIM,


Aujourd'hui, je voudrais exprimer toute ma gratitude pour ton amour inconditionnel, et sans toi,
je ne serais pas là où je suis aujourd'hui. Ce diplôme est dédié à toi, papa. Merci pour tout ce que
tu as fait pour moi.

À ma chère mère DALILA,


Je te dédie ce diplôme avec amour et reconnaissance infinis. Merci d'avoir été ma première
enseignante et mon modèle. Je suis honorée de t'avoir comme mère.

À ma chère grand-mère,
Ta présence est un cadeau précieux, et je suis tellement reconnaissante de t'avoir dans ma vie. Ce
diplôme est un témoignage de ton impact sur moi.

À mes chers frères et sœurs,


Vous êtes ma famille, mes amis et mes plus grands supporters. Vous m'avez soutenue dans
chaque étape de mon parcours éducatif, et je suis fier/fière de vous appeler mes frères et sœurs.
Votre amour, vos encouragements et votre soutien ont été inestimables. Merci d'être toujours là
pour moi.

Sans oublier mon binôme :WISSAL, pour son soutien moral et pour leurs aides et support dans
les moments difficiles.

À tous ceux que j'aime,


Je souhaite partager ma joie et ma gratitude avec vous tous. Votre présence dans ma vie a rendu
ce voyage éducatif plus significatif et mémorable. Que ce moment de célébration soit le début
d'une nouvelle ère de réussite et de bonheur pour nous tous. Merci d'être dans ma vie et de
m'avoir soutenue.

Avec tout mon amour.

Soundes mesbahi
Résumé

Résumé :
Ces dernières années, l’intelligence artificielle est entrée dans la plupart des
domaines, y compris l’apprentissage des expériences humaines par l’apprentissage
profond.

L’utilisation d’une technique d’IA est un apprentissage profond qui est une
catégorie de machine learning basée sur des réseaux neuronaux artificiels profonds
et bénéficie de la grande capacité d’apprendre les représentations complexes des
données. La grande profondeur des réseaux neuronaux utilisés pour l’apprentissage
profond est essentielle pour comprendre et analyser des images médicales
complexes telles que les radiographies pulmonaires.

Lorsque les réseaux neuronaux profonds sont apprends sur un large éventail
d’images médicales avec des maladies pulmonaires connues, les modèles
d’apprentissage profond peuvent apprendre le modèle et les caractéristiques
associées à ces maladies. Ces caractéristiques distinctives permettent aux modèles
d’identifier les malades de pneumonie et d’aider les médecins dans le processus de
diagnostic.

Après avoir obtenu une data set des images médicales de RX des malades de la
Pneumonia aux niveau de l’hôpital Bougera Boulaares Bakaria, et de créer un
modèle d’apprentissage profond, et après l’apprentissage sur une partie de ces
données et l’évaluer sur l’autre partie de ces données, nous avons obtenu un taux
de succès de connaissance de la maladie arrive jusqu’à 97%. Ces résultats sont
promettante pour aider à diagnostiquer la maladie.
Summary

Summary:

In recent years, artificial intelligence has entered most domains, including learning
from human experiences through deep learning. Deep learning is a category of
machine learning that is based on deep artificial neural networks and benefits from
their ability to learn complex data representations. The depth of the neural
networks used in deep learning is crucial for understanding and analyzing complex
medical images such as chest X-rays.

When deep neural networks are trained on a wide range of medical images with
known lung diseases, deep learning models can learn the patterns and features
associated with these diseases. These distinctive features enable the models to
identify patients with pneumonia and assist doctors in the diagnostic process.

After obtaining a dataset of medical images of pneumonia patients from Bougera


Boulaares Bakaria Hospital, and creating a deep learning model, we trained the
model on a portion of the data and evaluated it on the remaining portion. We
achieved a knowledge accuracy rate of up to 97% in diagnosing the disease. These
results are promising for assisting in the diagnosis of pneumonia.
‫ملخص‬

‫دخل الذكاء االصطناعي في السنوات االخيرة في اغلب المجاالت و من بينها تعلم التجارب البشرية عن‬
‫طريق التعلم العميق ‪.‬‬
‫ان استخدام احدى تقنيات الذكاء االصطناعي و هي التعلم العميق الذي هو فئة من التعلم اآللي تستند إلى‬
‫الشبكات العصبية االصطناعية العميقة وتستفيد من القدرة الكبيرة على تعلم التمثيالت المعقدة للبيانات‪ .‬يعتبر‬
‫العمق الكبير للشبكات العصبية المستخدمة للتعلم العميق مفتا ًحا في فهم وتحليل الصور الطبية المعقدة مثل‬
‫الصور الشعاعية للرئة‪.‬‬
‫عندما يتم تدريب الشبكات العصبية العميقة على مجموعة كبيرة من الصور الطبية المصابة بأمراض الرئة‬
‫المعروفة‪ ،‬يمكن للنماذج التعلم العميق أن تتعلم النمط والسمات المميزة المرتبطة بتلك األمراض‪ .‬تتيح هذه‬
‫السمات المميزة للنماذج أن تكون قادرة على تحديد وتصنيف حاالت التهاب الرئة وتوفير توجيه لألطباء في‬
‫عملية التشخيص‪.‬‬
‫بعد الحصول على قاعدة بيانات من مستشفى "بوڨرة بولعراس بكارية" تخص مرض‪Pneumonia‬‬
‫وانشاء نموذج تعلم عميق ‪ CNN‬وتدريبه على جزء من هذه المعطيات و تقييمه على الجزء اآلخر من هذه‬
‫البيانات تحصلنا على نسبة نجاح في معرفة المرض تصل الى ‪ %97‬هذه النتائج واعدة في المساعدة على‬
‫تشخيص المرض‪.‬‬
Sommaire

Introduction générale…………………………………………………………………………...1
Chapitre 01 : L'intelligence artificielle
1-Introduction…………………………………………………………………………………..2
I-L’intelligence artificielle(IA)…………………………………………………………………2
I.1-Definition……………………………………………………………………………….2
I.2- Les types de IA…………………………………………………………………………3
I.2.1- L'intelligence artificielle étroite…………………………………………………3
I.2.2- L'intelligence artificielle générale………………………………………………3
I.2.3- La super intelligence artificielle………………………………………………....3
I.3- Les risques liés à l’intelligence artificielle ……………………………………………..3
I.4- L’utilisation de l’IA …………………………………………………………3
II-Machine Learning (ML)…………………………………………………………………….4
II.1-Definition……………………………………………………………………………..4
II.2- Les types de ML……………………………………………………………………..4
II.2.1- Machine Learning supervisé………………………………………………….4
II.2.2-Machine Learning non supervise ……………………………………………..4
II.2.3- Machine Learning par renforcement …………………………………….......5
II.3-Objectifs de ML……………………………………………………………………...5
II.4- La différence entre l’IA et ML ……………………………………………………...5
III-Deep Learning…………………………………………………………………………….6
III.1-Definition………………………………………………………………………….6
III.2- Fonctionnement du DL …………………………………………………………..6
III.3-La différence entre ML et DL……………………………………………………..6
III.4- Les différents algorithmes de DL………………………………………………...6
III.4.1- Réseaux neuronaux récurrents (RNN)………………………………..6
III.4.2- Réseaux de fonction de base radiale (RBFN)…………………………7
III.4.3- Réseaux de mémoire à long et court terme(LSTM)…………………...7
III.4.4- Réseaux adversariaux génératifs (GAN)……………………………...7
III.4.5- Machines de Boltzmann restreintes (RBM)………………………… .7
IV.5- Réseaux neuronaux convolutifs (CNN) …………………………………………7
IV.6- Principe d’architecture d’un CNN ………………………………………………8
IV.7- Les couches du CNN ……………………………………………………………8
IV.7.1- Couche convolution ………………………………………………….8
Sommaire

IV.7.2- Relu – Unité linéaire rectifiée ………………………………………....9


IV.7.3-Pooling …………………………………………………………………9
IV.74- Couche fully-connected ………………………………………………...9
IV.8- Architecture d’un CNN ………………………………………………….10
IV.9- Relation entre IA et ML et DL …………………………………………..10
V-Conclusion ……………………………………………………………………………….11

Chapitre 02 : Environnement de travail


1-Introduction ………………………………………………………………………………12
2-Python…………………………………………………………………………………….12
2.1-Historique…………………………………………………………………………….12
2.2-Definition…………………………………………………………………………….12
2.3-Version actuelle………………………………………………………………………12
2.4-A quoi sert le langage Python ? ……………………………………………12
2.5- Utilisation de python………………………………………………………………..13
2.5.1- Développement Web ……………………………………………………….13
2.5.2- Applications de bureau ou Desktop App …………………………………..13
2.5.3- Systèmes d’exploitation ……………………………………………………13
2.5.4- Data Science & Data Visualisation ………………………………………...13
2.5.5- Extraction de données ou Data Mining …………………………………….13
2.5.6- Machine Learning ………………………………………………………….14
2.5.7- Développement de jeux et graphiques 3D …………………………………14
2.6- Les bibliothèques Python……………………………………………………………14
2.6.1-Matplotlib……………………………………………………………………14
2.6.2-Pandas……………………………………………………………………….15
2.6.3-Numpy……………………………………………………………………….16
2.6.4-Tensotflow…………………………………………………………………..16
2.6.5-Keras………………………………………………………………………...16
3-Anaconda…………………………………………………………………………………17
3.1-Definition…………………………………………………………………………….17
4-Jupyter ……………………………………………………………………………………18
4.1-Definition …………………………………………………………………………...18
4.3-À quoi peut servir Jupyter Notebook ?..............................................................................19
4.4- Comment utiliser Jupyter Notebook ?..............................................................................19
Sommaire

4.5- Les avantages de Jupyter Notebook ………………………………………………..20


5-Conclusion………………………………………………………………………………..20

Chapitre 03 : Les images médicales et La pneumonie


1-Introduction……………………………………………………………………………….21
2- Les images médicales ……………………………………………………………………21
2.1-Définition ……………………………………………………………………………21
2.2- Équipement……………………………………………………………………………21
2.3- Caractéristiques………………………………………………………………………..22
2.3.1-Le Pixel………………………………………………………………………...22
2.3.2-La Luminance………………………………………………………………….22
2.3.3-Image à niveau de gris…………………………………………………………22
2.4-Les différentes techniques d’imagerie médicale………………………………………..23
2.4.1-Rayons X……………………………………………………………………….23
2.4.2-Le scanner………………………………………………………………………24
2.4.3-L’échographie pour étudier le fonctionnement des organes …………………..24
2.4.4- Image par résonance magnétique (IRM) ……………………………………...25
3- la pneumonie ………………………………………………………………...26
3.1-Qu’est-ce que la pneumonie?................................................................................26
4.2-Comment découvrir le maladie grâce à RAYONS X? …………………………..26
3.3-les signes de la pneumonie………………………………………………………..26
3.4-Le risque de pneumonie ………………………………………………...27
3.5- Comment traite-t-on la pneumonie?......................................................................27
4-Conclusion………………………………………………………………………………...27
Chapitre 04 : Implémentation.

1-introduction………………………………………………………………………………..28
2-Data Set……………………………………………………………………………………28
2.1- Organisation du data set………………………………………………………...…28
3- Création du modèle……………………………………………………………………….29
4- Apprentissage du modèle…………………………………………………………………30
5- Résolution ……………………………………………………………………………..…31
 Graphe………………………………………………………………………...31
 Matrice de confusion………………………………………………………....33
6- Test de modèle…………………………………………………………………………...33
6.1-Test Data Set………………………………………………………………………34
Sommaire

7-Conclusion………………………………………………………………………………..34
Conclusion générale…………………………………………………………………………35
Introduction Générale

L'intelligence artificielle est une branche de l'informatique qui vise à développer des programmes
et des systèmes capables de simuler l'intelligence humaine, sa capacité à apprendre, à réfléchir et
à prendre des décisions autonomes sans intervention humaine. Il est utilisé dans de nombreux
domaines, mais aujourd'hui nous mettons en lumière son rôle dans le domaine médical, en
particulier dans les images médicales.

À l'origine, l'imagerie médicale utilisant des techniques telles que les ultra-sons et les rayons X
permettait de visualiser le corps humain sur des supports photographiques argentiques en
fonction des différences d'absorption des rayons X. Les zones de forte absorption, comme les os,
étaient représentées en blanc, tandis que les zones de faible absorption, comme les poumons,
étaient représentées en noir. Cependant, à l'époque, les traitements d'image étaient rudimentaires
et l'interprétation diagnostique reposait principalement sur l'expertise d'un radiologue ou d'un
médecin, ce qui laissait place à de nombreuses erreurs et biais cognitifs. En effet, l'œil humain
est sujet à des imperfections et dépendant de l'expérience et de la subjectivité de l'observateur.
Aujourd'hui encore, ces défauts peuvent fausser le processus de diagnostic et compromettre la
qualité des soins prodigués.

Au fil des années, une vaste base de données d'images radiographiques de patients souffrant de
diverses affections pulmonaires, ainsi que d'images normales de personnes en bonne santé, a été
constituée. Nous avons exploité ces données précieuses pour développer un modèle capable de
détecter les maladies pulmonaires. Le modèle a été entraîné sur un ensemble diversifié d'images
précédentes et doté de compétences d'apprentissage en profondeur lui permettant de reconnaître
les motifs spécifiques des maladies pulmonaires dans les radiographies. Grâce à ces efforts, nous
sommes désormais en mesure de fournir un outil fiable et efficace pour diagnostiquer les
maladies pulmonaires en analysant les images radiographiques de manière automatique et
précise. Cette avancée constitue une avancée majeure dans le domaine des soins de santé et
contribue à améliorer la capacité des médecins à diagnostiquer les maladies pulmonaires avec
une plus grande précision et efficacité.

Cette mémoire se compose de 4 chapitres.


Le premier chapitre concerne de L’intelligence Artificielle et le Deep Learning en particulier le
CNN.
Ensuite, le deuxième chapitre, à travers lequel nous avons expliqué l’environnement de travail
que nous avons utilisé pour la création et l’apprentissage du modèle.
Le troisième résumé tous ce qui est image médicale et les maladies pulmonaire et plus
précisément Pneumonie.
En fin dans le dernier chapitre contient la partie pratique, plus précisément la préparation du data
set et la création et l’apprentissage du modèle et enfin les tests et résultats de ce modèle.

1
Chapter 01: L'intelligence artificielle

Chapitre 01 : L'intelligence artificielle

1. Introduction :
L'intelligence artificielle a fait beaucoup de bruit au cours des dernières décennies, nous
parlerons donc dans ce chapitre de l'intelligence artificielle et de certains des termes qui en
relèvent, tels que : Machine Learning et Deep Learning.

I. L’intelligence artificielle (IA):


I.1 Définition :
L'intelligence artificielle (IA) est un processus d'imitation de l'intelligence humaine qui repose
sur la création et l'application d'algorithmes exécutés dans un environnement informatique
dynamique. Son but est de permettre à des ordinateurs de penser et d'agir comme des êtres
humains.
Pour y parvenir, trois composants sont nécessaires :
 Des systèmes informatiques
 Des données avec des systèmes de gestion
 Des algorithmes d'IA avancés (code)
Pour se rapprocher le plus possible du comportement humain, l'intelligence artificielle a
besoin d'une quantité de données et d'une capacité de traitement élevées. [1]

Figure 1.1: expressive de l’intelligence artificielle .

2
Chapter 01: L'intelligence artificielle

I.2 Les types d'IA :


Il existe trois types d'IA : L’intelligence artificielle étroite (ANI), l'intelligence artificielle
générale (AGI) et la super intelligence artificielle (ASI).
 L'intelligence artificielle étroite : l'ANI est classée dans la catégorie d'intelligence
artificielle faible car elle n'est spécialisée que dans une gamme étroite de paramètres
ou de situations, comme la reconnaissance vocale ou les voitures sans conducteur, par
exemple.
 L'intelligence artificielle générale : l'AGI est considérée comme une intelligence
artificielle forte, car elle travaille à un niveau supérieur, qui correspond à l'intelligence
humaine.
 La super intelligence artificielle : bien que ce type d'IA ne soit actuellement pas
développé, l'ASI signifie qu'une machine dispose d'une super intelligence ou qu'elle
est plus intelligente qu'un humain. [2]
I.3 Les risques liés à l’intelligence artificielle :
Les risques associés à l’intelligence artificielle sont principalement liés à son utilisation
abusive potentielle par des individus ou des groupes aux intentions malveillantes. Par
exemple, l’IA pourrait être utilisée pour créer des cyber-attaques plus sophistiquées ou
développer des systèmes d’armes de guerre autonomes. De plus, à mesure que l’IA devient
plus répandue et accessible, il existe un risque qu’elle puisse être utilisée à des fins de
surveillance de masse ou contraires à l’éthique. L’un des risques les plus fréquemment cités
est la possibilité que l’IA dépasse l’intelligence humaine. Cela pourrait conduire à un avenir
dans lequel les machines seraient capables de nous dépasser et de nous manipuler. [3]

I.4 L’utilisation de l’IA :


 Achats en ligne et publicité
 Recherche en ligne
 Traduction automatique
 Maisons, villes et infrastructures connectées
 Voitures
 Cyber sécurité
 L’IA contre la Covid-19
 Transport
 Fabrication
 Santé. [4]

3
Chapter 01: L'intelligence artificielle

II. Machine Learning (ML):


II.1 Définition :
Le Machine Learning ou apprentissage automatique est un domaine scientifique, et plus
particulièrement une sous-catégorie de l’intelligence artificielle. Elle consiste à laisser des
algorithmes découvrir des «patterns», à savoir des motifs récurrents, dans les ensembles de
données. Ces données peuvent être des chiffres, des mots, des images, des statistiques… [5]
II.2 Les type d’algorithmes de Machine Learning :
II.2.1 Machine Learning supervisé :
La machine Learning supervisé est une technologie élémentaire mais stricte. Les opérateurs
présentent à l'ordinateur des exemples d'entrées et les sorties souhaitées, et l'ordinateur
recherche des solutions pour obtenir ces sorties en fonction de ces entrées. Le but est que
l'ordinateur apprenne la règle générale qui mappe les entrées et les sorties.
Le machine Learning supervisé peut être utilisé pour faire des prédictions sur des données
indisponibles ou futures (on parle alors de "modélisation prédictive"). L'algorithme essaie de
développer une fonction qui prédit avec précision la sortie à partir des variables d'entrée .
Par exemple, prédire la valeur d'un bien immobilier (sortie) à partir d'entrées telles que le
nombre de pièces, l'année de construction, la surface du terrain, l'emplacement….etc.
La machine Learning supervisé peut se subdiviser en deux types :
 Classification : la variable de sortie est une catégorie.
 Régression : la variable de sortie est une valeur spécifique.
Les principaux algorithmes du machine Learning supervisé sont les suivants : forêts
aléatoires, arbres de décision, algorithme K-NN (k-Nearest Neighbors), régression linéaire,
algorithme de Naïve Bayes, machine à vecteurs de support (SVM), régression logistique et
boosting de gradient.
II.2.2 Machine Learning non supervisé :
Dans le cadre du machine Learning non supervisé, l'algorithme détermine lui-même la
structure de l'entrée (aucune étiquette n'est appliquée à l'algorithme). Cette approche peut être
un but en soi (qui permet de découvrir des structures enfouies dans les données) ou un moyen
d'atteindre un certain but. Cette approche est également appelée « apprentissage des
caractéristiques » (feature Learning).
Un exemple de machine Learning non supervisé est l'algorithme de reconnaissance faciale
prédictive de Facebook, qui identifie les personnes sur les photos publiées par les utilisateurs.
Il existe deux types de machine Learning non supervisé :
 Clustering : l'objectif consiste à trouver des regroupements dans les données.
 Association : l'objectif consiste à identifier les règles qui permettront de définir de
grands groupes de données.
Les principaux algorithmes du machine Learning non supervisé sont les suivants : K-Means,
clustering/regroupement hiérarchique et réduction de la dimensionnalité.

4
Chapter 01: L'intelligence artificielle

II.2.3 Machine Learning par renforcement :


Dans la machine Learning par renforcement, un programme informatique interagit avec un
environnement dynamique dans lequel il doit atteindre un certain but, par exemple conduire
un véhicule ou affronter un adversaire dans un jeu. Le programme-apprenti reçoit du feedback
sous forme de « récompenses » et de « punitions » pendant qu'il navigue dans l'espace du
problème et qu'il apprend à identifier le comportement le plus efficace dans le contexte
considéré.
En 2013, c'était déjà un algorithme de machine Learning par renforcement (Q-learning) qui
s'était rendu célèbre en apprenant comment gagner dans six jeux vidéo Atari sans aucune
intervention d'un programmeur.
Il existe deux types de machine Learning par renforcement :
 Monte Carlo : le programme reçoit ses récompenses à la fin de l'état « terminal ».
 Machine Learning par différence temporelle (TD) : les récompenses sont évaluées et
accordées à chaque étape. Les principaux algorithmes du machine Learning par
renforcement sont les suivants : Q-learning, Deep Q Network (DQN) et SARSA (State-
Action-Reward-State-Action).
II.3 Objectifs de ML :
 Définir la machine Learning .
 Identifier si un problème relève ou non de la machine Learning .
 Donner des exemples de cas concrets relevant de grandes classes de problèmes de
machine Learning. [7]

Figure 1.2: familles,Algourithme et Objectifs de machine learning .

II.4 La différence entre l’IA et ML :


L'intelligence artificielle est une technologie qui permet à une machine de simuler le
comportement humain. Machine Learning est un sous-ensemble de l'IA qui permet à une
machine d'apprendre automatiquement à partir de données passées sans programmation
explicite. [8]

5
Chapter 01: L'intelligence artificielle

III. Deep Learning (DL):


III.1 Définition :
Le deep Learning ou apprentissage profond est un type d'intelligence artificielle dérivé
du machine Learning (apprentissage automatique) où la machine est capable d'apprendre par
elle-même, contrairement à la programmation où elle se contente d'exécuter à la lettre des
règles prédéterminées. [9]
III.2 Fonctionnement du DL :
Le deep Learning s'appuie sur un réseau de neurones artificiels s'inspirant du cerveau humain.
Ce réseau est composé de dizaines voire de centaines de « couches » de neurones, chacune
recevant et interprétant les informations de la couche précédente.[10]
III.3 La différence entre ML et DL : [11]

Figure 1.2: La différence entre ML et DL.

III.4 Les différents algorithmes de DL:


Plusieurs types d'algorithmes sont utilisés en apprentissage profond. Chaque algorithme
possède ses propres spécificités et applications.
III.4.1 Réseaux neuronaux récurrents (RNN) :
Les réseaux neuronaux récurrents possèdent des connexions qui constituent des cycles
dirigé[Link] permet aux sorties du LSTM d'être exploitées comme entrées au niveau de la
phase actuelle. La sortie du LSTM se transforme en une entrée pour la phase actuelle. Elle
peut donc mémoriser les entrées précédentes à l'aide de sa mémoire interne. Dans la pratique,
les RNN sont utilisés pour le sous-titrage d'images, le traitement du langage naturel et la
traduction automatique.

6
Chapter 01: L'intelligence artificielle

III.4.2 Réseaux de fonction de base radiale (RBFN) :


Ces algorithmes sont des réseaux neuronaux feedforward assez particuliers. Ils exploitent des
fonctions de base radiales en tant que fonctions d'activation. Ils sont constitués d'une couche
d'entrée, d'une couche cachée et d'une couche de sortie. Généralement, les RBFN sont utilisés
dans la classification, la prédiction des séries temporelles et la régression linéaire.
III.4.3 Réseaux de mémoire à long et court terme (LSTM) :
Les LSTM sont des dérivés de RNN. Ils peuvent apprendre et mémoriser des dépendances sur
une longue durée. Les LSTM conservent ainsi les informations mémorisées sur le long terme.
Ils sont particulièrement utiles pour prédire des séries chronologiques, car ils se rappellent des
entrées précédentes. Outre ce cas d'utilisation, les LSTM sont également utilisés pour
composer des notes de musique et reconnaître des voix.
III.4.4 Réseaux adversariaux génératifs (GAN) :
Les GAN créent de nouvelles instances de données qui s'apparentent aux données
d'apprentissage profond. Ils possèdent deux principaux composants : un générateur et un
discriminateur. Si le générateur apprend à produire des informations erronées, le
discriminateur, quant à lui, apprend à exploiter ces fausses informations. Les GAN sont
généralement utilisés par les créateurs de jeux vidéo pour améliorer les textures 2D.
III.4.5 Machines de Boltzmann restreintes (RBM) :
Les machines de Boltzmann restreintes sont des réseaux neuronaux stochastiques constitués
de deux couches : unités visibles et unités cachées. Ces réseaux artificiels sont capables
d'apprendre en partant d'une distribution de probabilité sur un ensemble d'entrées.

IV. Réseaux neuronaux convolutifs (CNN) :


On appelle réseau neuronal convolutif, ou réseau de neurones à convolution, (CNN pour
Convolutional Neural Network) un type de réseau de neurones artificiels utilisé dans la
reconnaissance et le traitement des images, et spécialement conçu pour l'analyse des pixels.
Les réseaux convolutifs sont une puissante application de l'intelligence artificielle (IA) au
traitement des images, qui s'appuie sur l'apprentissage profond pour effectuer des tâches
descriptives et génératives. Ils exploitent souvent la vision artificielle, notamment la
reconnaissance de la vidéo et des images, les systèmes de recommandation et le traitement
automatique du langage naturel (TAL, TLN , ou NLP en anglais). [12]

7
Chapter 01: L'intelligence artificielle

Figure 1.3: IA , Machine learning , Depp learning et CNN.

IV.1 Principe d’architecture d’un CNN :


Les réseaux de neurones convolutifs ont une méthodologie similaire à celle des méthodes
traditionnelles d'apprentissage supervisé : ils reçoivent des images en entrée, détectent les
features automatiquement de chacune d'entre elles, puis entraînent un classifieur dessus. Donc
les CNN réalisent eux-mêmes tout le boulot fastidieux d'extraction et description de features.
Lors de la phase d'entraînement, l'erreur de classification est minimisée afin d'optimiser les
paramètres du classifieur et les features ! De plus, l'architecture spécifique du réseau permet
d'extraire des features de différentes complexités, des plus simples au plus sophistiquées.
L'extraction et la hiérarchisation automatiques des features, qui s'adaptent au problème donné,
constituent une des forces des réseaux de neurones convolutifs. Aujourd'hui, les réseaux de
neurones convolutifs, aussi appelés CNN ou ConvNet pour Convolutional Neural Network,
sont toujours les modèles les plus performants pour la classification d'images..[13]

Figure 1.4: Principe d’architecture d’un CNN.

IV.2 Les couches du CNN :


IV.2.1 Couche convolution :
La convolution, d’un point de vue simpliste, est le fait d’appliquer un filtre mathématique à
une image. D’un point de vue plus technique, il s’agit de faire glisser une matrice par-dessus
une image, et pour chaque pixel, utiliser la somme de la multiplication de ce pixel par la

8
Chapter 01: L'intelligence artificielle

valeur de la matrice. Cette technique nous permet de trouver des parties de l’image qui
pourraient nous être intéressantes.
Appliquer le filtre sur l’image : dans la matrice image M, nous pouvons voir que chaque
valeur des pixels de l’image tuile (les cases orange) est multipliée par chaque valeur
correspondante du filtre (1x1, 1x0, 1x1 ….). Puis additionner tous ces valeurs pour obtenir
une seule valeur ’4’ qui fera partie d’une nouvelle image convoluée. [13]

Figure 1.5 : Couche convolution.

1. Relu – Unité linéaire rectifiée :


Relu est une fonction qui doit être appliquée à chaque pixel d’une image après convolution,
et remplace chaque valeur négative par un 0. Si cette fonction n’est pas appliquée, la fonction
créée sera linéaire et le problème XOR persiste puisque dans la couche de convolution,
aucune fonction d’activation n’est appliquée. [13]
IV.2.2 Pooling :
Ce type de couche est souvent placé entre deux couches de convolution : elle reçoit en entrée
plusieurs feature maps, et applique à chacune d'entre elles l'opération de pooling. L'opération
de pooling consiste à réduire la taille des images, tout en préservant leurs caractéristiques
importantes. Pour cela, on découpe l'image en cellules régulière, puis on garde au sein de
chaque cellule la valeur maximale. [13]

Figure 1.6 : Couche Pooling.

La couche de pooling permet de réduire le nombre de paramètres et de calculs dans le réseau.


On améliore ainsi l'efficacité du réseau et on évite le sur-apprentissage. [13]
IV.2.3 Couche fully-connected :
La couche fully-connected constitue toujours la dernière couche d'un réseau de neurones. Ce
type de couche reçoit un vecteur en entrée et produit un nouveau vecteur en sortie. Pour cela,

9
Chapter 01: L'intelligence artificielle

elle applique une combinaison linéaire puis éventuellement une fonction d'activation aux
valeurs reçues en entrée. La dernière couche fully-connected permet de classifier l'image en
entrée du réseau : elle renvoie un vecteur de taille N , où N est le nombre de classes dans notre
problème de classification d'images. Chaque élément du vecteur indique la probabilité pour
l'image en entrée d'appartenir à une classe. Par exemple, si le problème consiste à distinguer
les chats des chiens, le vecteur final sera de taille 2 : le premier élément (respectivement, le
deuxième) donne la probabilité d'appartenir à la classe "chat" (respectivement "chien"). Ainsi,
le vecteur [0.9 0.1] signifie que l'image à 90% de chances de représenter un chat.
Pour calculer les probabilités, la couche fully-connected multiplie donc chaque élément en
entrée par un poids, fait la somme, puis applique une fonction d'activation (logistique si N=2
, softmax si N>2) : Ce traitement revient à multiplier le vecteur en entrée par la matrice
contenant les poids. Le fait que chaque valeur en entrée soit connectée avec toutes les valeurs
en sortie explique le terme fullyconnected. [13]

Figure 1.7 : Les Couches de CNN.

IV.3 Architecture d’un CNN :


Un réseau de neurones à convolution peut avoir plusieurs étapes de convolution, Relu et
Pooling. Une règle à respecter est que la fonction de Relu doit obligatoirement être appliquée
après une étape de convolution afin d’avoir une réponse non-linéaire, mais le Pooling n’est
pas obligatoire. Après être passé par toutes les étapes de convolution, Relu et Pooling, nous
pouvons passer à la classification des images. La dernière phase consiste à envoyer tous les
pixels dans un réseau de neurones multicouches. Étant donné que nous avons pu récupérer les
parties les plus importantes d’une image que nous avons condensée, la phase de classification
sera beaucoup plus performante qu’en utilisant un réseau de neurones artificiels sans
convolution. [13].

10
Chapter 01: L'intelligence artificielle

IV.4 Relation entre IA et ML et DL :

Figure 1.7 : Relation entre IA et ML et DL.

 L’IA est l’imitation d’une réponse d’un expert dans un domaine.


 Le ML est de l’IA reposant sur des statistiques (Le ML adapte son algorithme mais a
besoin d’un expert pour les données)
Le DL est du ML utilisé avec des réseaux de neurones (Le DL extrait l’information pertinente
des données et adapte son algorithme). [14]

V. Conclusion :
Dans ce chapitre, nous avons fourni une vue générale de l'intelligence artificielle, notre travail
est considéré comme un travail du domaine de l’IA et plus précisément le Deep leaening.

11
Chapitre 02 : Environnement de travail

Chapitre 02 : Environnement de travail

1. Introduction :
Dans ce chapitre, nous parlerons de l’environnement du travail que nous avons utilisé dans la
création et l’apprentissage de notre modèle, Python et les différents outils tels qu’anaconda,
Colab et les bibliothèques les plus importantes qui nous ont aidés dans la programmation.

2. Python:

Figure 2.1:Logo Python.

2.1. Historique :

 En 1989, Guido van Rossum lance le développement d'un nouveau langage, le


Python, pour l'aider dans ses recherches. Une première version publique de
Python sort en 1991.
 En 1995, Van Rossum continue son travail au États-Unis et travail sur un projet
visant à faire du Python un langage d'apprentissage.
 Au cours des années suivantes, l'équipe de développement de Python va changer
plusieurs fois d'organisation et la version 2.0 aura été atteinte.
 Enfin, c'est en 2001 que la Python Software Foundation est créée pour la sortie de la
version 2.1. [15]

2.2. Définition :
Python est un langage de programmation interprété, de haut niveau, multiplateforme et orienté objet. Il
est conçu pour être facile à lire et à écrire, avec une syntaxe claire et concise qui encourage la
programmation modulaire et structurée. Python est largement utilisé dans de nombreux domaines, tels
que la science des données, l'intelligence artificielle, le développement Web, l'automatisation de tâches
et le calcul scientifique.[16]

2.3. Version actuelle :


On différencie deux versions : Python 2 et Python 3. Python 2, l’ancienne version propose des mises
à jour jusqu’en 2020. Python 3 est la version actuelle. Son interpréteur est plus efficace, ainsi que
son contrôle de concurrence. [17]

2.4. A quoi sert le langage Python ?


Les principales utilisations de Python par les développeurs sont :

12
Chapitre 02 : Environnement de travail

 la programmation d’applications
 la création de services web
 la génération de code
 la méta programmation. [17]

2.5. Utilisation de python :


2.5.1.Développement Web :
Ce puissant langage de programmation est utilisé par des milliers de sites dont les géants
Google, Uber ou Reddit car sa flexibilité permet de créer des utilitaires web complexes avec
une relative facilitée.
En ce qui concerne les Framework, tu peux continuer sur ta lancée en utilisant Django
(Framework Python) pour faciliter le processus de gestion des fonctionnalités du back-end ou
du serveur.
[Link] de bureau ou Desktop App :
Python est aussi un langage compatible avec une multitude de systèmes d’exploitation et peut
donc être utilisé pour construire des applications de bureau natives. Tu peux la coder en
Python ou faire appel à la bibliothèque standard Python qui est riche en outils permettant de
créer des applications de bureau simples avec une interface graphique.

[Link]èmes d’exploitation :
Orienté objet, ce langage rend les projets de grande envergure facile à gérer, grâce à Right-
Python, utilisé pour construire des systèmes d’exploitation entiers bien que cette solution ne
soit pas très populaire.

[Link] Science & Data Visualisation :


Que ce soit de la data analyse ou de la data science, la suite d’outils Python reste la meilleure
grâce aux bibliothèques Pandas ou Numpy qui aident à extraire des données.
Pandas, bien meilleure que les feuilles de calculs Excel utilisées pendant très longtemps pour
faire de l’analyse financière.
Si Pandas n’est pas assez rapide pour toi, Numpy offre la possibilité de faire de l’algèbre
linéaire, du calcul scientifique et une multitude de manipulations très techniques.
De même, Matplotlib, Seaborn, sont des bibliothèques de Data Viz.
[Link] de données ou Data Mining :
Le Data Mining est le processus d’analyse de grandes bases de données pour construire des
prévisions de tendances. Python simplifie l’analyse des données grâce à l’utilisation de
Framework et d’algorithmes. Les Framework les plus populaires sont NumPy, SciPy, Sci-kit
learn et Dask.

13
Chapitre 02 : Environnement de travail

2.5.6. Machine Learning :


La machine Learning consiste à former et à faire apprendre l’ordinateur par le biais
d’expériences ou de modèles passés en utilisant les données stockées ou en créant des
algorithmes.
Le Machine Learning est par exemple utilisé dans les systèmes de recommandation sur
Netflix ou Amazon.
Python joue un rôle essentiel en fournissant des bibliothèques et des Framework, les plus
populaires étant Scikit-Learn et TensorFlow.
2.5.7.Développement de jeux et graphiques 3D :
Python possède des bibliothèques et Framework permettant le développement de jeux :
 PyOpenGl : Bibliothèque avec des modules pour la production de jeux et de
programmes multimédia complets.
 Arcade : Bibliothèque Python permettant d’introduire des jeux en 2D.
 Panda3D : Enveloppe pour la programmation OpenGL.
 Blender : Outil pour la création de modèles graphiques 3D. [18]

2.6. Les bibliothèques Python:


[Link] :

Figure 1.2: Logo Matplotlib

Matplotlib est un module de dataviz très plaisant : c’est en effet lui qui te permet, en une ligne de
code, de créer des graphiques qui modélisent les données sur lesquelles tu travailles. Matplotlib
s’utilise en synergie avec Numpy ou Pandas.
Matplotlib offre une large variété de types de graphes qui s’adaptent à tous les besoins :
histogrammes, boîtes à moustache, courbes, scatter plots, camemberts… [19]

14
Chapitre 02 : Environnement de travail

Figure 1.3: Les graphiaue.

[Link]:

Figure 1.4: Logo Pandas .

Pandas est la bibliothèque la plus complète en ce qui concerne la manipulation de données.


On peut comparer pandas à un “Excel sous stéroïdes” : elle permet de travailler avec :
 des tableaux de données en deux dimensions (lignes et colonnes)
appelés Data Frames.
 des Panels, c'est-à-dire des ensembles de données en trois ou quatre
dimensions.
 Pandas permet également d’effectuer des calculs statistiques sur tes
données, par exemple avec la méthode .mean() qui permet d’obtenir la
moyenne des valeurs contenues dans une colonne. [19]

15
Chapitre 02 : Environnement de travail

[Link]:

Figure 1.5: Logo Numpy .

Numpy contients des modules de gestion de données et de calcul. Elle permet de gérer
facilement des bases de données : on les appelle les numpy arrays. Ce sont des listes, ou bien
des listes de listes. L’avantage de Numpy est de pouvoir créer rapidement une base de données, avec
des instructions simples que Python comprend. Ensuite, Numpy permet d’effectuer des opérations
particulièrement rapidement. [19]
[Link] :

Figure 1.6: Logo TensorFlow.

TensorFlow est le Framework de Deep Learning développé par Google. Comme PyTorch, il
permet de développer des réseaux de neurones profonds.
TensorFlow donne accès à des fonctionnalités et des techniques de Deep Learning très avancées,
mais on reproche souvent à ce Framework d’être un peu compliqué à prendre en main. Cette
complexité est compensée par la grande flexibilité qu’offre TensorFlow, dès lors qu’on maîtrise
l’outil. [19]

[Link] :

Figure 1.7: Logo Keras.

Keras est une API de réseau de neurones écrite en langage Python. Il s’agit d’une
bibliothèque Open Source, exécutée par-dessus des Framework tels que Theano et
TensorFlow. Conçue pour être modulaire, rapide et simple d’utilisation, Keras a été créée par

16
Chapitre 02 : Environnement de travail

l’ingénieur François Chollet de Google. Elle offre une façon simple et intuitive de créer des
modèles de Deep Learning. Aujourd’hui, Keras est l’une des APIs de réseaux de neurones
les plus utilisées pour le développement et le testing de réseaux de neurones. Elle permet de
créer très facilement des « layers » pour les Neural Networks ou de mettre en place des
architectures complexes. Un Modèle Keras est constitué d’une séquence ou d’un graphique
indépendant. Il existe plusieurs modules entièrement configurables et pouvant être combinés
pour créer de nouveaux modèles.
L’un des avantages de cette modularité est qu’il est très facile d’ajouter de nouvelles
fonctionnalités sous forme de modules séparés. Keras est donc très flexible, et adapté à la
recherche et à l’innovation. [19]

3. Anaconda :

Figure 1.8: Logo Anaconda.

3.1. Définition :
Anaconda est un outil dont la distribution est libre et open source. Il est destiné à la programmation
dans un environnement Python et R. Anaconda est largement utilisé en sciences de données, en
intelligence artificielle ou Machine Learning. Cette distribution scientifique de Python renferme de
nombreux packages nécessaires à l'analyse de données. Anaconda est également un gestionnaire
d'environnement open [Link] outil qui recense plus de 20 millions d'utilisateurs dans le monde
comprend entre autres :
 Une installation de l'environnement Python,
 Des IDE (environnement de développement intégré) de dernière génération à l'instar de
Jupyter ou de Spyder,
 Des packages de Data Science comme Pandas, Numpy, Scikit-Learn…
 l'outil Conda pour la gestion des environnements et des répertoires de package.
Anaconda assure grâce à ses différents outils et à l'environnement Python, une collecte, et une
transformation à grande échelle des données. Jupyter, l'un des IDE présents dans Anaconda, prend
en charge désormais plus de 40 langages de programmation. [20]

17
Chapitre 02 : Environnement de travail

Figure 1.9:L’iterface de anaconda.

4. Jupyter :

Figure 1.10: Logo Jupyter.

4.1. Définition :
Jupyter Notebook est une application client-serveur créée par l’organisation à but non
lucratif Project Jupyter. Elle a été publiée en 2015. Elle permet la création et le partage
de documents Web au format JSON constitués d’une liste ordonnée de cellules d’entrées et de
sorties et organisés en fonction des versions successives du document. Les cellules peuvent
contenir, entre autres, du code, du texte au format Markdown, des formules mathématiques ou
des contenus médias (Rich Media). Le traitement se fait avec une application client
fonctionnant par Internet, à laquelle on accède par les navigateurs habituels. Il est nécessaire
pour cela que soit installé et activé dans le système le serveur Jupyter Notebook. Les
documents Jupyter créés peuvent s’exporter aux formats HTML, PDF, Markdown ou
Python par exemple, ou bien se partager par email, avec Dropbox, GitHub ou un lecteur
Jupyter Notebook. [21]

18
Chapitre 02 : Environnement de travail

Figure 1.11:Home page.

4.2. À quoi peut servir Jupyter Notebook ?


Jupyter Notebook met à disposition un environnement qui répond parfaitement aux exigences et au
flux de travail dans le domaine de la science des données et de la simulation. Une seule et unique
instance permet à l’utilisateur d’écrire du code, de l’accompagner d’explications et de l’exécuter,
mais aussi de visualiser des données, d’exécuter des calculs et de vérifier les résultats obtenus.
C’est en particulier à l’étape du prototype qu’on apprécie la possibilité offerte de loger tous les
codes dans des cellules indépendantes, ce qui permet de tester individuellement des blocs de code
particuliers. Grâce à de nombreux noyaux complémentaires, Jupyter n’est pas limité à Python
comme langage de programmation, ce qui procure une énorme flexibilité de codage et d’analyse.
Voici quelques-uns des principaux usages qu’on peut faire de Jupyter Notebook :
 Nettoyage des données : faire le tri entre les données importantes et celles qui ne le sont
pas dans l’analyse des ensembles de méga données.
 Modélisation statistique : méthode mathématique permettant d’établir la probabilité de
répartition d’une caractéristique particulière.
 Création et mise en œuvre de modèles d’apprentissage automatique : étude,
programmation et apprentissage de modèles.
 Visualisation de données : représentation graphique de données pour faire apparaître des
structures, des tendances, des relations, etc. [21]
4.3. Comment utiliser Jupyter Notebook ?
Pour utiliser Jupyter Notebook il faut d’abord installer, dans son système ou dans le Cloud,
l’application client et serveur de l’environnement du code. La seule condition est qu’il soit
également installé une version valide de Python. C’est pourquoi l’équipe Jupyter recommande de
19
Chapitre 02 : Environnement de travail

télécharger la distribution Anaconda, qui contient aussi bien Jupyter Notebook et Python que
divers autres ensembles logiciels pour la science des données, le calcul scientifique, etc. Une fois
l’installation réalisée, on peut lancer le serveur Notebook par la ligne de commande, puis ouvrir le
tableau de bord dans le navigateur qu’on utilise (URL 'http : //localhost :8888').

Figure 1.12: Comment utiliser Jupyter Notebook.

C’est là qu’on crée de nouveaux dossiers dans le répertoire de Jupyter-Notebook, qu’on ouvre
l’éditeur de texte intégré et le terminal, ou bien qu’on lance un nouveau projet Jupyter.
Chaque nouveau projet créé ne contient d’abord qu’un seul champ de saisie vide. On peut
avec la barre des menus ajouter de nouveaux champs, importer des bibliothèques ou
incorporer des utilitaires (éléments interactifs). La barre de menus comprend en plus
des commandes permettant d’exécuter des codes et de les arrêter, d’enregistrer ou d’exporter
l’ensemble du document, ainsi que de choisir le noyau de base. [21]
4.4. Les avantages de Jupyter Notebook :
 open source (licence BSD modifiée)
 usage gratuit
 s’utilise à partir d’un navigateur
 live-coding
 variété d’options d’export et de partage des résultats
 gestion des versions
 possibilité de travail collaboratif (JupyterHub)
 permet d’utiliser plus de 50 langages de programmation. [21]

5. Conclusion :
Après avoir terminé ce chapitre, nous avons une vue générale sur le langage de
programmation Python et les outils utilisés, en plus d'un aperçu général des bibliothèques
TensorFlow et Keras.

20
Chapitre 03 Les images médicales et La pneumonie

Chapitre 03 : Les images médicales et La pneumonie.

1. Introduction :
L’imagerie médicale est devenue un outil essentiel d’aide au diagnostic et à la chirurgie, et
certainement l’un des domaines de la médecine qui a le plus progressé ces vingt dernières
années. Dans ce chapitre nous exposons une aperçue rapide sur les imageries médicale, et en
plus de la définition de la pneumonie et de ses symptômes les plus importants et du traitement
de cette maladie.

2. Les images médicales :


2.1. Définition :
On peut définir une image médicale comme la matérialisation sous forme d’images
d’information anatomique ou fonctionnelle in vivo de parties (organes, tissus, cellules) du
corps humain, ainsi que les données extraites ou dérivées de ces images. Ces images sont
obtenues pour répondre à un besoin médical (question posée par un clinicien) grâce à des
moyens techniques d’imagerie appropriés (en termes d’adéquation à la question posée, selon
l’état de l’art), tout en minimisant les risques/ coûts pour le patient. [22]

2.2. Équipement :
Les « moyens techniques d’imagerie appropriés » rapportent à l’équipement technique
permettant d’obtenir les images (appareils de radiographie, scanners X et IRM, échographie,
médecine nucléaire). [22]

Figure 3.1:Les différentes techniques d’imagerie médicale

21
Chapitre 03 Les images médicales et La pneumonie

2.3. Caractéristiques :
L’image médicale et comme toute image numérique est définit par un ensemble de
caractéristiques, on va citer les plus importantes dans notre travail, tout d’abord il faut définir
l’unité de base et le plus petit élément dont une image est constitue qui est:

Le Pixel: qui est une entité calculable qui peut recevoir une structure et une quantification. Si
le bit est la plus petite unité d’information que peut traiter un ordinateur, le pixel est le plus
petit élément que peuvent manipuler les matériels et logiciels d’affichage ou d’impression.
Chaque pixel a une position et une valeur dite: Luminance

La Luminance : est le degré de luminosité des points de l’image. Elle est définie aussi
comme étant le quotient de l’intensité lumineuse d’une surface par l’aire apparente de cette
surface, pour un observateur lointain, le mot luminance est substitué au mot brillance, qui
correspond à l’éclat d’un objet [9]. On définit aussi la Dimension C’est le nombre de pixels
multiplié par le nombre d'octets nécessaires au codage d'un seul pixel. Les images brutes
codifient en général chaque pixel sur un octet (images satellites METEOSAT, SPOT,
Landsat.); certaines images dédiées à un type précis de carte graphique codifient le pixel sur
un demi octet ou même sur un seul bit (format d'image noir et blanc binaire). Par contre les
images naturelles de très haute qualité sont codées sur 3, 4, voire 6 octets par pixel. Ces
fichiers sont donc très volumineux et subissent une compression pour le stockage et la
transmission .

Image à niveau de gris: Le niveau de gris est la valeur de l’intensité lumineuse en un point.
La couleur du pixel peut prendre des valeurs allant du noir au blanc en passant par un nombre
fini de niveaux intermédiaires. Donc pour représenter les images à niveaux de gris, on peut
attribuer à chaque pixel de l’image une valeur correspondant à la quantité de lumière
renvoyée. Cette valeur peut être comprise par exemple entre 0 et 255. Chaque pixel n’est donc
plus représenté par un bit, mais par un octet. Pour cela, il faut que le matériel utilisé pour
afficher l’image soit capable de produire les différents niveaux de gris correspondant. Le
nombre de niveaux de gris dépend du nombre de bits utilisés pour décrire la " couleur " de
chaque pixel de l’image. Plus ce nombre est important, plus les niveaux possibles sont
nombreux. [22]

22
Chapitre 03 Les images médicales et La pneumonie

2.4. Les différentes techniques d’imagerie médicale:


2.4.1. RAYONS X :

Figure 3.2: RAYONS X

Les premiers instruments sont nés de la découverte des rayons X par Wilhelm Röntgen,
physicien allemand, en 1896. Les rayons X traversent le corps humain en étant plus ou moins
absorbés selon la densité des tissus pénétrés : les os sont plus opaques que les muscles,
comme le montre la première radiographie que le physicien fit de la main de sa femme. Très
vite apparaît l’intérêt d’une telle découverte pour la médecine : explorer le corps humain sans
l’ouvrir !

Cette technique est encore exploitée pour déceler des fractures ou des tissus endommagés par
une maladie (pulmonaire par exemple) de manière simple : une source émettrice de rayons X
et un détecteur sont placés de part et d’autre de la portion du corps à radiographier, et en
fournissent une "photographie", une projection sur le plan du détecteur de l’atténuation des
rayons X par les tissus traversés. Le scanner repose sur le même principe ; la rotation
simultanée de la source et du détecteur permet d’obtenir plusieurs projections à partir
desquelles sont reconstruites des images 3D. [23]

Propriétés des rayons X : Un rayon X est une onde électromagnétique d’une longueur
d’onde très courte et d’une énergie inversement proportionnelle à celle ci. Les rayons X ont
les propriétés physiques, chimiques et biologiques suivant :

➢ Ils s’éloignent à partir du foyer en ligne droite dans toutes les directions, de ce fait, les
objets radiographiés sont reproduits de même manière plus ou moins agrandie.

➢ Traversent les corps d’autant plus facilement que leur longueur d’onde est plus basse
(énergie importante). Le pouvoir de pénétration des rayons X dépend de la nature de l’anode
et de la tension appliquée (en Kilo Watt). ➢ S'atténuent en traversant les corps (atténuation
importante) ; corps épais et Z élevé.

23
Chapitre 03 Les images médicales et La pneumonie

➢ Ils produisent un rayonnement secondaire dans le domaine du radiodiagnostic. Seul le


rayonnement diffusé à une importance pratique. ➢ Les rayons X ionisent les gaz (les rendent
électriquement conducteurs) utilisés dans les appareils de mesures en dosimétrie.

➢ Les rayons X produisent l’illumination de certains sels minéraux (écran de fluorescence).

➢ Les rayons X émulsionnent le bromur d'argent et provoquent après développement une


image photographique.

➢ Les rayons X ont une action biologique suivant la dose administré (base de la radiothérapie
et la radioprotection). [24]

2.4.2. Le scanner :
Le scanner (ou tomodensitométrie) permet l’observation en 3D L’apport de l’informatique et
du traitement numérisé des images a abouti à la mise au point de la tomodensitométrie (ou
scanner) en 1972. Le scanner repose également sur l’utilisation des rayons X mais permet
d’obtenir des images tridimensionnelles des organes ou des tissus (os, muscles ou vaisseaux)
sous forme de coupes. En pratique, un tube émetteur de rayons X tourne à très grande vitesse
autour du patient et prend une succession d’images du corps à 360°. Des capteurs qui
entourent le patient mesurent l’absorption des différents tissus. Grâ ce au scanner on visualise
une modification de volume ou une anomalie de structure (infections, hémorragies, tumeur,
ganglions, embolie… ). En cancérologie, il permet de contrô ler la réponse à la
chimiothérapie. On l’utilise également pour guider les drainages et les [Link] pour
la radiographie, un produit de contraste à base d'iode, opaque aux rayons X, peut être
nécessaire pour étudier certains organes. [25]

Figure 3.3 :scanner.

2.4.3. L’échographie pour étudier le fonctionnement des


organes:
L’échographie utilise les ultrasons, ondes sonores imperceptibles à l’oreille humaine. Quand
une sonde émet des ultrasons en direction d’un objet solide, ceux-ci rebondissent sur l’objet et
reviennent au point de départ. L’échographie mesure le temps nécessaire pour ce trajet (écho)
et restitue une image en temps réel permettant de distinguer les différentes structures. Grâ ce à

24
Chapitre 03 Les images médicales et La pneumonie

cette technique, on peut explorer le cœur, les organes digestifs (foie, rate, pancréas, vésicule
biliaire), urinaires (vessie, reins) et génitaux (prostate et testicules, ovaires et utérus). Quant
aux échographies de la grossesse, elles visent à apprécier la vitalité et la morphologie du
fœtus ainsi que son environnement (liquide amniotique, placenta, cordon… ). L’échographie
doppler est importante dans l’évaluation du système vasculaire. [25]

Figure 3.4 : L’échographie.

2.4.4. Image par résonance magnétique (IRM) :

En animation Flash L’IRM fonctionnelle est un atout majeur pour étudier l’activité cérébrale.
Une IRM effectuée au repos et une autre après un stimulus permettent de localiser les zones
du cerveau qui s’activent en visualisant l’afflux sanguin. [25]

Figure 3.4: IRM.

25
Chapitre 03 Les images médicales et La pneumonie

3. la pneumonie :
3.1. Qu’est-ce que la pneumonie?
La pneumonie, c’est une infection des poumons. Elle est causée par des germes appelés
bactéries ou virus. Un liquide s’accumule dans la partie infectée du poumon, ce qui empêche
l’oxygène de s’y rendre et rend la respiraion difficile. Quand l’organisme reçoit moins
d’oxygène, il devient plus difficile de se déplacer et d’accomplir les activités habituelles. La
pneumonie peut survenir à tout âge. Elle s’avère un problème courant et grave chez les
adultes âgés. Dans certains cas, le rétablissement est long. La pneumonie survient plus
souvent pendant la saison du rhume et de la grippe, mais elle peut s’attraper à tout moment de
l’année.

3.2. Comment découvrir le maladie grâce à RAYONS X :


La découverte de cette maladie est basée sur les changements visibles dans l'image médicale,
et c'est ce que montrent les deux images, où la première image est celle d'une personne en
bonne santé qui n'a aucun changement, et c'est le contraire de ce que l'on trouve sur la
deuxième photo, où l'on remarque la présence d'une blancheur au niveau des poumons, ce qui
explique le déclenchement de la maladie chez cette personne

Figure 3.6 :Pneumo. Figure 3.7 :Normal.

3.3. Quels sont les signes de la pneumonie?


Certaines personnes présentent des signes de la pneumonie, tandis que d’autres n’en ont pas.
Voici les symptômes courants :

• fièvre ou température inférieure à la normal

• frissons

• douleurs à la poitrine ou sensation de lourdeur quand on respire

• toux sèche ou accompagnée de crachat

26
Chapitre 03 Les images médicales et La pneumonie

• nausées, vomissements et diarrhée Le délire est un autre signe de la pneumonie. Le délire est
un état de confusion qui survient soudainement et qui va et vient.

3.4. Qui est à risque de pneumonie?


De nombreuses personnes âgées sont à risque de pneumonie.
Quelques facteurs de risque
• Mauvaise alimentation et mauvaise hygiène dentaire
• Tabagisme
• Consommation excessive d’alcool La pneumonie
Autres facteurs de risque
• Problèmes de santé chroniques
• Problèmes de déglutition
• Alimentation par sonde
• État immunitaire affaibli
• Convulsions[26]
3.5. Comment traite-t-on la pneumonie?
On utilise des antibiotiques pour traiter la pneumonie causée par des bactéries. Il existe toutes
sortes d’antibiotiques. Votre fournisseur de soins de santé déterminera celui qui vous convient
le mieux. S’il vous prescrit des antibiotiques, vous devrez prendre TOUT le médicament
jusqu’à ce qu’il n’en reste plus, même si vous vous sentez mieux. N’arrêtez pas de prendre ce
médicament à moins que votre fournisseur de soins de santé vous le dise. [26]

4. Conclusion :
Nous avons consacré ce chapitre à définir les différentes images médicales, en plus de définir
la pneumonie avec ses principaux symptômes et méthodes de traitement.

27
Chapter 04: Implémentation

Chapitre 04: Implémentation.

1. Introduction :

Ce chapitre résume la partie pratique de notre travail, il résume la création et la division des
dossier des images médicales, ainsi la création de modèle CNN pour l’apprentissage profond,
ensuite l’apprentissage du modèle sur les images collecter dans le data set, la visualisation des
graphes illustrant le taux de reconnaissance de la maladie.

2. Data Set:

Dans notre travail on utilise un ensemble des images du radiographique pulmonaire chest X-
ray spécifique à la maladie pneumonia, contient des images des patients qui portent déjà la
maladie du pneumonia(positif) obtenu à l’hôpital de « Bougera Boulaares Bekaria », et on
obtient les autres images(négatif) des patients ne sont pas porteurs de la maladie obtenu
de «Kaggle ». L’ensemble de données continents 452 images parmi eux 226 images du
pneumonie (positif) et 226 images normal (négatif), qui sont enregistrées au [Link],
Nous l'avons divisé 75% images pour le training et 20% pour le validation et 5% images pour
le test qui sont sélectionnés un par un manuellement à l’aide d’un médecin pneumologue.

2.1- Organisation du data set:

Nous avons trois ensemble : train, val et test et chaque ensemble contient deux sous
ensemble : nrml (pour les non malade) et pneumo (pour les pneumonies).
L’ensemble train contient 145 de nrml et 145 pneumo.
L’ensemble val contient 55 de nrml et 55 pneumo.
L’ensemble test contient 26 nrml et 26 pneumo.

Figure 4.1: Organisation de data set.

28
Chapter 04: Implémentation

3. Création du modèle :

Nous allons créer un modèle d’apprentissage en profondeur qui va apprendre la différence


entre les images des rayons X normaux et les images des rayons X affectés par pneumonie.

Figure 4.2: Création du modèle.

Donc, Ce code représente l'architecture de notre modèle de réseau de neurones convolutionnel


(CNN) pour la classification binaire d'images de radiographie pulmonaire en normal ou
présentant une pneumonie.
Le modèle comporte plusieurs couches de convolution (Conv2D) qui permettent de détecter
des motifs dans les images, suivies de couches de pooling (MaxPool2D) pour réduire la
dimensionnalité de la sortie des couches de convolution. Des couches de Dropout sont
également utilisées pour éviter le surapprentissage.
La sortie des couches de convolution est aplatie (Flatten) pour passer à travers des couches
denses (Dense). Ces dernières permettent de fusionner les caractéristiques détectées par les
couches de convolution pour effectuer la classification finale en normal ou pneumonie. La
couche finale utilise la fonction d'activation sigmoid pour produire une sortie comprise entre 0
et 1, qui représente la probabilité d'appartenir à chaque classe.

Figure 4.3: commande de résume de modèle

29
Chapter 04: Implémentation

 Le schéma suivant montre les paramètres du modèle crée.

Figure 4.4: les paramètres du modèle crée.

4. Apprentissage du modèle:
Apres la création du modèle, il faut lancer l’étape d’apprentissage plusieurs fois, en change le
nombre d’époches jusqu’à l’obtention des résultats valides cet opération, à chaque fois on
augmente le nombre d’époches jusqu’à 24 époches ont été obtenus des résultats valides.
 Epoches=24:
Le schéma suivant montre l’apprentissage du modèle en 24 époches.

30
Chapter 04: Implémentation

Figure 4.5: Apprentissage du modèle.


Les résultats obtenus après 24 époches sont valide, par exemple l’accuracy =0,97 très
proche de 1.

5. Résolution :
 Le graphe :
Le graphe suivant montre l’évolution des paramètres d’apprentissage suivant les époches.

31
Chapter 04: Implémentation

Figure 4.6: loss et validation loss.


Le graphe précédent représente les changements de ’’Loss & Validation Loss ‘’ par rapport
le nombre des époches de sorte que la valeur initiale de loss=1.82 et chaque fois que le
nombre des époches est augmenté la valeur de loss est diminuer a 0.06, et cela indique que
l’apprentissage est réussite.

Figure 4.6: Accuracy et Validation Accuracy.

32
Chapter 04: Implémentation

Le graphe précédent représente les changements de ’’Accuracy & Validation Accuracy ‘’


par rapport le nombre des époches de sorte que la valeur initiale de binary_accuracy = 0.6 et
chaque fois que le nombre des époches est augmenté la valeur de binary_accuracy est
diminuer a 0.97, et cela indique que l’apprentissage est réussite.
 La matrice de confusion :

Figure 4.7 : Matrice de Confusion.

Cette matrice de confusion montre que Parmi 55 images des patients sain il détecte 55, et
parmi 55 cas positifs il détecte 54 ce qui signifie que ce modèle est promettant, on dit que ce
modèle il est fiable d’être utilisée comme un outil d’aide à la diagnostique pour les médecins.

6. Test de modèle :
Apres avoir obtenu le modèle avec de bons résultats, cela ne suffit pas pour vérifier la validité
de notre travail, il faut plutôt effectuer d’autres tests.

33
Chapter 04: Implémentation

6.1- Test Data set :


Pour tester la base de donnes complètes image par image.

Figure 4.7: Test Data set .

7. Conclusion :

Les résultats montre que notre modèle est bien apprend et donne un taux de réussite converge
le 100% (99%) ce qui signifie, qu’il est fiable d’être un outil d’aide a la diagnostique pour la
détection des maladies pneumonia.

34
Conclusion Générale

Conclusion Générale :
En conclusion, l'utilisation de l'intelligence artificielle pour la détection des maladies
pulmonaires est une méthode prometteuse qui offre de nombreux avantages par rapport aux
méthodes traditionnelles de diagnostic. Les résultats de ce travail de recherche montrent que
l'utilisation d'un modèle d'apprentissage automatique tel qu'un CNN peut aider à détecter avec
précision la présence de maladies pulmonaires à partir d'images médicales.
Cependant, il est important de souligner que cette méthode doit être utilisée en complément des
méthodes de diagnostic traditionnelles et qu'elle ne doit pas être considérée comme un substitut.
Les résultats des modèles d'IA doivent être confirmés par des experts médicaux avant de poser
un diagnostic.
Enfin, il convient de noter que la qualité des données utilisées pour entraîner les modèles d'IA est
cruciale pour garantir la précision des résultats. Il est donc essentiel de collecter et d'annoter des
ensembles de données de haute qualité pour améliorer la précision des modèles d'IA pour la
détection des maladies pulmonaires.
Notre travail limité sur une seul maladie « Pneumonia » et le traiter avec un seul type
d’imagerie médicale.
Il existe de nombreux scénarios futurs pour l'utilisation de l'intelligence artificielle dans le
diagnostic des maladies pulmonaires, notamment :
1. D’introduire d’autre maladie dans notre modèle, et avec d’autre type d’image tel que
SCT SCANNER , ECOGRAPHIE…
2. Augmenter la précision du diagnostic : On s'attend à ce que la précision du diagnostic soit
améliorée en utilisant l'intelligence artificielle, car les modèles seront entraînés sur des
données médicales vastes et diverses, ce qui contribue à améliorer le diagnostic avec une
plus grande précision.
3. Réduction de l'intervention humaine : l'IA peut être utilisée pour identifier avec précision
les maladies pulmonaires sans nécessiter d'intervention humaine, réduisant ainsi les
erreurs de diagnostic résultant de l'intervention humaine.
4. Gain de temps et d'argent.
5. Prédire les maladies chroniques.
Le domaine est appelé à évoluer constamment avec le développement de nouvelles technologies
en intelligence artificielle et l'amélioration des méga données médicales disponibles.

35
Bibliographie:

Bibliographie:

[1] : NetApp (2023). < [Link]


intelligence/ >

[2] : Talend (2023) .< [Link]

[3] : Alternatives [Link](2023) .< [Link]


[Link]/reseauinnovation/2023/02/13/les-risques-de-l-intelligence-artificielle>

[4] : Actualité Parlement européen (2023 ) .<


[Link]
artificielle-definition-et-utilisation>

[5] : DataScientest (2023) .< [Link]

[6] : Talend (2023). < [Link]

[7] :IntroML_Azencott.pdf(2023).
< [Link]

[8]: [Link](2023) .< [Link]


learning/>

[9] : futura –sciences(2023).< [Link]


[Link]/tech/definitions/intelligence-artificielle-deep-learning-17262/ >

[10] : futura –sciences(2023) .< [Link]


[Link]/tech/definitions/intelligence-artificielle-deep-learning-17262/ >

[11] : DataScientest (2023). < [Link]

[12] : LemagIt(2023).< [Link]

[13] : support_de_cours_-deep_learning-[Link] univ batna


(2023).<[Link]
deep_learning-[Link]>

[14] : geek mais pas que(2023).


Bibliographie:

< [Link]
learning- liens-differences/?cn-reloaded=1 >

[15] : [Link](2023).

[16] : ChatGPT.
[17] : [Link](2023).< [Link]
webmastering/1445304-python-definition-et-utilisation-de-ce-langage-informatique/>

[18] : [Link] (2023).< [Link]


python-et-quelle-est-son-utilisation/ >

[19] : Databird(2023).< [Link]

[20] : Jedha(formation python)(2023).< [Link]


python/ananconda-python>

[21] : [Link](2023) .< [Link]


web/jupyter-notebook/>

[22] :Academie Nationale De Medecine(2023). < [Link]


[Link]/quest-ce-quune-image-medicale-considerations-medico-economiques/>

[23] : [Link](2023).

[24] : cours de radiologie 01 production des rayons_x 2016 -[Link] univ-


telemcen(2023).

[25] : IMAGERIE [Link](2023).

[26] : Hamilton Health Sciences (2023).

Vous aimerez peut-être aussi