Final Memoire
Final Memoire
Présenté Par :
1) Mme. ABDALLAH BERRHAIL Raounak
2) Melle. BENSAHA Sara
(Annexe de l’arrêté n°933 du 28 juillet 2016 fixant les règles relatives à la prévention et la lutte contre
le plagiat)
Je soussigné,
Télécommunication
Signature de l’étudiant
الجمهوريـــة الجزائريـــة الديمقراطيــة الشعبيــة
République Algérienne Démocratique et Populaire
وزارة التعليم العاليوالبحث العلمي
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
- بلحاجبوشعيب-جامعة عينتموشنت
Université Ain Témouchent- Belhadj Bouchaib -
كلية العلوم والتكنولوجيا
Faculté des Sciences et de la Technologie
(Annexe de l’arrêté n°933 du 28 juillet 2016 fixant les règles relatives à la prévention et la lutte contre
le plagiat)
Je soussigné,
Télécommunication
Signature de l’étudiant
Dédicace
Tous les mots ne sauraient exprimer la gratitude, l’amour, le respect, la
reconnaissance, c’est tous simplement que : Je dédie ce mémoire à
Grâce à leurs tendres encouragements et leurs grands sacrifices, ils ont pu créer le
climat affectueux et propice à la poursuite de mes études. Aucune dédicace ne
pourrait exprimer mon respect, ma considération et mes profonds sentiments
envers eux. Je prie le bon Dieu de les bénir, de veiller sur eux, en espérant qu’ils
seront toujours fiers de moi.
Merci mes adorables pour votre présence, votre amour et votre tendresse, pour
donner du goût et du sens à ma vie. Veuillez trouver dans ce modeste travail
l’expression de mon affection.
Merci d’être toujours à mes côtés, par ta présence, par ton amour, merci pour
L’encouragement que tu m’as donné, merci pour tout ce que tu as fait pour moi.
A mon professeur
Leur générosité et leur soutien m’oblige de leurs témoigner mon profond respect et
ma loyale considération.
A tous les membres de ma famille, petits et grands A tous mes amis et mes
collègues.
Raounak
Je dédie ce modeste
A mes frère
A mes soeur
A mes professeur
Sarra
Remerciements
i
Table des matières
Glossaire vii
I Partie Théorique 4
ii
2.3.1 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Le type d’Image . . . . . . . . . . . . . . . . . . . . . . . . . . 16
[Link] Image binaire . . . . . . . . . . . . . . . . . . . . . . 16
[Link] Images à niveaux de gris . . . . . . . . . . . . . . . . 17
[Link] Images en couleur . . . . . . . . . . . . . . . . . . . 17
[Link] Conversion d’une image RGB en niveau de gris . . . 17
2.3.3 La Résolution d’une Image . . . . . . . . . . . . . . . . . . . . 18
2.4 Les formats d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 TIFF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 JPEG (également connu sous le nom de JPG) . . . . . . . . . 19
2.4.3 GIF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.4 PNG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Prétraitement d’images . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1 Elimination du bruit . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.2 Bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
[Link] Bruit Gaussien . . . . . . . . . . . . . . . . . . . . . 21
[Link] Bruit de sel . . . . . . . . . . . . . . . . . . . . . . . 22
[Link] Bruit de poivre . . . . . . . . . . . . . . . . . . . . . 22
[Link] Bruit de sel et de poivre . . . . . . . . . . . . . . . . 22
2.5.3 Le filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.4 Redimensionnement d’une image . . . . . . . . . . . . . . . . 22
2.5.5 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Les opérations sur les images . . . . . . . . . . . . . . . . . . . . . . . 24
2.6.1 Dilatation et érosion . . . . . . . . . . . . . . . . . . . . . . . 24
2.6.2 Segmentation par seuillage . . . . . . . . . . . . . . . . . . . . 24
2.6.3 Détection de contour . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.4 Analyse des composantes connectées . . . . . . . . . . . . . . 26
2.7 La vidéo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7.2 Nombre d’image par second . . . . . . . . . . . . . . . . . . . 27
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
iii
3.3 Caméras de surveillance du trafic . . . . . . . . . . . . . . . . . . . . 31
3.4 Principe de détection des véhicules . . . . . . . . . . . . . . . . . . . 32
3.4.1 Méthodes fondées sur les connaissances préalables . . . . . . . 33
3.4.2 Méthodes basées sur le mouvement . . . . . . . . . . . . . . . 33
3.4.3 Méthodes basées sur les ondelettes . . . . . . . . . . . . . . . 34
3.4.4 L’apprentissage automatique : (« machine learning » ML) . . 34
3.4.5 Apprentissage profond « DL » . . . . . . . . . . . . . . . . . . 34
3.5 Soustraction de l’arrière-plan . . . . . . . . . . . . . . . . . . . . . . . 35
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.5.2 Background Subtraction . . . . . . . . . . . . . . . . . . . . . 35
3.5.3 Les différents étapes de la soustraction d’arrière-plan . . . . . 36
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
II Partie pratique 38
4 Résultats Experimentaux 39
4.1 introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Les outils de développement . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2 OpenCV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.3 Google Colaboratory . . . . . . . . . . . . . . . . . . . . . . . 41
4.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
iv
Table des figures
1.1 IOT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 La gestion intelligente du trafic . . . . . . . . . . . . . . . . . . . . . 8
v
Liste des tableaux
vi
Abréviations
DL : Deep Learning
FPS : Frame Par Second
IoT : Intelligent of Transport
ITS : Intelligent Traffic System
JPEG : Joint Photographic Experts Group
ML : Machine Learning
MP : Méga Pixels
PNG : Portable Network Graphics
RFID : Radio Frequency IDentification
RVB : Rouge Vert Bleu
TIFF : Tagged Image File Format
V2I : Véhivule à Infrastructure
V2V : Véhivule à Véhivule
vii
Résumé
Abstract
jÊÓ
àC¾ ð áJkAJ.ÊË èQJ.» éJ Òë @ AÒêË úΪ®Ë@ I ¯ñË@ ú¯ HAJ . »QÖÏ @ ZAk@ ð ¬A »@ à@
áÓ QåJ« . àYÖÏ @ ú¯ HAJ . »QÒÊË éJÓ@ð éÊð
ém ' QÓ é»Qk
Ë ÐA« ɾ . ©ÒJj.ÖÏ @ ék Ag
.
® JÊÖÏ @ PñË@ ú¯ H@
é¢ P AJË@ Y« ð ºË@ úΫ èPY®Ë@ ñë ú»X É® K ÐA¢ ø B ø PðQåË@
ºÊË é®K Q£ QK ñ¢ úÍ@ ÉÒªË@ @ Yë ¬YîE . K Q¢Ë@ ©£A® K ñ ¯ éJJÓ éJK AK @QÓA¾K
. . .
ÕæK .ú»YË@ É® JË@ ÐA¢JË@ AêÓYjJ úæË@ èPñË@ HA KAJK. ú¯ AJKA®Ê K H@
P AJË@ H. AmÌ '@ð
. èPAJË@ á« ºÊË éJ ®ÊmÌ '@ ú¯ hQ¢Ë@ é®K Q£ Ð@YjJ@
Introduction générale
Contexte
La détection et le comptage des véhicules jouent un rôle efficace et significatif
dans le domaine des systèmes de surveillance du trafic, où la gestion efficace du
trafic et la sécurité sont les principales préoccupations. La détection des véhicules
peut être réalisée à l’aide de caméras de surveillance montées à l’extérieur offrant
plusieurs avantages tels que l’absence de perturbation du flux de circulation, la
facilité d’installation et de modification.
La détection automatique des données des véhicules a été largement utilisée dans
le système d’information sur les véhicules et le système de trafic intelligent. Elle a
attiré davantage l’attention des chercheurs au cours de la dernière décennie grâce
aux progrès de la technologie de l’imagerie numérique et de la capacité de calcul.
De nos jours, les systèmes de détection automatique des véhicules sont essentiels au
contrôle du trafic routier ; certaines applications de ces systèmes sont le système de
réponse au trafic, le contrôleur des feux de circulation, le système d’avertissement
de sortie de voie, la détection automatique des accidents de véhicules et l’estimation
automatique de la densité du trafic.
Un système de comptage automatique de véhicules utilise des données vidéo
acquises par des caméras de circulation fixes, en effectuant des opérations mathé-
matiques sur un ensemble d’images obtenues à partir de la vidéo pour estimer le
nombre de véhicules présents dans une scène.
2
Objectif
L’objectif de ce travail est de développer un système de comptage automatique
des véhicules, capable de traiter les vidéos enregistrées par des caméras fixes sur les
routes et de compter le nombre de véhicules qui passent à un endroit donné à un
moment donné. Une approche simple a été adoptée pour résoudre le problème en
utilisant la détection d’objets basée sur un segmenteur adaptatif basé sur les pixels et
un comptage des objets détectes basé sur des règles simples. Le nombre de véhicules
calculé est envoyé au serveur, où les informations sur les utilisateurs enregistrés et
les détails du trafic sont également sauvegardés et notifiés à l’utilisateur en temps
réel.
Structure
Notre travail est composé de quatre chapitres structurés comme suit : le chapitre
1 donne un système du trafic intelligent. Le chapitre 2 présente une détection des
véhicules. Le chapitre 3 décrit la généralité sur traitement d’image. Le chapitre 4
traitera les résultats. Enfin, une conclusion et des directions possibles pour le travail
futur sont présentées à la fin de ce document.
3
Première partie
Partie Théorique
4
Chapitre 1
Système du Trafic Intelligent
Sommaire
1.1 Définition d’un système du trafic intelligent . . . . . . . 6
1.2 L’historique . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Les applications . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Le télépéage . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Gestion du stationnement en temps réel . . . . . . . . . . 9
1.3.3 Application automatisée de la vitesse sur la route . . . . . 9
1.3.4 Alertes de vitesse . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.5 RFID dans le transport de marchandises . . . . . . . . . . 10
1.3.6 Systèmes d’évitement de collision . . . . . . . . . . . . . . 10
1.3.7 Système de notification des véhicules d’urgence . . . . . . 11
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5
1.1 Définition d’un système du trafic intelligent
Que signifie un système intelligent
Un système intelligent est une machine qui intègre un ordinateur connecté à
internet qui peut collecter et analyser des données et communiquer avec d’autre
système [Krishnakumar, 2003].Un système intelligent est un système qui émule cer-
tains aspects de l’intelligence manifestée par la nature. Ces aspects comprennent
l’apprentissage, l’adaptabilité, la robustesse dans plusieurs domaines, l’amélioration
de l’efficacité (dans le temps et/ou l’espace), la compression de l’information (des
données aux connaissances), le raisonnement extrapolé. L’objectif principal du pré-
sent chapitre est de donner un aperçu des diverses caractéristiques et composantes
des systèmes intelligents.
Après avoir mis en évidence la notion d’intelligence informatique et sa relation avec
l’intelligence artificielle, nous poursuivons avec l’informatique douce et les systèmes
hybrides.
6
Figure 1.1 – IOT
1.2 L’historique
La culture automobile américaine a commencé à se former au début du 20 eme
siècle. Le premier signal tricolore de circulation a été déployé en 1914, et le pre-
mier parc mètre a été installé en 1935. Rien que dans les années 1920, le nombre
de voitures particulières immatriculées aux États-Unis a presque triplé, passant de
8 millions à 23 million. Les ventes d’automobiles ont ralenti dans les années 1930
et au début des années 1940, en raison de la grande dépression et de la seconde
Heurte mondiale. Et de la seconde Heurte mondiale. Environ 30 million de véhicules
automobiles (voiture, camions et autobus) ont été immatriculées en 1973 [?]. Le
nombre de véhicules n’a que légèrement augmenté au cours des années suivantes,
passant d’environ 32 millions en 1940 à 33 millions en 1946. Après la seconde guerre
mondiale, les États-Unis ont connu une croissance économique et une augmentation
du développement des terres. Les usines, qui répondaient auparavant aux besoins
de la guerre, sont passés à la production d’automobiles. Les ventes d’automobiles se
sont à nouveau accélérer au milieu des années 40, en partie parce que de nombreuses
familles de la classe moyenne ont quitté les villes pour les nouvelles banlieues. En
7
1950, le nombre de véhicules immatriculés était passé à 49 million.
Au cours des dernières années, de 2010 à aujourd’hui, d’autres nouvelles découvertes
ont été faites, et ce sont : en 2010, des applications de crowdsourcing sont dévelop-
pées pour être utilisées dans les transports : en 2011 : la première démonstration
publique de véhicules connectés a lieu au 18 eme congrès mondial ITS à Orlando
en 20120. l’USDOT lance le modèle pilote de sécurité 2012-2013 Déploiement dé-
montrant la communication V2V, en 2014 generale motors annonce l’avenir de la
conduite semi-autonome et la capacité de communication V2V vers 2017 Cadillac
en 2015 Connecté Véhicule Pilot Déploiement Awards sont annoncés, le président
Obama annonce l’initiative Smart Cities et la secrétaire Foxx lance le défi Smart
City [Fougères, 2001].
8
1.3.1 Le télépéage
Le télépéage (ETC) est un système sans fil permettant de collecter automatique-
ment les frais d’utilisation ou les péages facturés aux véhicules empruntant les routes
à péage, les voies réservées aux véhicules à fort taux d’occupation, les ponts à péage
et les tunnels à péage. Dans la plupart des systèmes, les véhicules utilisant le système
sont équipés d’un transpondeur radio automatisé. Lorsque le véhicule passe devant
un lecteur de péage en bordure de route, un signal radio émis par le lecteur déclenche
le transpondeur, qui renvoie un numéro d’identification qui enregistre l’utilisation
de la route par le véhicule, et un système de paiement électronique facture le péage
à l’utilisateur.[BIDAUD, 2005]
9
1.3.4 Alertes de vitesse
L’assistant intelligent de limitation de vitesse est conçu pour vous aider à contrô-
ler votre vitesse, vous permettant ainsi de vous concentrer sur la route. Tout d’abord,
une caméra frontale détecte automatiquement la limite de vitesse en vigueur. S’il est
activé, le système ajuste votre vitesse maximale à cette limite. Cette fonction coor-
donne la position de la voiture, via GPS, avec une base de données d’informations
sur les limites de vitesse pour alerter les conducteurs s’ils accélèrent. Cela aide les
conducteurs à maintenir une vitesse de conduite sûre.
10
— Freinage automatique d’urgence (AEB)
— Régulateur de vitesse adaptatif
— Contrôle électronique de la stabilié (ESC)
— Aide au stationnement
1.4 Conclusion
Les STI représentent la prochaine étape de l’évolution de l’ensemble du système
de transport d’un pays. Les embouteillages, le taux d’accidents de la route et le
gaspillage de carburant sont réduits dans une large mesure. Le transport est devenu
un mode plus sûr et plus efficace. Par conséquent, avec beaucoup plus d’intérêt et de
recherche avancée dans le domaine des STI, il peut être mis en œuvre dans notre pays
et peut s’avérer être la solution des problèmes de trafic, y compris les embouteillages,
la pollution de l’air et les accidents de la route. Ce système permettra un progrès
important dans le développement de notre pays
11
Chapitre 2
Généralités sur le Traitement d’Images
Sommaire
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Définition de l’image . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Acquisition d’une image . . . . . . . . . . . . . . . . . . . 15
2.3 Caractéristiques d’une image numérique . . . . . . . . . 16
2.3.1 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Le type d’Image . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.3 La Résolution d’une Image . . . . . . . . . . . . . . . . . 18
2.4 Les formats d’images . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 TIFF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 JPEG (également connu sous le nom de JPG) . . . . . . . 19
2.4.3 GIF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.4 PNG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Prétraitement d’images . . . . . . . . . . . . . . . . . . . . 20
2.5.1 Elimination du bruit . . . . . . . . . . . . . . . . . . . . . 21
2.5.2 Bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.3 Le filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.4 Redimensionnement d’une image . . . . . . . . . . . . . . 22
2.5.5 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Les opérations sur les images . . . . . . . . . . . . . . . . 24
2.6.1 Dilatation et érosion . . . . . . . . . . . . . . . . . . . . . 24
2.6.2 Segmentation par seuillage . . . . . . . . . . . . . . . . . 24
12
2.6.3 Détection de contour . . . . . . . . . . . . . . . . . . . . . 25
2.6.4 Analyse des composantes connectées . . . . . . . . . . . . 26
2.7 La vidéo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7.2 Nombre d’image par second . . . . . . . . . . . . . . . . . 27
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
13
2.1 Introduction
De nos jours, le traitement d’images fait partie des technologies en plein essor.
Il constitue un domaine de recherche essentiel dans les disciplines de l’ingénierie et
de l’informatique. Le traitement d’images est une méthode permettant d’effectuer
certaines opérations sur une image, afin d’obtenir une image améliorée ou d’en ex-
traire des informations utiles. Il s’agit d’un type de traitement du signal dans lequel
Le traitement des images comprend essentiellement les trois étapes suivantes :
1. L’importation de l’image via les outils d’acquisition d’images
2. L’analyse et la manipulation de l’image
3. La sortie, dont le résultat peut être une image modifiée ou un rapport basé
sur l’analyse de l’image
Il existe deux types de méthodes utilisées pour le traitement des images, à savoir
le traitement analogique et le traitement numérique. Le traitement analogique des
images peut être utilisé pour les copies papier telles que les impressions et les pho-
tographies. Les analystes d’images utilisent divers principes fondamentaux d’inter-
prétation lorsqu’ils utilisent ces techniques visuelles.
Les techniques de traitement d’images numériques permettent de manipuler les
images numériques à l’aide d’ordinateurs. Les trois phases générales que tous les
types de données doivent subir lors de l’utilisation de la technique numérique sont
le pré-traitement, l’amélioration, l’affichage et l’extraction d’informations.
Dans ce chapitre nous présentons quelques notions de base du domaine de traitement
d’image numérique tels que :
1. La définition d’mage
2. Les caractéristiques d’image
3. Les Systèmes de traitement d’image
4. Le pré-traitement
5. En fin quelques notions de base du domaine de la vidéo
14
Figure 2.1 – Exemple d’une image
15
2.3 Caractéristiques d’une image numérique
2.3.1 Dimension
Il s’agit de la taille physique et de la résolution d’une image mesurée en pixels.
Par exemple, un appareil photo de 10 MégaPixels (MP) peut offrir des réglages
permettant de prendre des photos en 10,2 MP (3872 × 2592), 5,6 MP (2896 × 1944)
et 2,5 MP (1936 × 1296). Un réglage de taille d’image plus élevé signifie une image
plus grande et une taille de fichier plus importante. Un réglage inférieur de la taille de
l’image donne une image plus petite et une taille de fichier plus petite. En fonction de
votre appareil photo, différentes tailles peuvent être disponibles[Bongiovanni, 1996].
Une image binaire comme son nom l’indique, ne contient que deux éléments de
pixel, à savoir 0 et 1, où 0 correspond au noir et 1 au blanc[Djeziri and Nouboud, ].
Un exemple est donné dans la figure 2.2.
16
[Link] Images à niveaux de gris
Une image en niveaux de gris est simplement une image en noir et blanc où elle
est représentée par une seule composante d’intensité. Elle possède 256 teintes de
gris, la valeur zéro étant le noir et la valeur 255 le blanc. Le nombre 256 est lie à la
quantification de l’image [Saravanan, 2010]. Chaque entier représentant un niveau
de gris est code sur8 bits. Il est donc compris entre 0 et 28 − 1 = [Link] exemple
est donné dans la figure 2.3.
Une image couleur est une matrice numérique de pixels contenant une informa-
tion de couleur. Chaque image peut être décomposée en trois couches différentes
selon les trois canaux de couleur encodés : Rouge, Vert et Bleu. Par exemple, une
image couleur de 8 huit bits code le canal rouge et vert avec trois bits et le bleu
avec deux. Ce qui permet de coder 256 couleurs différentes [Saravanan, 2010]. Un
exemple est donné dans la figure 2.4.
Une image couleur RGB peut être convertie en image en niveaux de gris en
utilisant différentes pondérations des composantes rouge, verte et bleue. L’équation
peut être la suivante [Kumar and Verma, 2010] :
17
Figure 2.4 – Image en couleur
2.4.1 TIFF
est l’abréviation de « Tagged Image File Format ».Les images TIFF génèrent des
fichiers de très grande taille. Les images TIFF ne sont pas compressées et contiennent
donc beaucoup de données d’image détaillées (c’est pourquoi les fichiers sont si vo-
lumineux). Les TIFF sont également extrêmement flexibles en termes de couleur (ils
peuvent être en niveaux de gris, ou CMYK pour l’impression, ou RGB pour le web)
et de contenu (couches, balises d’image).
Le TIFF est le type de fichier le plus couramment utilisé dans les logiciels de pho-
tographie (tels que Photoshop), ainsi que dans les logiciels de mise en page (tels
que Quark et InDesign), toujours parce qu’un TIFF contient beaucoup de données
d’image.
18
(a) 10 DPI (b) 25 DPI
19
Les fichiers JPEG sont mauvais pour les dessins au trait, les logos ou les gra-
phiques, car la compression leur donne un aspect "bitmappy" (lignes irrégulières au
lieu de lignes droites).
2.4.3 GIF
est l’abréviation de « Graphic Interchange Format ». Ce format compresse les
images mais, à la différence du JPEG, la compression est sans perte (aucun détail
n’est perdu dans la compression, mais le fichier ne peut pas être rendu aussi petit
qu’un JPEG).
Les GIF ont également une gamme de couleurs extrêmement limitée, adaptée au
Web mais pas à l’impression. Ce format n’est jamais utilisé pour la photographie, en
raison du nombre limité de couleurs. Les GIF peuvent également être utilisés pour
les animations.
2.4.4 PNG
est l’abréviation de « Portable Network Graphics ». Il a été créé en tant que
format ouvert pour remplacer le GIF, car le brevet du GIF était détenu par une
société et personne d’autre ne voulait payer de droits de licence. Il permet également
une gamme complète de couleurs et une meilleure compression. Il est utilisé presque
exclusivement pour les images Web, jamais pour les images imprimées. Pour les
photographies, le PNG n’est pas aussi bon que le JPEG, car il crée un fichier plus
volumineux. Mais pour les images contenant du texte ou des dessins au trait, le PNG
est meilleur, car les images ont l’air moins "bitmappy".
Lorsque vous faites une capture d’écran sur votre Mac, l’image résultante est un
PNG, probablement parce que la plupart des captures d’écran sont un mélange
d’images et de texte.
20
notre objectif.
Le résultat final peut prendre la forme d’une image ou d’une caractéristique corres-
pondante de cette image. Ces éléments peuvent être utilisés pour une analyse plus
approfondie et une prise de décision[Krig, 2016].
2.5.2 Bruit
Le bruit d’image est une variation aléatoire de la luminosité ou des informations
de couleur dans les images capturées. Il s’agit d’une dégradation du signal de l’image
causée par des sources externes. Les images contenant du bruit multiplicatif ont pour
caractéristique que plus la zone est lumineuse, plus elle est bruyante. Mais la plupart
du temps, il s’agit de bruit additif[Diwakar and Kumar, 2018].
21
[Link] Bruit de sel
Le bruit salé est ajouté à une image par l’ajout de brillants aléatoires (avec une
valeur de 255 pixels) sur toute l’image.
Un bruit salé est ajouté à une image par l’ajout de pixels foncés aléatoires (d’une
valeur de 0 pixel) sur toute l’image.
Le bruit de sel et de poivre est ajouté à une image par l’ajout d’une zone lumi-
neuse aléatoire (avec une valeur de 255 pixels) et d’une zone sombre aléatoire (avec
une valeur de 0 pixel) sur l’ensemble de l’image.
2.5.3 Le filtrage
Le filtrage d’images rend possible plusieurs tâches utiles tâches utiles dans le
traitement des images. Un filtre peut être appliqué pour réduire la quantité de bruit
indésirable dans une image particulière. Un autre type de filtre peut être utilisé pour
inverser les effets du flou sur une image particulière. Les filtres non linéaires ont un
comportement assez différent de celui des filtres linéaires. Les filtres non linéaires
ont un comportement très différent de celui des filtres linéaires. Pour les filtres non
linéaires, la sortie du filtre ou la réponse du filtre n’obéit pas les filtres non linéaires
ont un comportement très différent de celui des filtres linéaires. De plus, un filtre
non linéaire peut produire résultats qui varient de manière non intuitive.
Le filtre Guassien est probablement le filtre le plus utilisé. Il est réalisé en convoluant
chaque pixel de l’image d’entrée avec un noyau Gaussien avec des valeurs calculées
avec l’équation 2.2 [Yuan, 2011] :
1 − x2 +y2 2
G(x, y) = e 2σ (2.2)
2πσ 2
22
Le redimensionnement modifie les dimensions de l’image, ce qui affecte généralement
la taille du fichier et la qualité de l’image.
La raison la plus courante du redimensionnement des photos est de réduire la taille
des fichiers volumineux pour faciliter leur envoi par courrier électronique ou leur par-
tage en ligne. En réduisant la taille d’une image, on élimine simplement des pixels. À
l’inverse, agrandir une image augmente le nombre de pixels, ce qui peut entraîner une
perte de qualité. Un agrandissement excessif peut entraîner des images pixellisées ou
floues. En effet, le redimensionnement des photos à une taille supérieure à celle de
l’original modifie la résolution, c’est-à-dire la quantité de détails fins dans une image.
2.5.5 Interpolation
L’interpolation d’images tente d’obtenir la meilleure estimation de l’intensité
d’un pixel à partir des valeurs des pixels voisins sur une base de proximité.
L’interpolation est particulièrement essentielle lorsque le redimensionnement ou le
rééchantillonnage de l’image est effectué pour répondre aux spécifications du canal
de transmission ou pour présenter l’image finale sans perte visuelle.
L’interpolation d’image est généralement réalisée par l’une des trois méthodes sui-
vantes : le plus proche voisin, l’interpolation bilinéaire ou l’interpolation cubique[Fadnavis,
2014].
1. Le plus proche voisin
— Méthode la plus basique
— Requiert le moins de temps de traitement
— Ne prend en compte qu’un seul pixel : le plus proche du point interpolé
— A pour effet de rendre chaque pixel plus grand
2. Bilinéaire
— Considère le plus proche voisinage 2x2 des valeurs de pixels connus en-
tourant les pixels inconnus
— Fait une moyenne pondérée de ces 4 pixels pour arriver aux valeurs finales
valeurs interpolées
— Les images sont plus lisses que celles du voisinage le plus proche
— Besoin de plus de temps de traitement
23
3. Cubique
— Un pas au-delà du bilinéaire en considérant le voisinage 4x4 le plus proche
de pixels connus, pour un total de 16 pixels
— Comme ils se trouvent à différentes distances du pixel inconnu, les pixels
les plus proches ont un poids plus élevé dans le calcul. Les pixels les plus
proches ont une pondération plus élevée dans le calcul
— Produit des images plus nettes que les deux méthodes précédentes.
— Bon compromis entre le temps de traitement et la qualité du résultat
— Standard dans de nombreux programmes d’édition d’image, pilotes d’im-
primante et dans la caméra interpolation
24
Figure 2.6 – Résultat de l’opérateur de dilatation utilisant un noyau 3 × 3
parabilité entre deux groupes de pixels. Elle est utilisée pour effectuer un seuillage
automatique en supposant alors que l’image à binariser ne contient que deux classes,
(Les objets et l’arrière-plan). La méthode d’Otsu calcule s le seuil optimal T qui sé-
pare ces deux classes afin que la variance intra-classe soit minimale et que la variance
inter-classe soit maximale[Cours du Master et al., 2014].
25
et la reconnaissance des objets[Gong et al., 2018].
L’idée principale sur laquelle repose la détection des contours est de trouver où il
y a des changements brusques dans l’intensité d’une image. La dérivée première est
utilisée pour trouver ces changements d’intensité en utilisant des opérateurs tels que
Sobel, Prewitt et Roberts détaillés sur la Table 2.1.
2.7 La vidéo
2.7.1 Définition
Le mot vidéo vient du latin vidéo qui signifie « je vois ». C’est un terme qui
regroupe l’ensemble des techniques permettant la visualisation ou l’enregistrement
26
d’images animées accompagnées de son, sur un support électronique et, non de type
pellicule argentique.
Une vidéo est une succession d’images à une certaine cadence. L’œil humain est
capable de distinguer environ 20 images par seconde.
On caractérise la fluidité (vitesse) d’une vidéo par le nombre d’images par secondes
(en anglais frame rate), exprimé en FPS (Frames per second).
La vidéo numérique offre un certain nombre d’avantages par rapport à la vidéo
analogique, notamment :
— Facilité de partage et de stockage
— Aucune dégradation de la qualité des données lors de la copie
— Copie facile et peu coûteuse
— La capacité de multidiffusion
2.8 Conclusion
Le traitement des images est plus rapide et plus rentable. Il faut moins de temps
pour le traitement, ainsi que moins de pellicules et autres équipements photogra-
phiques. le traitement des images numériques est plus écologique. Aucun produit
chimique de traitement ou de fixation n’est nécessaire pour prendre et traiter des
27
images numériques. Cependant, les encres d’impression sont indispensables pour
imprimer des images numériques. Lors de la prise d’une image numérique, on peut
immédiatement voir si l’image est bonne ou non, la copie d’une image numérique
est facile, et la qualité de l’image reste bonne à moins qu’elle ne soit compressée.
28
Chapitre 3
Détection et Comptage de Véhicules
Sommaire
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 La détection de véhicule . . . . . . . . . . . . . . . . . . . 30
3.3 Caméras de surveillance du trafic . . . . . . . . . . . . . . 31
3.4 Principe de détection des véhicules . . . . . . . . . . . . . 32
3.4.1 Méthodes fondées sur les connaissances préalables . . . . 33
3.4.2 Méthodes basées sur le mouvement . . . . . . . . . . . . . 33
3.4.3 Méthodes basées sur les ondelettes . . . . . . . . . . . . . 34
3.4.4 L’apprentissage automatique : (« machine learning » ML) 34
3.4.5 Apprentissage profond « DL » . . . . . . . . . . . . . . . 34
3.5 Soustraction de l’arrière-plan . . . . . . . . . . . . . . . . 35
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.5.2 Background Subtraction . . . . . . . . . . . . . . . . . . . 35
3.5.3 Les différents étapes de la soustraction d’arrière-plan . . 36
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
29
3.1 Introduction
Un objet peut être considéré comme une entité présentant un intérêt pour une une
analyse ultérieure. Par exemple, les piétons ou véhicules sur une route, les bateaux
sur la mer, sont des objets d’intérêt pour le suivi dans différents contextes. Ces
éléments peuvent être représentés par leur forme ou leur apparence.
La détection peut être définie comme la localisation des objets dans les images
ou les vidéos. La détection de véhicules et les statistiques dans les scènes vidéo
de surveillance des autoroutes sont d’une importance considérable pour la gestion
intelligente du trafic et le contrôle de l’autoroute. Avec l’installation populaire de
caméras de surveillance de la circulation, une vaste base de données de séquences
vidéo de la circulation a été obtenue pour analyse. Généralement, à un angle de
vision élevé, une surface de route plus éloignée peut être envisagée. Au cours de
la dernière décennie, les techniques de détection de véhicules basées sur la vision
pour l’amélioration de la sécurité routière ont suscité une attention croissante. Le
développement de systèmes embarqués d’aide à la conduite automobile visant à
alerter les conducteurs sur les environnements de conduite et les collisions possibles
avec d’autres véhicules a attiré beaucoup d’attention ces derniers temps. Dans ces
systèmes, une détection de véhicule robuste et fiable est une étape critique.
30
les véhicules à contresens, la détection des accidents, ainsi que des données de trafic
plus typiques telles que l’occupation, l’espace entre les véhicules, la détection des files
d’attente, etc. Le système se compose de plusieurs sous-systèmes : surveillance vidéo
du trafic, contrôle du flux de trafic, contrôle des barrières de péage, surveillance des
installations à distance et salle de contrôle centrale[Mukhtar et al., 2015].
31
Figure 3.1 – Caméras de surveillance
32
3.4.1 Méthodes fondées sur les connaissances préalables
Différentes approches pour détecter un véhicule ont été réalisées sur la base de
connaissances préalables. Il s’agit de la symétrie, de la couleur, du bord vertical ou
horizontal, de l’ombre, des roues, du modèle 3D, etc.
Cette méthode de détection des véhicules est basée sur le calcul du flux optique,
alors que les méthodes susmentionnées ont utilisé des caractéristiques spatiales. La
détection du mouvement est l’un des paramètres essentiels d’un STI. Il existe un
mouvement relatif entre la scène de circulation et le capteur, ce qui fait que les
pixels de l’image semblent se déplacer. Ce mouvement dû au champ vectoriel est
appelé flux optique. En utilisant le flux optique de manière autonome, tout véhicule
peut être détecté par la caméra. Cependant, son calcul est très complexe et subtil
au niveau du bruit. Meyer et al. Ont estimé le concept d’un champ de vecteurs de
déplacement, qui initie un processus de suivi basé sur les contours. L’analyse en
temps réel de flux vidéo sans matériel spécialisé n’est pas si facile. Barron’s et al.
Ont mentionné une discussion détaillée sur le flux optique dans leur travail[Mbula
et al., 2016].
Soustraction de l’arrière-plan
33
la section de la route est représentée sans véhicule sert de référence[Garcia-Garcia
et al., 2020].
34
neural network DNN » se compose de trois couches, la couche d’entrée, la couche
cachée et la couche de sortie. Entre les couches d’entrée et de sortie, il peut y avoir
n couches cachées multiples, et le traitement de ’n’ couches cachées est possible en
raison des ressources élevées disponibles de nos jours.
35
3.5.3 Les différents étapes de la soustraction d’arrière-plan
L’objectif de ce processus est la segmentation des objets d’avant-plan statiques
et mobiles dans un flux vidéo. Cette tâche fournit un bon compromis en termes de
qualité de détection et de temps de calcul[Sajid and Cheung, 2015]. Les différentes
étapes de la soustraction de l’arrière-plan sont détaillées dans ce qui suit.
Afin de détecter les objets en mouvement à partir de la différence entre les images
de vidéo et une image référence, nous devons d’abord estimer cette image de réfé-
rence.
Dans ce travail, nous obtenons le modèle de l’arrière plan B en prenant l’image
moyenne de l’ensemble des N images , selon l’équation 3.1 :
N
1 X
B(x, y) = I(x, y, n) (3.1)
N n=1
L’étape suivante est la binarisation. Après avoir obtenu l’image soustraite, l’image
doit être segmentée en régions contenant le véhicule et les régions contenant le non-
véhicule. Cette segmentation est décidée en fonction de l’intensité de la région. Si la
région a une intensité supérieure à un seuil spécifié, elle est convertie en blanc et le
reste est noir.
L’image seuillée a beaucoup de bruit qui doit être éliminé à l’aide un filtre Gaus-
sien. L’opération de fermeture est réalisée en effectuant d’abord une dilatation, suivie
d’une érosion en utilisant le même élément structurant.
Un objet peut être localisé à partir de l’ensemble des pixels de son contour. De ce
fait, la détection de contours est utilisée pour trouver les limites de régions. Un al-
gorithme de remplissage est utilisé pour étiqueter tous les pixels chague composante
connectée contenant chaque pixel. Une boîte de délimitation est ensuite dessinée
autour de tous les groupes connectés.
36
3.6 Conclusion
Ce chapitre a introduit les concepts de base nécessaires à la compréhension des
différentes méthodes de traitement d’images. Il s’est également penché sur les carac-
téristiques des vidéos.
37
Deuxième partie
Partie pratique
38
Chapitre 4
Résultats Experimentaux
Sommaire
4.1 introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Les outils de développement . . . . . . . . . . . . . . . . . 40
4.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2 OpenCV . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.3 Google Colaboratory . . . . . . . . . . . . . . . . . . . . . 41
4.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
39
4.1 introduction
Afin de réaliser les objectifs qui ont été énoncés dans les chapitres précédents
et pour mener à bien la détection et le comptage de véhicules, nous devons utiliser
le principe de la soustraction d’arrière-plan mis en œuvre à l’aide de Python et
d’OpenCV.
4.2.1 Python
Python 1 est un langage de programmation de haut niveau largement utilisé,
lancé pour la première fois en 1991. Depuis lors, Python a gagné en popularité et
est considéré comme l’un des langages de programmation côté serveur les plus po-
pulaires et les plus flexibles.
Contrairement à la plupart des distributions Linux, Windows n’est pas livré avec
le langage de programmation Python par défaut. Cependant, vous pouvez instal-
ler Python sur votre serveur Windows ou votre machine locale en quelques étapes
simples.
4.2.2 OpenCV
OpenCV (Open Source Computer Vision Library) est publié sous une licence
BSD et est donc gratuit pour une utilisation académique et commerciale ((voir la
figure 4.1). Elle possède des interfaces C++, C, Python et Java et supporte Windows,
Linux, Mac OS, iOS et Android. OpenCV a été conçu pour l’efficacité des calculs et
avec un fort accent sur les applications en temps réel. Écrite en C/C++ optimisé,
la bibliothèque peut tirer parti du traitement multi-cœur. Grâce à OpenCL, elle
peut tirer parti de l’accélération matérielle de la plate-forme de calcul hétérogène
sous-jacente.
1. [Link]
40
Figure 4.1 – Logo de la bibliotheque OpenCV
4.3 Résultats
La Figure 4.3a montre une image extraite d’une vidéo , la Figure 4.3b montre
l’image de background calculée en utilisant le processus su-cité et la Figure 4.3c
montre le résultat de soustraction .
Les images obtenues sont généralement bruitées, soit à cause de la poussière sur
41
Figure 4.2 – Logo de Google Colab
42
les véhicules, soit à cause d’une compression bruyante, soit à cause de la poussière
sur la caméra.
Nous utilisons un filtre Gaussien de noyau de taille 9 × 9 pour filtrer l’image de diffé-
rence I ′ (Figure 4.4). Nous avons ensuite utilisé le seuillage d’Otsu afin de binariser
l’image en fonction de l’intensité des pixels ( les négatifs à 255, puisque les véhicules
en mouvement ont la luminance la plus faible, et tous les pixels positifs à 0) (Figure
4.5), .
43
L’image binaire présentée dans la Figure 4.5 est suffisamment connectée pour
permettre une bonne segmentation et une bonne classification. Mais ce n’est pas
toujours le cas lorsqu’il y a de grandes zones sur un véhicule avec de grandes varia-
tions d’intensité.
Il y’a deux opérations fondamentales, appelées érosion et dilatation. L’érosion
rétrécit une image en agrandissant les trous et les espaces entre les pixels. La dilata-
tion fait exactement le contraire, elle ajoute des pixels dans les vides, comblant ainsi
tous les vides de l’image binaire. La combinaison des deux entraîne l’ouverture ou
la fermeture d’une image, L’ouverture tend à éliminer les petits objets au premier
plan, tandis que la fermeture élimine les petits trous au premier plan.
L’opération de fermeture est réalisée en effectuant d’abord une dilatation, suivie
d’une érosion en utilisant le même élément structurant. Le résultat de l’opération
de dilatation est illustré dans la Figure 4.6.
Un objet peut être localisé à partir de l’ensemble des pixels de son contour. De ce
fait, la détection de contours est utilisée pour trouver les limites de régions. Un al-
gorithme de remplissage est utilisé pour étiqueter tous les pixels chague composante
connectée contenant chaque pixel. Une boîte de délimitation est ensuite dessinée
autour de tous les groupes connectés comme le montre le Figure 4.7.
44
Figure 4.7 – Détection de véhicules dans une scène vidéo
45
Figure 4.9 – Image filtrée par un noyau Gaussien
46
Figure 4.11 – Image après la dilatation
47
Conclusion Générale
48
Bibliographie
[Aibeche et al., 2020] Aibeche, Y. et al. (2020). Développement d’un système intel-
ligent de gestion des feux de circulation à Base des algorithmes génétiques. PhD
thesis, University of Jijel.
[Ben Yedder, 2014] Ben Yedder, H. (2014). Gestion adaptative des véhicules d’ur-
gence utilisant des informations en temps réel. PhD thesis, Université du Québec
en Outaouais.
[BIDAUD, 2005] BIDAUD, C. (2005). Le télépéage aujourd’hui et demain. TEC
(TRANSPORT, ENVIRONNEMENT, CIRCULATION), (186).
[Bongiovanni, 1996] Bongiovanni, C. (1996). Traitement d’image appliqué à la me-
sure de la taille, de la vitesse et de la déformation des bulles. PhD thesis, Toulouse,
INPT.
[Cours du Master et al., 2014] Cours du Master, O., Etienne, S., and BEUCHER,
S. (2014). Segmentation d’image & morphologie morphologie mathematique.
[Crozet, 2011] Crozet, Y. (2011). De l’économie des transports à la mobilité durable :
quel rôle pour les innovations ? Transports Environnement Circulation, 210 :6–12.
[Diwakar and Kumar, 2018] Diwakar, M. and Kumar, M. (2018). A review on ct
image noise and its denoising. Biomedical Signal Processing and Control, 42 :73–
88.
[Djeziri and Nouboud, ] Djeziri, S. and Nouboud, F. Algorithme de regroupement
d’objets sur une image binaire.
[Fadnavis, 2014] Fadnavis, S. (2014). Image interpolation techniques in digital image
processing : an overview. International Journal of Engineering Research and Ap-
plications, 4(10) :70–73.
49
[Fougères, 2001] Fougères, A.-J. (2001). Un système tutoriel intelligent adapté à la
formation de régulateurs de trafic. Sciences et Technologies de l’Information et
de la Communication pour l’Éducation et la Formation, 8(1) :141–147.
[Garcia-Garcia et al., 2020] Garcia-Garcia, B., Bouwmans, T., and Silva, A. J. R.
(2020). Background subtraction in real applications : Challenges, current models
and future directions. Computer Science Review, 35 :100204.
[Gaudron, 2020] Gaudron, P. (2020). Claude rochet, les villes intelligentes, réalité
ou fiction, iste éditions, 2018. Management international/International Manage-
ment/Gestiòn Internacional, 24(2) :182–184.
[George et al., 2018] George, G., Oommen, R. M., Shelly, S., Philipose, S. S., and
Varghese, A. M. (2018). A survey on various median filtering techniques for
removal of impulse noise from digital image. In 2018 Conference on Emerging
Devices and Smart Systems (ICEDSS), pages 235–238. IEEE.
[Gong et al., 2018] Gong, X.-Y., Su, H., Xu, D., Zhang, Z.-T., Shen, F., and Yang,
H.-B. (2018). An overview of contour detection approaches. International Journal
of Automation and Computing, 15(6) :656–672.
[Krig, 2016] Krig, S. (2016). Image pre-processing. In Computer vision metrics,
pages 35–74. Springer.
[Krishnakumar, 2003] Krishnakumar, K. (2003). Intelligent systems for aerospace
engineering-an overview.
[Kumar and Verma, 2010] Kumar, T. and Verma, K. (2010). A theory based on
conversion of rgb image to gray image. International Journal of Computer Appli-
cations, 7(2) :7–10.
[Larobina and Murino, 2014] Larobina, M. and Murino, L. (2014). Medical image
file formats. Journal of digital imaging, 27(2) :200–206.
[Lin et al., 2018] Lin, Y., Bai, R., and Qian, Z. (2018). The design method and
research status of vehicle detection system based on geomagnetic detection prin-
ciple. In Journal of Physics : Conference Series, volume 986, page 012033. IOP
Publishing.
[Mbula et al., 2016] Mbula, R. M., Ndeko, J.-M. M., and Lusala, A. K. (2016). Com-
mande de pelotons de véhicules avec détection de plaques d’immatriculation.
50
[Mukhtar et al., 2015] Mukhtar, A., Xia, L., and Tang, T. B. (2015). Vehicle detec-
tion techniques for collision avoidance systems : A review. IEEE transactions on
intelligent transportation systems, 16(5) :2318–2338.
[Reu et al., 2015] Reu, P. L., Sweatt, W., Miller, T., and Fleming, D. (2015). Ca-
mera system resolution and its influence on digital image correlation. Experimental
Mechanics, 55(1) :9–25.
[Sajid and Cheung, 2015] Sajid, H. and Cheung, S.-C. S. (2015). Background sub-
traction for static & moving camera. In 2015 IEEE International Conference on
Image Processing (ICIP), pages 4530–4534. IEEE.
[Saravanan, 2010] Saravanan, C. (2010). Color image to grayscale image conversion.
In 2010 Second International Conference on Computer Engineering and Applica-
tions, volume 2, pages 196–199. IEEE.
[White et al., 1988] White, R. J., Prentice, H. C., and Verwijst, T. (1988). Au-
tomated image acquisition and morphometric description. Canadian Journal of
Botany, 66(3) :450–459.
[Yu et al., 2018] Yu, L., Zhang, D., Chen, X., and Hauptmann, A. (2018). Traffic
danger recognition with surveillance cameras without training data. In 2018 15th
IEEE International Conference on Advanced Video and Signal Based Surveillance
(AVSS), pages 1–6. IEEE.
[Yuan, 2011] Yuan, H.-D. (2011). Blind forensics of median filtering in digital
images. IEEE Transactions on Information Forensics and Security, 6(4) :1335–
1345.
51