0% ont trouvé ce document utile (0 vote)
12 vues63 pages

Final Memoire

Le document présente un projet de fin d'études pour l'obtention d'un Master en télécommunication, axé sur un système intelligent de surveillance du trafic routier. Il inclut des déclarations d'honneur des étudiants concernant l'authenticité scientifique, ainsi que des remerciements à divers professeurs et membres de la famille. La table des matières indique une structure détaillée, incluant des sections sur les systèmes de trafic intelligent et le traitement d'images.

Transféré par

abid202louk
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
12 vues63 pages

Final Memoire

Le document présente un projet de fin d'études pour l'obtention d'un Master en télécommunication, axé sur un système intelligent de surveillance du trafic routier. Il inclut des déclarations d'honneur des étudiants concernant l'authenticité scientifique, ainsi que des remerciements à divers professeurs et membres de la famille. La table des matières indique une structure détaillée, incluant des sections sur les systèmes de trafic intelligent et le traitement d'images.

Transféré par

abid202louk
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

‫الجمهورية الجزائرية الديمقراطيـة الشعبيــة‬

République algérienne démocratique et populaire


‫وزارة التـعليــم العالـي والبحــث العلمــــي‬
Ministère de l’enseignement supérieur et de la recherche scientifique
‫جامعة عين تموشنت بلحاج بوشعيب‬
Université –Ain Temouchent- Belhadj Bouchaib
Faculté des Sciences et de Technologie
Département D’électronique et des Télécommunications

Projet de Fin d’Etudes


Pour l’obtention du diplôme de Master en :
Domaine : Sciences et Technologie
Filière : Télécommunication
Spécialité : Réseaux et télécommunication
Thème
Système intelligent de surveillance du trafic routier

Présenté Par :
1) Mme. ABDALLAH BERRHAIL Raounak
2) Melle. BENSAHA Sara

Devant le jury composé de :


Dr. BENOSMAN Mohammed Mourad UAT.B.B (Ain Temouchent) Président
Dr. YAGOUB Reda UAT.B.B (Ain Temouchent) Examinateur
Dr. BENTAIEB Samia UAT.B.B (Ain Temouchent) Encadrante

Année Universitaire 2021/2022


‫الجمهوريـــة الجزائريـــة الديمقراطيــة الشعبيــة‬
République Algérienne Démocratique et Populaire
‫وزارة التعليم العاليوالبحث العلمي‬
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
-‫ بلحاجبوشعيب‬-‫جامعة عينتموشنت‬
Université Ain Témouchent- Belhadj Bouchaib -
‫كلية العلوم والتكنولوجيا‬
Faculté des Sciences et de la Technologie

Formulaire de déclaration sur l’honneur


Relatif à l’engagement pour respecter les règles d’authenticité
scientifique dans l’élaboration d’un travail de recherche

(Annexe de l’arrêté n°933 du 28 juillet 2016 fixant les règles relatives à la prévention et la lutte contre
le plagiat)

Je soussigné,

Etudiant, Mme. ABDALLAH BERREAHIL Raounak

Détenteur d’une carte d’étudiant N° : 171737073216, délivrée le

Inscrit à la faculté : Sciences et de Technologie

Département : D’électronique et des Télécommunications

Et chargé de préparer un mémoire de fin d’études Master 2 en Réseaux et

Télécommunication

Intitulé : Système intelligent de surveillance du trafic routier

Déclare sur l’honneur, m’engager à respecter les règles scientifiques, méthodologiques, et

les normes de déontologique professionnelle et de l’authenticité académique requise dans

l’élaboration du projet de recherche suscité.

À Ain Temouchent, le : 11/09/2022

Signature de l’étudiant
‫الجمهوريـــة الجزائريـــة الديمقراطيــة الشعبيــة‬
République Algérienne Démocratique et Populaire
‫وزارة التعليم العاليوالبحث العلمي‬
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
-‫ بلحاجبوشعيب‬-‫جامعة عينتموشنت‬
Université Ain Témouchent- Belhadj Bouchaib -
‫كلية العلوم والتكنولوجيا‬
Faculté des Sciences et de la Technologie

Formulaire de déclaration sur l’honneur


Relatif à l’engagement pour respecter les règles d’authenticité
scientifique dans l’élaboration d’un travail de recherche

(Annexe de l’arrêté n°933 du 28 juillet 2016 fixant les règles relatives à la prévention et la lutte contre
le plagiat)

Je soussigné,

Etudiant, Melle. BENSAHA Sara

Détenteur d’une carte d’étudiant N° : 171737071560, délivrée le

Inscrit à la faculté : Sciences et de Technologie

Département : D’électronique et des Télécommunications

Et chargé de préparer un mémoire de fin d’études Master 2 en Réseaux et

Télécommunication

intitulé : Système intelligent de surveillance du trafic routier

Déclare sur l’honneur, m’engager à respecter les règles scientifiques, méthodologiques, et

les normes de déontologique professionnelle et de l’authenticité académique requise dans

l’élaboration du projet de recherche suscité.

À Ain Temouchent, le : 11/09/2022

Signature de l’étudiant
Dédicace
Tous les mots ne sauraient exprimer la gratitude, l’amour, le respect, la
reconnaissance, c’est tous simplement que : Je dédie ce mémoire à

A ma très chère mère et mon cher Père

Grâce à leurs tendres encouragements et leurs grands sacrifices, ils ont pu créer le
climat affectueux et propice à la poursuite de mes études. Aucune dédicace ne
pourrait exprimer mon respect, ma considération et mes profonds sentiments
envers eux. Je prie le bon Dieu de les bénir, de veiller sur eux, en espérant qu’ils
seront toujours fiers de moi.

A mes chères sœurs

Merci mes adorables pour votre présence, votre amour et votre tendresse, pour
donner du goût et du sens à ma vie. Veuillez trouver dans ce modeste travail
l’expression de mon affection.

A mon cher Fiancé

Merci d’être toujours à mes côtés, par ta présence, par ton amour, merci pour
L’encouragement que tu m’as donné, merci pour tout ce que tu as fait pour moi.

A mon professeur

Leur générosité et leur soutien m’oblige de leurs témoigner mon profond respect et
ma loyale considération.
A tous les membres de ma famille, petits et grands A tous mes amis et mes
collègues.

Raounak
Je dédie ce modeste

A Mon très cher Père et ma mère

Aucune dédicace ne saurait exprimer l’amour, l’estime, le dévouement et le respect


que J’ai toujours pour vous. Rien au monde ne vaut les efforts fournis jour et nuit
pour mon éducation et mon bien être. Ce travail est le fruit de tes sacrifices que tu
as consentis pour mon éducation et ma formation le long de ces années.
Vous représentes pour moi la source de tendresse et l’exemple de dévouement qui
n’a pas cessé de m’encourager. Ma mère a fait plus qu’une mère puisse faire pour
que ses enfants suivent le bon chemin dans leur vie et leurs études.

A mes frère

A mes soeur

A mes professeur

Cette humble dédicace ne saurait exprimer mon grand respect et ma profond


estime, que dieu vous procure bonne santé et long vie.

Sarra
Remerciements

Nous tenons particulièrement à remercier Allah le tout puissant, qui nous a


donné la force et le courage de mener à bien ce modeste travail, qui n’aurait jamais
été réalisé sans sa bénédiction. La première personne que nous tenons à remercier
est notre encadrant Mme. BENTAIEB Samia, maitre de conférences à l’université
HADJ BOUCHAIB- Ain Témouchent, pour l’orientation, la confiance, la patience
qui a constitué un apport considérable, sans lequel ce travail n’aurait pas pu être
mené au bon [Link] saisissons cette occasion pour vous exprimer notre pro-
fonde gratitude, tout en vous témoignant notre respect. Nous tenons à exprimer
nos sincères remerciements à Mr. BENOSMAN Mohammed Mourad, Professeur à
l’université HADJ BOUCHAIB- Ain Témouchent, en étant président du jury, et
Mr. YAGOUB Reda Maître de conférences à l’université HADJ BOUCHAIB- Ain
Témouchent, pour leur présence, pour leur lecture attentive de notre mémoire, ainsi
que pour les remarques qu’ils m’adresseront lors de cette soutenance afin d’amélio-
rer notre travail. Nous tenons à exprimer ainsi nos sincères remerciements à tous
les professeurs qui nous ont enseigné et qui par leurs compétences nous ont soutenu
dans la poursuite de nos études.

i
Table des matières

Table des figures v

Glossaire vii

I Partie Théorique 4

1 Système du Trafic Intelligent 5


1.1 Définition d’un système du trafic intelligent . . . . . . . . . . . . . . 6
1.2 L’historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Les applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Le télépéage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Gestion du stationnement en temps réel . . . . . . . . . . . . 9
1.3.3 Application automatisée de la vitesse sur la route . . . . . . . 9
1.3.4 Alertes de vitesse . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.5 RFID dans le transport de marchandises . . . . . . . . . . . . 10
1.3.6 Systèmes d’évitement de collision . . . . . . . . . . . . . . . . 10
1.3.7 Système de notification des véhicules d’urgence . . . . . . . . 11
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Généralités sur le Traitement d’Images 12


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Définition de l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Acquisition d’une image . . . . . . . . . . . . . . . . . . . . . 15
2.3 Caractéristiques d’une image numérique . . . . . . . . . . . . . . . . 16

ii
2.3.1 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Le type d’Image . . . . . . . . . . . . . . . . . . . . . . . . . . 16
[Link] Image binaire . . . . . . . . . . . . . . . . . . . . . . 16
[Link] Images à niveaux de gris . . . . . . . . . . . . . . . . 17
[Link] Images en couleur . . . . . . . . . . . . . . . . . . . 17
[Link] Conversion d’une image RGB en niveau de gris . . . 17
2.3.3 La Résolution d’une Image . . . . . . . . . . . . . . . . . . . . 18
2.4 Les formats d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 TIFF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 JPEG (également connu sous le nom de JPG) . . . . . . . . . 19
2.4.3 GIF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.4 PNG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Prétraitement d’images . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1 Elimination du bruit . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.2 Bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
[Link] Bruit Gaussien . . . . . . . . . . . . . . . . . . . . . 21
[Link] Bruit de sel . . . . . . . . . . . . . . . . . . . . . . . 22
[Link] Bruit de poivre . . . . . . . . . . . . . . . . . . . . . 22
[Link] Bruit de sel et de poivre . . . . . . . . . . . . . . . . 22
2.5.3 Le filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.4 Redimensionnement d’une image . . . . . . . . . . . . . . . . 22
2.5.5 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Les opérations sur les images . . . . . . . . . . . . . . . . . . . . . . . 24
2.6.1 Dilatation et érosion . . . . . . . . . . . . . . . . . . . . . . . 24
2.6.2 Segmentation par seuillage . . . . . . . . . . . . . . . . . . . . 24
2.6.3 Détection de contour . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.4 Analyse des composantes connectées . . . . . . . . . . . . . . 26
2.7 La vidéo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7.2 Nombre d’image par second . . . . . . . . . . . . . . . . . . . 27
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3 Détection et Comptage de Véhicules 29


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 La détection de véhicule . . . . . . . . . . . . . . . . . . . . . . . . . 30

iii
3.3 Caméras de surveillance du trafic . . . . . . . . . . . . . . . . . . . . 31
3.4 Principe de détection des véhicules . . . . . . . . . . . . . . . . . . . 32
3.4.1 Méthodes fondées sur les connaissances préalables . . . . . . . 33
3.4.2 Méthodes basées sur le mouvement . . . . . . . . . . . . . . . 33
3.4.3 Méthodes basées sur les ondelettes . . . . . . . . . . . . . . . 34
3.4.4 L’apprentissage automatique : (« machine learning » ML) . . 34
3.4.5 Apprentissage profond « DL » . . . . . . . . . . . . . . . . . . 34
3.5 Soustraction de l’arrière-plan . . . . . . . . . . . . . . . . . . . . . . . 35
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.5.2 Background Subtraction . . . . . . . . . . . . . . . . . . . . . 35
3.5.3 Les différents étapes de la soustraction d’arrière-plan . . . . . 36
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

II Partie pratique 38

4 Résultats Experimentaux 39
4.1 introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Les outils de développement . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2 OpenCV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.3 Google Colaboratory . . . . . . . . . . . . . . . . . . . . . . . 41
4.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

iv
Table des figures

1.1 IOT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 La gestion intelligente du trafic . . . . . . . . . . . . . . . . . . . . . 8

2.1 Exemple d’une image . . . . . . . . . . . . . . . . . . . . . . . . . . . 15


2.2 Image binaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Image à niveau de gris . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Image en couleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Une image avec différentes résolutions . . . . . . . . . . . . . . . . . . 19
2.6 Résultat de l’opérateur de dilatation utilisant un noyau 3 × 3 . . . . 25
2.7 Résultat de l’opérateur érosion utilisant un noyau croisé 3 × 3 . . . . 25

3.1 Caméras de surveillance . . . . . . . . . . . . . . . . . . . . . . . . . 32

4.1 Logo de la bibliotheque OpenCV . . . . . . . . . . . . . . . . . . . . 41


4.2 Logo de Google Colab . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3 La différence entre l’image de vidéo et background . . . . . . . . . . . 42
4.4 Image filtrée par un noyau Gaussien . . . . . . . . . . . . . . . . . . . 43
4.5 Seuillage par la méthode d’Otsu . . . . . . . . . . . . . . . . . . . . . 43
4.6 Image après la dilatation . . . . . . . . . . . . . . . . . . . . . . . . 44
4.7 Détection de véhicules dans une scène vidéo . . . . . . . . . . . . . . 45
4.8 La différence entre l’image de vidéo et background . . . . . . . . . . . 45
4.9 Image filtrée par un noyau Gaussien . . . . . . . . . . . . . . . . . . . 46
4.10 Seuillage par la méthode d’Otsu . . . . . . . . . . . . . . . . . . . . . 46
4.11 Image après la dilatation . . . . . . . . . . . . . . . . . . . . . . . . 47
4.12 Détection de véhicules dans une scène vidéo . . . . . . . . . . . . . . 47

v
Liste des tableaux

2.1 Opérateurs de détection de contours . . . . . . . . . . . . . . . . . . . 26

vi
Abréviations

DL : Deep Learning
FPS : Frame Par Second
IoT : Intelligent of Transport
ITS : Intelligent Traffic System
JPEG : Joint Photographic Experts Group
ML : Machine Learning
MP : Méga Pixels
PNG : Portable Network Graphics
RFID : Radio Frequency IDentification
RVB : Rouge Vert Bleu
TIFF : Tagged Image File Format
V2I : Véhivule à Infrastructure
V2V : Véhivule à Véhivule

vii
Résumé

La détection et le comptage des véhicules en temps réel présentent un grand


intérêt pour les chercheurs et constituent un besoin de la société en général pour des
déplacements confortables, fluides et sûrs des véhicules dans les villes. Un élément
essentiel de tout système de transport intelligent est la capacité de détecter et de
compter les voitures dans les images capturées par une caméra fixe installée au-
dessus de l’intersection des routes.
Ce travail vise à développer une méthode permettant de détecter et de compter
automatiquement les automobiles dans les données images utilisées par un système
de transport intelligent. La méthode de " soustraction de l’arrière-plan " est utilisée
pour la détection des véhicules.
Mots clés : détection de véhicules, comptage caméra, soustraction de l’arrière plan

Abstract

Real-time vehicle detection and counting is of great interest to researchers and is


a societal need in general for comfortable, smooth, and safe vehicle movement in
cities. An essential component of any intelligent transportation system is the ability
to detect and count cars in images captured by a fixed camera installed above the
road intersection.
This work aims to develop a method to automatically detect and count cars in the
image data used by an intelligent transportation system. The "background subtrac-
tion" method is used for vehicle detection.
Keywords : vehicle detection, counting, camera, background subtation

‘jÊÓ

àC¾‚  ð áJkAJ.ÊË èQJ.» éJ Òë @ AÒêË úΪ®Ë@ I ¯ñË@  ú¯ HAJ  . »QÖÏ @ ZA’k@ ð ¬A‚ »@  à@
áÓ Qå”J« . àYÖÏ @ ú¯ HAJ  . »QÒÊË éJÓ@ð é‚ʃð
 ém ' QÓ é»Qk
 Ë ÐA« ɾ‚  . ©ÒJj.ÖÏ @ ék  Ag
.
 ® JÊÖÏ @ Pñ’Ë@ ú¯ H@
é¢  P AJ‚Ë@ Y« 𠭂ºË@  úΫ èPY®Ë@  ñë ú»X É® K ÐA¢ ø B ø PðQå”Ë@

­‚ºÊË é®K Q£ QK ñ¢ úÍ@ ÉÒªË@ @ Yë ¬YîE . ‡K Q¢Ë@ ©£A® K †ñ  ¯ éJJÓ éJK AK @QÓA¾K
. . .
ÕæK .ú»YË@ É® JË@ ÐA¢JË@ AêÓYjJ‚ úæË@  èPñ’Ë@ HA  KAJK. ú¯ AJKA®Ê K H@
 P AJ‚Ë@ H. A‚mÌ '@ð
. èPAJ‚Ë@ á« ­‚ºÊË  éJ ®ÊmÌ '@ ú¯ hQ¢Ë@ é®K Q£ Ð@YjJƒ@
Introduction générale

Contexte
La détection et le comptage des véhicules jouent un rôle efficace et significatif
dans le domaine des systèmes de surveillance du trafic, où la gestion efficace du
trafic et la sécurité sont les principales préoccupations. La détection des véhicules
peut être réalisée à l’aide de caméras de surveillance montées à l’extérieur offrant
plusieurs avantages tels que l’absence de perturbation du flux de circulation, la
facilité d’installation et de modification.
La détection automatique des données des véhicules a été largement utilisée dans
le système d’information sur les véhicules et le système de trafic intelligent. Elle a
attiré davantage l’attention des chercheurs au cours de la dernière décennie grâce
aux progrès de la technologie de l’imagerie numérique et de la capacité de calcul.
De nos jours, les systèmes de détection automatique des véhicules sont essentiels au
contrôle du trafic routier ; certaines applications de ces systèmes sont le système de
réponse au trafic, le contrôleur des feux de circulation, le système d’avertissement
de sortie de voie, la détection automatique des accidents de véhicules et l’estimation
automatique de la densité du trafic.
Un système de comptage automatique de véhicules utilise des données vidéo
acquises par des caméras de circulation fixes, en effectuant des opérations mathé-
matiques sur un ensemble d’images obtenues à partir de la vidéo pour estimer le
nombre de véhicules présents dans une scène.

2
Objectif
L’objectif de ce travail est de développer un système de comptage automatique
des véhicules, capable de traiter les vidéos enregistrées par des caméras fixes sur les
routes et de compter le nombre de véhicules qui passent à un endroit donné à un
moment donné. Une approche simple a été adoptée pour résoudre le problème en
utilisant la détection d’objets basée sur un segmenteur adaptatif basé sur les pixels et
un comptage des objets détectes basé sur des règles simples. Le nombre de véhicules
calculé est envoyé au serveur, où les informations sur les utilisateurs enregistrés et
les détails du trafic sont également sauvegardés et notifiés à l’utilisateur en temps
réel.

Structure
Notre travail est composé de quatre chapitres structurés comme suit : le chapitre
1 donne un système du trafic intelligent. Le chapitre 2 présente une détection des
véhicules. Le chapitre 3 décrit la généralité sur traitement d’image. Le chapitre 4
traitera les résultats. Enfin, une conclusion et des directions possibles pour le travail
futur sont présentées à la fin de ce document.

3
Première partie

Partie Théorique

4
Chapitre 1
Système du Trafic Intelligent

Sommaire
1.1 Définition d’un système du trafic intelligent . . . . . . . 6
1.2 L’historique . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Les applications . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Le télépéage . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Gestion du stationnement en temps réel . . . . . . . . . . 9
1.3.3 Application automatisée de la vitesse sur la route . . . . . 9
1.3.4 Alertes de vitesse . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.5 RFID dans le transport de marchandises . . . . . . . . . . 10
1.3.6 Systèmes d’évitement de collision . . . . . . . . . . . . . . 10
1.3.7 Système de notification des véhicules d’urgence . . . . . . 11
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

5
1.1 Définition d’un système du trafic intelligent
Que signifie un système intelligent
Un système intelligent est une machine qui intègre un ordinateur connecté à
internet qui peut collecter et analyser des données et communiquer avec d’autre
système [Krishnakumar, 2003].Un système intelligent est un système qui émule cer-
tains aspects de l’intelligence manifestée par la nature. Ces aspects comprennent
l’apprentissage, l’adaptabilité, la robustesse dans plusieurs domaines, l’amélioration
de l’efficacité (dans le temps et/ou l’espace), la compression de l’information (des
données aux connaissances), le raisonnement extrapolé. L’objectif principal du pré-
sent chapitre est de donner un aperçu des diverses caractéristiques et composantes
des systèmes intelligents.
Après avoir mis en évidence la notion d’intelligence informatique et sa relation avec
l’intelligence artificielle, nous poursuivons avec l’informatique douce et les systèmes
hybrides.

Pourquoi un système du trafic intelligent ?


Le Système de Transport Intelligent (STI) est l’application des technologies de
détection, d’analyse de contrôle et de communication au transport terrestre afin
d’améliorer la sécurité, la mobilité et l’efficacité. Les STI comprennent une large
gamme d’applications qui traitent et partagent des informations pour réduire les
embouteillages, améliorer la gestion du trafic, minimiser l’impact environnement et
augmenter les avantages du transport pour les utilisateurs commerciaux et le public
en général comme le montre la figure 1.1.
Les STI , qui font partie de l’Internet des objets , comprennent la technologie de
véhicule à véhicule (V2V) et de véhicule à infrastructure (V2I) et intègrent à la fois
des technologies de l’information et de l’électronique basées sur les communication
sans fil et filaires. La technologie sans fil est utilisée pour connecter les informations
et l’emplacement des véhicules à d’autres véhicules, à d’autres modes transport
(comme les piétons ou les cyclistes), à l’infrastructure locale et à l’infrastructure
distante dans le cloud.

6
Figure 1.1 – IOT

1.2 L’historique
La culture automobile américaine a commencé à se former au début du 20 eme
siècle. Le premier signal tricolore de circulation a été déployé en 1914, et le pre-
mier parc mètre a été installé en 1935. Rien que dans les années 1920, le nombre
de voitures particulières immatriculées aux États-Unis a presque triplé, passant de
8 millions à 23 million. Les ventes d’automobiles ont ralenti dans les années 1930
et au début des années 1940, en raison de la grande dépression et de la seconde
Heurte mondiale. Et de la seconde Heurte mondiale. Environ 30 million de véhicules
automobiles (voiture, camions et autobus) ont été immatriculées en 1973 [?]. Le
nombre de véhicules n’a que légèrement augmenté au cours des années suivantes,
passant d’environ 32 millions en 1940 à 33 millions en 1946. Après la seconde guerre
mondiale, les États-Unis ont connu une croissance économique et une augmentation
du développement des terres. Les usines, qui répondaient auparavant aux besoins
de la guerre, sont passés à la production d’automobiles. Les ventes d’automobiles se
sont à nouveau accélérer au milieu des années 40, en partie parce que de nombreuses
familles de la classe moyenne ont quitté les villes pour les nouvelles banlieues. En

7
1950, le nombre de véhicules immatriculés était passé à 49 million.
Au cours des dernières années, de 2010 à aujourd’hui, d’autres nouvelles découvertes
ont été faites, et ce sont : en 2010, des applications de crowdsourcing sont dévelop-
pées pour être utilisées dans les transports : en 2011 : la première démonstration
publique de véhicules connectés a lieu au 18 eme congrès mondial ITS à Orlando
en 20120. l’USDOT lance le modèle pilote de sécurité 2012-2013 Déploiement dé-
montrant la communication V2V, en 2014 generale motors annonce l’avenir de la
conduite semi-autonome et la capacité de communication V2V vers 2017 Cadillac
en 2015 Connecté Véhicule Pilot Déploiement Awards sont annoncés, le président
Obama annonce l’initiative Smart Cities et la secrétaire Foxx lance le défi Smart
City [Fougères, 2001].

1.3 Les applications


L’une des principales applications d’un système de transport intelligent est la
gestion intelligente du trafic. Voici quelques-unes des autres applications (voir la
figure 1.2). [Aibeche et al., 2020]

Figure 1.2 – La gestion intelligente du trafic

8
1.3.1 Le télépéage
Le télépéage (ETC) est un système sans fil permettant de collecter automatique-
ment les frais d’utilisation ou les péages facturés aux véhicules empruntant les routes
à péage, les voies réservées aux véhicules à fort taux d’occupation, les ponts à péage
et les tunnels à péage. Dans la plupart des systèmes, les véhicules utilisant le système
sont équipés d’un transpondeur radio automatisé. Lorsque le véhicule passe devant
un lecteur de péage en bordure de route, un signal radio émis par le lecteur déclenche
le transpondeur, qui renvoie un numéro d’identification qui enregistre l’utilisation
de la route par le véhicule, et un système de paiement électronique facture le péage
à l’utilisateur.[BIDAUD, 2005]

1.3.2 Gestion du stationnement en temps réel


Alors que les centres urbains sont de plus en plus peuplés et encombrés, la gestion
des places de stationnement public, en fonction des politiques de mobilité locales, est
une question stratégique clé ayant un impact économique élevé. Le monde universi-
taire et l’industrie sont bien conscients des gains potentiels qui peuvent être obtenus
en tirant parti des technologies de l’information et de la communication appliquées
à ce domaine. Le monde universitaire et l’industrie sont bien conscients des gains
potentiels qui peuvent être obtenus en tirant parti des technologies de l’information
et de la communication appliquées à ce domaine. Un système de stationnement in-
telligent efficace favorisera les conducteurs, en réduisant le temps nécessaire pour
trouver une place de stationnement et en optimisant le taux d’utilisation des places
de stationnement, ce qui augmentera les revenus des opérateurs de stationnement
urbain.[Gaudron, 2020]

1.3.3 Application automatisée de la vitesse sur la route


Le contrôle automatisé de la vitesse (ASE) est un système automatisé qui utilise
une caméra et un dispositif de mesure de la vitesse pour détecter et capturer des
images de véhicules circulant au-delà de la limite de vitesse affichée. Il est conçu pour
fonctionner en tandem avec d’autres méthodes et stratégies, y compris des mesures
d’ingénierie, des initiatives d’éducation et l’application policière traditionnelle.

9
1.3.4 Alertes de vitesse
L’assistant intelligent de limitation de vitesse est conçu pour vous aider à contrô-
ler votre vitesse, vous permettant ainsi de vous concentrer sur la route. Tout d’abord,
une caméra frontale détecte automatiquement la limite de vitesse en vigueur. S’il est
activé, le système ajuste votre vitesse maximale à cette limite. Cette fonction coor-
donne la position de la voiture, via GPS, avec une base de données d’informations
sur les limites de vitesse pour alerter les conducteurs s’ils accélèrent. Cela aide les
conducteurs à maintenir une vitesse de conduite sûre.

1.3.5 RFID dans le transport de marchandises


Les constructeurs automobiles utilisent la RFID pour suivre les composants pen-
dant l’assemblage et les véhicules terminés après l’assemblage. Les concessionnaires
automobiles utilisent cette technologie pour suivre leur inventaire de véhicules à
vendre. Les concessionnaires utilisent également la RFID pour rendre le service
après-vente plus efficace et pour accueillir personnellement les clients à leur arri-
vée. Pour transporter chaque expédition, les entreprises utilisent souvent un réseau
de chaîne d’approvisionnement hautement intégré qui relie plusieurs modes de trans-
port : avions, navires, camions et camionnettes. Ce réseau est le tissu de l’industrie du
transport maritime et c’est ce qui maintient à flot le commerce international[Crozet,
2011]

1.3.6 Systèmes d’évitement de collision


Un système de prévention des collisions, également appelé système d’aide à la
conduite, est un système de sécurité conçu pour empêcher une collision ou en réduire
la gravité dans les quelques secondes qui précèdent son déclenchement.
Les types de systèmes d’alerte anticollision sont :
— Avertisseur de collision avant (FCW)
— Avertisseur d’angle mort (BSW)
— Alerte de franchissement de ligne (LDW)
— Avertissement de circulation transversale
Système de détection des piéton
Les types de systèmes d’assistance à la prévention des collisions sont :

10
— Freinage automatique d’urgence (AEB)
— Régulateur de vitesse adaptatif
— Contrôle électronique de la stabilié (ESC)
— Aide au stationnement

1.3.7 Système de notification des véhicules d’urgence


Un système pour alerter les conducteurs de la présence de véhicules d’urgence
venant en sens inverse. Selon un mode de réalisation, le système comprend : un
premier émetteur-récepteur situé dans un véhicule d’urgence pour transmettre les
coordonnées GPS du véhicule d’urgence, et un deuxième émetteur-récepteur situé
dans une automobile. Le second émetteur-récepteur reçoit les informations trans-
mises et détermine une proximité du véhicule d’urgence par rapport à l’automobile.
Si le véhicule d’urgence se trouve à proximité prédéterminée de l’automobile, le se-
cond émetteur-récepteur provoque une atténuation sélective des signaux audio et
vidéo actuellement émis afin de sensibiliser le conducteur aux alertes audio/vidéo
générées par le véhicule d’urgence[Ben Yedder, 2014].

1.4 Conclusion
Les STI représentent la prochaine étape de l’évolution de l’ensemble du système
de transport d’un pays. Les embouteillages, le taux d’accidents de la route et le
gaspillage de carburant sont réduits dans une large mesure. Le transport est devenu
un mode plus sûr et plus efficace. Par conséquent, avec beaucoup plus d’intérêt et de
recherche avancée dans le domaine des STI, il peut être mis en œuvre dans notre pays
et peut s’avérer être la solution des problèmes de trafic, y compris les embouteillages,
la pollution de l’air et les accidents de la route. Ce système permettra un progrès
important dans le développement de notre pays

11
Chapitre 2
Généralités sur le Traitement d’Images

Sommaire
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Définition de l’image . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Acquisition d’une image . . . . . . . . . . . . . . . . . . . 15
2.3 Caractéristiques d’une image numérique . . . . . . . . . 16
2.3.1 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Le type d’Image . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.3 La Résolution d’une Image . . . . . . . . . . . . . . . . . 18
2.4 Les formats d’images . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 TIFF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 JPEG (également connu sous le nom de JPG) . . . . . . . 19
2.4.3 GIF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.4 PNG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Prétraitement d’images . . . . . . . . . . . . . . . . . . . . 20
2.5.1 Elimination du bruit . . . . . . . . . . . . . . . . . . . . . 21
2.5.2 Bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.3 Le filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.4 Redimensionnement d’une image . . . . . . . . . . . . . . 22
2.5.5 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Les opérations sur les images . . . . . . . . . . . . . . . . 24
2.6.1 Dilatation et érosion . . . . . . . . . . . . . . . . . . . . . 24
2.6.2 Segmentation par seuillage . . . . . . . . . . . . . . . . . 24

12
2.6.3 Détection de contour . . . . . . . . . . . . . . . . . . . . . 25
2.6.4 Analyse des composantes connectées . . . . . . . . . . . . 26
2.7 La vidéo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7.2 Nombre d’image par second . . . . . . . . . . . . . . . . . 27
2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

13
2.1 Introduction
De nos jours, le traitement d’images fait partie des technologies en plein essor.
Il constitue un domaine de recherche essentiel dans les disciplines de l’ingénierie et
de l’informatique. Le traitement d’images est une méthode permettant d’effectuer
certaines opérations sur une image, afin d’obtenir une image améliorée ou d’en ex-
traire des informations utiles. Il s’agit d’un type de traitement du signal dans lequel
Le traitement des images comprend essentiellement les trois étapes suivantes :
1. L’importation de l’image via les outils d’acquisition d’images
2. L’analyse et la manipulation de l’image
3. La sortie, dont le résultat peut être une image modifiée ou un rapport basé
sur l’analyse de l’image
Il existe deux types de méthodes utilisées pour le traitement des images, à savoir
le traitement analogique et le traitement numérique. Le traitement analogique des
images peut être utilisé pour les copies papier telles que les impressions et les pho-
tographies. Les analystes d’images utilisent divers principes fondamentaux d’inter-
prétation lorsqu’ils utilisent ces techniques visuelles.
Les techniques de traitement d’images numériques permettent de manipuler les
images numériques à l’aide d’ordinateurs. Les trois phases générales que tous les
types de données doivent subir lors de l’utilisation de la technique numérique sont
le pré-traitement, l’amélioration, l’affichage et l’extraction d’informations.
Dans ce chapitre nous présentons quelques notions de base du domaine de traitement
d’image numérique tels que :
1. La définition d’mage
2. Les caractéristiques d’image
3. Les Systèmes de traitement d’image
4. Le pré-traitement
5. En fin quelques notions de base du domaine de la vidéo

2.2 Définition de l’image


Une image est une fonction bidimensionnelle f (x, y), où x et y sont les coordon-
nées spatiales (planes), et l’amplitude de f à toute paire de coordonnées (x, y) est

14
Figure 2.1 – Exemple d’une image

appelée l’intensité de l’image à ce niveau. Si x, y et les valeurs d’amplitude de f


sont des quantités finies et discrètes, nous appelons l’image une image numérique.
Une image numérique est composée d’un nombre fini d’éléments appelés pixels, dont
chacun a un emplacement et une valeur particuliers [?]. Un exemple d’une image
numérique est donnée dans la figure 2.1

2.2.1 Acquisition d’une image


Les images sont générées par la combinaison d’une source d’éclairage et de la
réflexion ou de l’absorption de l’énergie de cette source par les éléments de la scène
imagée. Les capteurs d’images sont utilisés pour transformer l’énergie d’illumina-
tion en images numériques. Le passage de cet objet externe (l’image d’origine) à
sa représentation interne (dans l’unité de traitement) se fait grâce à une procédure
de numérisassions[White et al., 1988]. Ces systèmes de saisie, dénommés optiques,
peuvent être classés en deux catégories principales :
— Les caméras numériques
— Les scanners

15
2.3 Caractéristiques d’une image numérique
2.3.1 Dimension
Il s’agit de la taille physique et de la résolution d’une image mesurée en pixels.
Par exemple, un appareil photo de 10 MégaPixels (MP) peut offrir des réglages
permettant de prendre des photos en 10,2 MP (3872 × 2592), 5,6 MP (2896 × 1944)
et 2,5 MP (1936 × 1296). Un réglage de taille d’image plus élevé signifie une image
plus grande et une taille de fichier plus importante. Un réglage inférieur de la taille de
l’image donne une image plus petite et une taille de fichier plus petite. En fonction de
votre appareil photo, différentes tailles peuvent être disponibles[Bongiovanni, 1996].

2.3.2 Le type d’Image


[Link] Image binaire

Une image binaire comme son nom l’indique, ne contient que deux éléments de
pixel, à savoir 0 et 1, où 0 correspond au noir et 1 au blanc[Djeziri and Nouboud, ].
Un exemple est donné dans la figure 2.2.

Figure 2.2 – Image binaire

16
[Link] Images à niveaux de gris

Une image en niveaux de gris est simplement une image en noir et blanc où elle
est représentée par une seule composante d’intensité. Elle possède 256 teintes de
gris, la valeur zéro étant le noir et la valeur 255 le blanc. Le nombre 256 est lie à la
quantification de l’image [Saravanan, 2010]. Chaque entier représentant un niveau
de gris est code sur8 bits. Il est donc compris entre 0 et 28 − 1 = [Link] exemple
est donné dans la figure 2.3.

Figure 2.3 – Image à niveau de gris

[Link] Images en couleur

Une image couleur est une matrice numérique de pixels contenant une informa-
tion de couleur. Chaque image peut être décomposée en trois couches différentes
selon les trois canaux de couleur encodés : Rouge, Vert et Bleu. Par exemple, une
image couleur de 8 huit bits code le canal rouge et vert avec trois bits et le bleu
avec deux. Ce qui permet de coder 256 couleurs différentes [Saravanan, 2010]. Un
exemple est donné dans la figure 2.4.

[Link] Conversion d’une image RGB en niveau de gris

Une image couleur RGB peut être convertie en image en niveaux de gris en
utilisant différentes pondérations des composantes rouge, verte et bleue. L’équation
peut être la suivante [Kumar and Verma, 2010] :

Gray(i, j) = 0.40 × R(i, j) + 0.60 × G(i, j) + 0.30 × B(i, j) (2.1)

17
Figure 2.4 – Image en couleur

2.3.3 La Résolution d’une Image


C’est le nombre de points contenu dans une longueur donnée (en pouce). Elle est
exprimée en Dots Per Inch (DPI) ; un inch mesure 2.54 cm. La résolution permet ainsi
d’établir le rapport entre la définition en pixels d’une image et la dimension réelle de
sa représentation sur un support physique (affichage écran, impression papier...). La
figurefig :reso montre la même image avec différentes résolutions[Reu et al., 2015].

2.4 Les formats d’images


Il existe 4 formats principaux pour stocker les images[Larobina and Murino,
2014] :

2.4.1 TIFF
est l’abréviation de « Tagged Image File Format ».Les images TIFF génèrent des
fichiers de très grande taille. Les images TIFF ne sont pas compressées et contiennent
donc beaucoup de données d’image détaillées (c’est pourquoi les fichiers sont si vo-
lumineux). Les TIFF sont également extrêmement flexibles en termes de couleur (ils
peuvent être en niveaux de gris, ou CMYK pour l’impression, ou RGB pour le web)
et de contenu (couches, balises d’image).
Le TIFF est le type de fichier le plus couramment utilisé dans les logiciels de pho-
tographie (tels que Photoshop), ainsi que dans les logiciels de mise en page (tels
que Quark et InDesign), toujours parce qu’un TIFF contient beaucoup de données
d’image.

18
(a) 10 DPI (b) 25 DPI

(c) 100 DPI (d) 300 DPI

Figure 2.5 – Une image avec différentes résolutions

2.4.2 JPEG (également connu sous le nom de JPG)


est l’abréviation de « Joint Photographic Experts Group », qui a créé cette norme
pour ce type de formatage d’images. Les fichiers JPEG sont des images qui ont été
compressées pour stocker beaucoup d’informations dans un fichier de petite taille.
La plupart des appareils photo numériques stockent les photos au format JPEG, car
il est alors possible de prendre plus de photos sur une carte d’appareil photo qu’avec
d’autres formats. Un JPEG est compressé de manière à perdre une partie des détails
de l’image au cours de la compression, afin de réduire la taille du fichier (on parle
alors de compression "avec perte").Les fichiers JPEG sont généralement utilisés pour
les photographies sur le Web, car ils créent un petit fichier qui se charge facilement
sur une page Web et qui est de bonne qualité.

19
Les fichiers JPEG sont mauvais pour les dessins au trait, les logos ou les gra-
phiques, car la compression leur donne un aspect "bitmappy" (lignes irrégulières au
lieu de lignes droites).

2.4.3 GIF
est l’abréviation de « Graphic Interchange Format ». Ce format compresse les
images mais, à la différence du JPEG, la compression est sans perte (aucun détail
n’est perdu dans la compression, mais le fichier ne peut pas être rendu aussi petit
qu’un JPEG).

Les GIF ont également une gamme de couleurs extrêmement limitée, adaptée au
Web mais pas à l’impression. Ce format n’est jamais utilisé pour la photographie, en
raison du nombre limité de couleurs. Les GIF peuvent également être utilisés pour
les animations.

2.4.4 PNG
est l’abréviation de « Portable Network Graphics ». Il a été créé en tant que
format ouvert pour remplacer le GIF, car le brevet du GIF était détenu par une
société et personne d’autre ne voulait payer de droits de licence. Il permet également
une gamme complète de couleurs et une meilleure compression. Il est utilisé presque
exclusivement pour les images Web, jamais pour les images imprimées. Pour les
photographies, le PNG n’est pas aussi bon que le JPEG, car il crée un fichier plus
volumineux. Mais pour les images contenant du texte ou des dessins au trait, le PNG
est meilleur, car les images ont l’air moins "bitmappy".
Lorsque vous faites une capture d’écran sur votre Mac, l’image résultante est un
PNG, probablement parce que la plupart des captures d’écran sont un mélange
d’images et de texte.

2.5 Prétraitement d’images


Comme son nom l’indique, le traitement d’image consiste à traiter l’image, ce qui
peut impliquer de nombreuses techniques différentes jusqu’à ce que nous atteignions

20
notre objectif.
Le résultat final peut prendre la forme d’une image ou d’une caractéristique corres-
pondante de cette image. Ces éléments peuvent être utilisés pour une analyse plus
approfondie et une prise de décision[Krig, 2016].

2.5.1 Elimination du bruit


La fonction de réduction du bruit ou réduction numérique du bruit (DNR) est
présente sur presque tous les téléviseurs et de nombreux moniteurs. Elle a pour
but de réduire le bruit numérique dans les images afin d’obtenir un affichage de
meilleure qualité. Certaines contraintes lors de la capture/compression/streaming
des signaux vidéo peuvent entraîner l’apparition de points dans tout ou partie des
images, et ce bruit altère la perception des détails. La fonction de réduction du bruit
utilise un algorithme qui analyse les images avant d’appliquer un filtre pour lisser
les différences détectées entre différents pixels très proches. Le bruit est ainsi réduit,
mais la netteté générale des images peut être affectée. Selon le modèle, la fonction de
réduction du bruit peut être ajustée à différents niveaux de réglage ou complètement
désactivée pour trouver le meilleur compromis[George et al., 2018].

2.5.2 Bruit
Le bruit d’image est une variation aléatoire de la luminosité ou des informations
de couleur dans les images capturées. Il s’agit d’une dégradation du signal de l’image
causée par des sources externes. Les images contenant du bruit multiplicatif ont pour
caractéristique que plus la zone est lumineuse, plus elle est bruyante. Mais la plupart
du temps, il s’agit de bruit additif[Diwakar and Kumar, 2018].

Dans une image, le bruit peut être modélisé comme suit :

[Link] Bruit Gaussien

est un bruit statistique dont la fonction de densité de probabilité est égale à


la distribution normale, également connue sous le nom de distribution Gaussienne.
Une fonction Gaussienne aléatoire est ajoutée à une fonction image pour générer ce
bruit.

21
[Link] Bruit de sel

Le bruit salé est ajouté à une image par l’ajout de brillants aléatoires (avec une
valeur de 255 pixels) sur toute l’image.

[Link] Bruit de poivre

Un bruit salé est ajouté à une image par l’ajout de pixels foncés aléatoires (d’une
valeur de 0 pixel) sur toute l’image.

[Link] Bruit de sel et de poivre

Le bruit de sel et de poivre est ajouté à une image par l’ajout d’une zone lumi-
neuse aléatoire (avec une valeur de 255 pixels) et d’une zone sombre aléatoire (avec
une valeur de 0 pixel) sur l’ensemble de l’image.

2.5.3 Le filtrage
Le filtrage d’images rend possible plusieurs tâches utiles tâches utiles dans le
traitement des images. Un filtre peut être appliqué pour réduire la quantité de bruit
indésirable dans une image particulière. Un autre type de filtre peut être utilisé pour
inverser les effets du flou sur une image particulière. Les filtres non linéaires ont un
comportement assez différent de celui des filtres linéaires. Les filtres non linéaires
ont un comportement très différent de celui des filtres linéaires. Pour les filtres non
linéaires, la sortie du filtre ou la réponse du filtre n’obéit pas les filtres non linéaires
ont un comportement très différent de celui des filtres linéaires. De plus, un filtre
non linéaire peut produire résultats qui varient de manière non intuitive.
Le filtre Guassien est probablement le filtre le plus utilisé. Il est réalisé en convoluant
chaque pixel de l’image d’entrée avec un noyau Gaussien avec des valeurs calculées
avec l’équation 2.2 [Yuan, 2011] :

1 − x2 +y2 2
G(x, y) = e 2σ (2.2)
2πσ 2

2.5.4 Redimensionnement d’une image


Le redimensionnement permet de réduire ou d’agrandir votre image sans rien
couper.

22
Le redimensionnement modifie les dimensions de l’image, ce qui affecte généralement
la taille du fichier et la qualité de l’image.
La raison la plus courante du redimensionnement des photos est de réduire la taille
des fichiers volumineux pour faciliter leur envoi par courrier électronique ou leur par-
tage en ligne. En réduisant la taille d’une image, on élimine simplement des pixels. À
l’inverse, agrandir une image augmente le nombre de pixels, ce qui peut entraîner une
perte de qualité. Un agrandissement excessif peut entraîner des images pixellisées ou
floues. En effet, le redimensionnement des photos à une taille supérieure à celle de
l’original modifie la résolution, c’est-à-dire la quantité de détails fins dans une image.

2.5.5 Interpolation
L’interpolation d’images tente d’obtenir la meilleure estimation de l’intensité
d’un pixel à partir des valeurs des pixels voisins sur une base de proximité.
L’interpolation est particulièrement essentielle lorsque le redimensionnement ou le
rééchantillonnage de l’image est effectué pour répondre aux spécifications du canal
de transmission ou pour présenter l’image finale sans perte visuelle.
L’interpolation d’image est généralement réalisée par l’une des trois méthodes sui-
vantes : le plus proche voisin, l’interpolation bilinéaire ou l’interpolation cubique[Fadnavis,
2014].
1. Le plus proche voisin
— Méthode la plus basique
— Requiert le moins de temps de traitement
— Ne prend en compte qu’un seul pixel : le plus proche du point interpolé
— A pour effet de rendre chaque pixel plus grand
2. Bilinéaire
— Considère le plus proche voisinage 2x2 des valeurs de pixels connus en-
tourant les pixels inconnus
— Fait une moyenne pondérée de ces 4 pixels pour arriver aux valeurs finales
valeurs interpolées
— Les images sont plus lisses que celles du voisinage le plus proche
— Besoin de plus de temps de traitement

23
3. Cubique
— Un pas au-delà du bilinéaire en considérant le voisinage 4x4 le plus proche
de pixels connus, pour un total de 16 pixels
— Comme ils se trouvent à différentes distances du pixel inconnu, les pixels
les plus proches ont un poids plus élevé dans le calcul. Les pixels les plus
proches ont une pondération plus élevée dans le calcul
— Produit des images plus nettes que les deux méthodes précédentes.
— Bon compromis entre le temps de traitement et la qualité du résultat
— Standard dans de nombreux programmes d’édition d’image, pilotes d’im-
primante et dans la caméra interpolation

2.6 Les opérations sur les images


2.6.1 Dilatation et érosion
La dilatation et l’érosion sont deux opérations morphologiques courantes utili-
sées dans diverses tâches de vision par ordinateur et de traitement d’image.
La dilatation et l’érosion sont toutes deux des opérations binaires. Elles prennent
une image et un élément structurant (matrice de noyau binaire) en entrée et pro-
duisent une image en sortie.
L’opérateur de dilatation fonctionne en mettant en noir tous les pixels qui corres-
pondent à la position des pixels du noyau translaté, ce qui a pour effet de fermer
les trous dans l’image et de renforcer les petites caractéristiques. Un exemple est
illustré dans la figure 2.6.

L’opérateur d’érosion translate l’élément structurant en chaque pixel noir de l’image


et vérifie à chaque position si tous les pixels actifs du noyau correspondent aux pixels
noirs de l’image. Si c’est vrai, alors le pixel renvoyé est noir, sinon il est blanc. Un
exemple de l’utilisation d’un tel opérateur est illustré dans la figure 2.7.

2.6.2 Segmentation par seuillage


Cette méthode permet de diviser une image en fonction des valeurs de l’his-
togramme. La méthode d’Otsu sélectionne le meilleur seuil en fonction de la sé-

24
Figure 2.6 – Résultat de l’opérateur de dilatation utilisant un noyau 3 × 3

Figure 2.7 – Résultat de l’opérateur érosion utilisant un noyau croisé 3 × 3

parabilité entre deux groupes de pixels. Elle est utilisée pour effectuer un seuillage
automatique en supposant alors que l’image à binariser ne contient que deux classes,
(Les objets et l’arrière-plan). La méthode d’Otsu calcule s le seuil optimal T qui sé-
pare ces deux classes afin que la variance intra-classe soit minimale et que la variance
inter-classe soit maximale[Cours du Master et al., 2014].

2.6.3 Détection de contour


Le contour peut être simplement expliqué comme étant la courbe fermée joignant
tous les points continus (le long de la frontière), ayant la même couleur ou la même
intensité. Les contours sont un outil utile pour l’analyse des formes et la détection

25
et la reconnaissance des objets[Gong et al., 2018].
L’idée principale sur laquelle repose la détection des contours est de trouver où il
y a des changements brusques dans l’intensité d’une image. La dérivée première est
utilisée pour trouver ces changements d’intensité en utilisant des opérateurs tels que
Sobel, Prewitt et Roberts détaillés sur la Table 2.1.

Table 2.1 – Opérateurs de détection de contours

Roberts Prewitt Sobel


x y x y x y
-1 -1 -1 -1 0 1 -1 -2 -1 -1 0 1
-1 0 0 -1
0 0 0 -1 0 1 0 0 0 -2 0 2
0 1 1 0
1 1 1 -1 0 1 1 2 1 -1 0 1

2.6.4 Analyse des composantes connectées


Dans l’analyse des images binaires, les objets sont généralement extraits au
moyen de l’opération d’étiquetage des composantes connectées, qui consiste à attri-
buer une étiquette unique à chaque région connectée maximale des pixels de premier
plan. L’étiquetage des composantes connectées est utilisé en vision par ordinateur
pour détecter les régions connectées dans les images numériques binaires. L’extrac-
tion de blocs est généralement effectuée sur l’image binaire résultante d’une étape
de seuillage. L’étiquetage des composants connectés analyse une image et regroupe
ses pixels en composants sur la base de la connectivité des pixels, c’est-à-dire que
tous les pixels d’un composant connecté partagent des valeurs d’intensité similaires
et sont d’une certaine manière connectés les uns aux autres. Une fois que tous les
groupes ont été déterminés, chaque pixel est étiqueté avec un niveau de gris ou une
couleur (étiquetage couleur) en fonction de la composante à laquelle il a été attribué.

2.7 La vidéo
2.7.1 Définition
Le mot vidéo vient du latin vidéo qui signifie « je vois ». C’est un terme qui
regroupe l’ensemble des techniques permettant la visualisation ou l’enregistrement

26
d’images animées accompagnées de son, sur un support électronique et, non de type
pellicule argentique.
Une vidéo est une succession d’images à une certaine cadence. L’œil humain est
capable de distinguer environ 20 images par seconde.
On caractérise la fluidité (vitesse) d’une vidéo par le nombre d’images par secondes
(en anglais frame rate), exprimé en FPS (Frames per second).
La vidéo numérique offre un certain nombre d’avantages par rapport à la vidéo
analogique, notamment :
— Facilité de partage et de stockage
— Aucune dégradation de la qualité des données lors de la copie
— Copie facile et peu coûteuse
— La capacité de multidiffusion

2.7.2 Nombre d’image par second

Qu’est-ce que la fréquence d’images ?


Parfois appelé "taux de mise à jour" ou "taux de rafale", le taux de trame est la
fréquence à laquelle une série consécutive de trames ou d’images peut apparaître sur
un écran d’affichage.
Elle s’applique non seulement à l’infographie dans les jeux vidéo, mais aussi à tous
les systèmes de capture de mouvement, y compris les films et les caméras vidéo.
Cette fréquence est généralement mesurée en images par seconde (FPS). Par exemple,
à 30 images par seconde, 30 images distinctes apparaissent successivement en une
seconde. Si le nombre d’images par seconde est trop faible, le mouvement apparaîtra
irrégulier et saccadé. Mais vous pouvez également rencontrer des problèmes si votre
FPS est trop élevé en raison d’erreurs de synchronisation, ce qui pourrait surcharger
votre moniteur et le faire dysfonctionner.

2.8 Conclusion
Le traitement des images est plus rapide et plus rentable. Il faut moins de temps
pour le traitement, ainsi que moins de pellicules et autres équipements photogra-
phiques. le traitement des images numériques est plus écologique. Aucun produit
chimique de traitement ou de fixation n’est nécessaire pour prendre et traiter des

27
images numériques. Cependant, les encres d’impression sont indispensables pour
imprimer des images numériques. Lors de la prise d’une image numérique, on peut
immédiatement voir si l’image est bonne ou non, la copie d’une image numérique
est facile, et la qualité de l’image reste bonne à moins qu’elle ne soit compressée.

28
Chapitre 3
Détection et Comptage de Véhicules

Sommaire
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 La détection de véhicule . . . . . . . . . . . . . . . . . . . 30
3.3 Caméras de surveillance du trafic . . . . . . . . . . . . . . 31
3.4 Principe de détection des véhicules . . . . . . . . . . . . . 32
3.4.1 Méthodes fondées sur les connaissances préalables . . . . 33
3.4.2 Méthodes basées sur le mouvement . . . . . . . . . . . . . 33
3.4.3 Méthodes basées sur les ondelettes . . . . . . . . . . . . . 34
3.4.4 L’apprentissage automatique : (« machine learning » ML) 34
3.4.5 Apprentissage profond « DL » . . . . . . . . . . . . . . . 34
3.5 Soustraction de l’arrière-plan . . . . . . . . . . . . . . . . 35
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.5.2 Background Subtraction . . . . . . . . . . . . . . . . . . . 35
3.5.3 Les différents étapes de la soustraction d’arrière-plan . . 36
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

29
3.1 Introduction
Un objet peut être considéré comme une entité présentant un intérêt pour une une
analyse ultérieure. Par exemple, les piétons ou véhicules sur une route, les bateaux
sur la mer, sont des objets d’intérêt pour le suivi dans différents contextes. Ces
éléments peuvent être représentés par leur forme ou leur apparence.
La détection peut être définie comme la localisation des objets dans les images
ou les vidéos. La détection de véhicules et les statistiques dans les scènes vidéo
de surveillance des autoroutes sont d’une importance considérable pour la gestion
intelligente du trafic et le contrôle de l’autoroute. Avec l’installation populaire de
caméras de surveillance de la circulation, une vaste base de données de séquences
vidéo de la circulation a été obtenue pour analyse. Généralement, à un angle de
vision élevé, une surface de route plus éloignée peut être envisagée. Au cours de
la dernière décennie, les techniques de détection de véhicules basées sur la vision
pour l’amélioration de la sécurité routière ont suscité une attention croissante. Le
développement de systèmes embarqués d’aide à la conduite automobile visant à
alerter les conducteurs sur les environnements de conduite et les collisions possibles
avec d’autres véhicules a attiré beaucoup d’attention ces derniers temps. Dans ces
systèmes, une détection de véhicule robuste et fiable est une étape critique.

3.2 La détection de véhicule


Définition
La détection est connue également sous le nom de localisation d’image. La loca-
lisation d’image spécifie l’emplacement d’un seul objet dans une image, tandis que
la détection d’objet spécifie l’emplacement de plusieurs objets dans l’image. La dé-
tection utilise principalement la boîte englobante pour détecter un objet dans une
image. La boîte englobante est un rectangle. La détection des véhicules joue un rôle
important dans la surveillance du trafic. Le système de détection des véhicules re-
père les véhicules en sur poids qui se dirigent vers des obstacles aériens, tels que des
ponts, des tunnels et d’autres structures, et il avertit les conducteurs individuelle-
ment. Ce type de système dispose de capacités étendues, d’une grande précision et
d’une grande polyvalence pour différents types de détection, tels que la vitesse, le
nombre de véhicules, la classification des véhicules, la détection des véhicules arrêtés,

30
les véhicules à contresens, la détection des accidents, ainsi que des données de trafic
plus typiques telles que l’occupation, l’espace entre les véhicules, la détection des files
d’attente, etc. Le système se compose de plusieurs sous-systèmes : surveillance vidéo
du trafic, contrôle du flux de trafic, contrôle des barrières de péage, surveillance des
installations à distance et salle de contrôle centrale[Mukhtar et al., 2015].

3.3 Caméras de surveillance du trafic


Les caméras de circulation sont des équipements modernes qui font un usage
fonctionnel de la technologie de vidéo surveillance. On peut voir leurs images dans les
journaux télévisés lors des reportages sur la circulation. Ces caméras sont implantées
en haut des feux de signalisation ou sont montées le long des rues très fréquentées, ou
aux croisements très fréquentés des autoroutes. Les caméras ont également permis
d’enregistrer les schémas de circulation pour des études futures et ont aidé à surveiller
et à contrôler le trafic. Les caméras de circulation sont donc un dispositif important
de la vidéo surveillance, qui vise à surveiller une zone spécifique pour des raisons
de sûreté et de sécurité. Les caméras de circulation intelligentes sont couramment
utilisées dans de nombreux systèmes de transport routier, comme la surveillance,
la gestion du trafic, l’assistance au conducteur, les systèmes de contrôle d’accès, la
sécurité et l’application de la loi, etc. Les recherches sur les méthodes de détection
des véhicules à partir de vidéos prises par des caméras ont débuté à la fin des
années 1970. En 1984, l’Université du Minnesota a lancé un système de détection
par imagerie vidéo multiple à grande échelle, appelé "Autoscopie". Ce système permet
de réduire les coûts d’installation et de maintenance et a conduit au développement
des ITS. Auparavant, l’accent était mis uniquement sur la détection des plaques
d’immatriculation, mais en raison de la demande croissante, d’autres moyens de
classification des véhicules, comme la couleur, la taille, l’environnement, etc. sont
pris comme critère de classification des véhicules. Les caméras de circulation sont
généralement placées à un point de congestion commun pour surveiller le flux de
véhicules sur les routes, les autoroutes et les grands axes. Les informations recueillies
sont ensuite transmises au centre de contrôle de la circulation pour qu’il prenne les
mesures nécessaires en cas de problème. Les caméras de circulation jouent également
un rôle important dans les décisions concernant la surveillance, la construction et
le développement futurs des routes, en plus du suivi des accidents, des fermetures
majeures, des embouteillages sur les routes, etc. En général, les flux de circulation

31
Figure 3.1 – Caméras de surveillance

au jour le jour ne diffèrent pas beaucoup, mais en cas d’accident ou de fermeture


d’une route, une alerte routière peut être très utile pour un banlieusard pressé par
le temps. Les vidéos en temps réel d’endroits spécifiques sont collectées par des
caméras de surveillance utilisant les systèmes Pan Tilt Zoom, Gatso, Vector, etc.
et les images sont ensuite transmises au centre de contrôle du trafic par Internet
[22-24]. Les figures 3a-d montrent quelques-unes des bonnes caméras utilisées pour
la surveillance du trafic[Yu et al., 2018]. ??

3.4 Principe de détection des véhicules


De nombreuses approches pour le suivi des objets ont été proposées auparavant.
Ces méthodes diffèrent les unes des autres en fonction de la façon dont les auteurs
résolvent les questions communes[Lin et al., 2018]
Au sens large, la détection des véhicules peut être catégorisée en fonction de :
1. la connaissance préalable
2. le mouvement
3. les ondelettes
4. l’apprentissage automatique (« machine learning » ML)
5. l’apprentissage profond (« deep learning » DL)

32
3.4.1 Méthodes fondées sur les connaissances préalables
Différentes approches pour détecter un véhicule ont été réalisées sur la base de
connaissances préalables. Il s’agit de la symétrie, de la couleur, du bord vertical ou
horizontal, de l’ombre, des roues, du modèle 3D, etc.

3.4.2 Méthodes basées sur le mouvement


Flux optique

Cette méthode de détection des véhicules est basée sur le calcul du flux optique,
alors que les méthodes susmentionnées ont utilisé des caractéristiques spatiales. La
détection du mouvement est l’un des paramètres essentiels d’un STI. Il existe un
mouvement relatif entre la scène de circulation et le capteur, ce qui fait que les
pixels de l’image semblent se déplacer. Ce mouvement dû au champ vectoriel est
appelé flux optique. En utilisant le flux optique de manière autonome, tout véhicule
peut être détecté par la caméra. Cependant, son calcul est très complexe et subtil
au niveau du bruit. Meyer et al. Ont estimé le concept d’un champ de vecteurs de
déplacement, qui initie un processus de suivi basé sur les contours. L’analyse en
temps réel de flux vidéo sans matériel spécialisé n’est pas si facile. Barron’s et al.
Ont mentionné une discussion détaillée sur le flux optique dans leur travail[Mbula
et al., 2016].

Soustraction de l’arrière-plan

La soustraction de l’arrière-plan, également appelée détection de l’avant-plan, est


l’une des tâches essentielles qui permet de réaliser de nombreuses autres applications
telles que le suivi des véhicules, la reconnaissance et la détection des irrégularités.
Elle est utilisée pour la segmentation du mouvement dans une scène statique. Pour
la détection de mouvement, l’image pixel par pixel est soustraite d’une image de
fond, qui est considérée comme une image de référence. Un certain niveau de seuil
est défini ; si la différence est supérieure au niveau de seuil, alors l’image est consi-
dérée comme un premier plan. La formation de l’image d’arrière-plan est reconnue
comme la modélisation de l’arrière-plan. Certains post-traitements morphologiques
sont effectués après la création des cartes de pixels de premier plan, comme l’érosion,
la dilatation et la fermeture, afin de réduire le bruit et d’améliorer la région détectée.
L’image d’arrière-plan de référence est mise à jour de temps en temps et l’image où

33
la section de la route est représentée sans véhicule sert de référence[Garcia-Garcia
et al., 2020].

3.4.3 Méthodes basées sur les ondelettes


Depuis la dernière décennie, la transformée en ondelettes est devenue l’un des
outils essentiels des applications de traitement du signal. Le mouvement du véhicule
est pris en compte dans les données spatio-temporelles 3D de la scène de l’image,
ce qui est possible grâce à la transformation en ondelettes. L’avantage est une très
faible complexité de calcul et une application facile dans les deux directions spatiales
et temporelles. Cependant, ces méthodes dépendent du bruit et des variations de
la chronologie des mouvements. Wang et Chen ont proposé un nouvel algorithme
utilisant la transformée en ondelettes spatio-temporelle sur des vidéos pour obtenir
des informations sur le mouvement des véhicules. Une technique de fusion de la
transformation en ondelettes et des caractéristiques de l’information chromatique
pour l’identification automatique des véhicules a été proposée par Yin et al.

3.4.4 L’apprentissage automatique : (« machine learning »


ML)
L’apprentissage automatique est un sujet intéressant qui aide à comprendre com-
ment une machine met à jour le code par elle-même. L’apprentissage automatique
est un sous-ensemble de l’intelligence artificielle, qui donne aux ordinateurs la ca-
pacité d’apprendre sans être absolument programmés. La signification de ceci est
qu’une fois que la machine est programmée, elle ne changera pas son propre code
même lorsqu’un nouveau problème est rencontré. L’objectif de ML est de se concen-
trer sur le développement de programmes informatiques qui changent lorsqu’ils sont
exposés à de nouvelles données. Il change en fonction d’une situation où la machine
ne change pas son code. C’est un concept d’auto-apprentissage ; elle apprend tout
ce qu’elle a acquis à partir du scénario, des situations, des expériences passées, etc.
Ainsi, la machine propose de nouvelles solutions en utilisant le concept d’IA.

3.4.5 Apprentissage profond « DL »


Le DL est traité par des réseaux neuronaux, qui sont des algorithmes d’appren-
tissage de réseaux neuronaux multicouches. Chaque réseau neuronal profond « deep

34
neural network DNN » se compose de trois couches, la couche d’entrée, la couche
cachée et la couche de sortie. Entre les couches d’entrée et de sortie, il peut y avoir
n couches cachées multiples, et le traitement de ’n’ couches cachées est possible en
raison des ressources élevées disponibles de nos jours.

3.5 Soustraction de l’arrière-plan


3.5.1 Introduction
Les les caméras fixes sont généralement utilisées dans les applications de sur-
veillance visuelle. Comme la caméra reste fixe, il est possible d’identifier les objets
en mouvement en les comparant à une image précédente. Ce processus est appelé
background subtraction et la représentation de la scène est appelée modèle d’arrière-
plan. La scène est ici supposée être stationnaire.
Dans les systèmes de surveillance visuelle automatisés et dans de nombreuses
autres applications (capture de mouvement, analyse sportive, etc.), l’étape initiale
consiste à supprimer l’arrière-plan. Le résultat de ce processus est ensuite intégré à
l’analyse de la scène.
Dans ce qui suit, nous allons examiner les fondements théoriques sur lesquels
notre solution a été construite.

3.5.2 Background Subtraction


La soustraction d’arrière-plan (Background substraction) est une approche lar-
gement utilisée pour détecter les objets en mouvement dans les vidéos provenant de
caméras statiques. La logique de cette approche est de détecter les objets en mou-
vement à partir de la différence entre l’image actuelle et une image de référence,
souvent appelée image de fond ou modèle de fond[Sajid and Cheung, 2015].
Un algorithme de soustraction d’arrière-plan robuste doit être capable de gérer
les changements d’éclairage et les changements de scène à long terme. Les analyses
suivantes utilisent la fonction V (x, y, t) en tant que séquence vidéo où t est la
dimension temporelle, x et y sont les variables d’emplacement spatial des pixels.

35
3.5.3 Les différents étapes de la soustraction d’arrière-plan
L’objectif de ce processus est la segmentation des objets d’avant-plan statiques
et mobiles dans un flux vidéo. Cette tâche fournit un bon compromis en termes de
qualité de détection et de temps de calcul[Sajid and Cheung, 2015]. Les différentes
étapes de la soustraction de l’arrière-plan sont détaillées dans ce qui suit.
Afin de détecter les objets en mouvement à partir de la différence entre les images
de vidéo et une image référence, nous devons d’abord estimer cette image de réfé-
rence.
Dans ce travail, nous obtenons le modèle de l’arrière plan B en prenant l’image
moyenne de l’ensemble des N images , selon l’équation 3.1 :

N
1 X
B(x, y) = I(x, y, n) (3.1)
N n=1

L’image soustraite I ′ du fond est obtenue selon l’équation 3.2.

I ′ (x, y) = I(x, y) − B(x, y) (3.2)

L’étape suivante est la binarisation. Après avoir obtenu l’image soustraite, l’image
doit être segmentée en régions contenant le véhicule et les régions contenant le non-
véhicule. Cette segmentation est décidée en fonction de l’intensité de la région. Si la
région a une intensité supérieure à un seuil spécifié, elle est convertie en blanc et le
reste est noir.
L’image seuillée a beaucoup de bruit qui doit être éliminé à l’aide un filtre Gaus-
sien. L’opération de fermeture est réalisée en effectuant d’abord une dilatation, suivie
d’une érosion en utilisant le même élément structurant.
Un objet peut être localisé à partir de l’ensemble des pixels de son contour. De ce
fait, la détection de contours est utilisée pour trouver les limites de régions. Un al-
gorithme de remplissage est utilisé pour étiqueter tous les pixels chague composante
connectée contenant chaque pixel. Une boîte de délimitation est ensuite dessinée
autour de tous les groupes connectés.

36
3.6 Conclusion
Ce chapitre a introduit les concepts de base nécessaires à la compréhension des
différentes méthodes de traitement d’images. Il s’est également penché sur les carac-
téristiques des vidéos.

37
Deuxième partie

Partie pratique

38
Chapitre 4
Résultats Experimentaux

Sommaire
4.1 introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Les outils de développement . . . . . . . . . . . . . . . . . 40
4.2.1 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.2 OpenCV . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.3 Google Colaboratory . . . . . . . . . . . . . . . . . . . . . 41
4.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

39
4.1 introduction
Afin de réaliser les objectifs qui ont été énoncés dans les chapitres précédents
et pour mener à bien la détection et le comptage de véhicules, nous devons utiliser
le principe de la soustraction d’arrière-plan mis en œuvre à l’aide de Python et
d’OpenCV.

4.2 Les outils de développement


Le langage de programmation choisi pour notre méthode présentée précédem-
ment s’est concentré sur le langage python

4.2.1 Python
Python 1 est un langage de programmation de haut niveau largement utilisé,
lancé pour la première fois en 1991. Depuis lors, Python a gagné en popularité et
est considéré comme l’un des langages de programmation côté serveur les plus po-
pulaires et les plus flexibles.
Contrairement à la plupart des distributions Linux, Windows n’est pas livré avec
le langage de programmation Python par défaut. Cependant, vous pouvez instal-
ler Python sur votre serveur Windows ou votre machine locale en quelques étapes
simples.

4.2.2 OpenCV
OpenCV (Open Source Computer Vision Library) est publié sous une licence
BSD et est donc gratuit pour une utilisation académique et commerciale ((voir la
figure 4.1). Elle possède des interfaces C++, C, Python et Java et supporte Windows,
Linux, Mac OS, iOS et Android. OpenCV a été conçu pour l’efficacité des calculs et
avec un fort accent sur les applications en temps réel. Écrite en C/C++ optimisé,
la bibliothèque peut tirer parti du traitement multi-cœur. Grâce à OpenCL, elle
peut tirer parti de l’accélération matérielle de la plate-forme de calcul hétérogène
sous-jacente.
1. [Link]

40
Figure 4.1 – Logo de la bibliotheque OpenCV

4.2.3 Google Colaboratory


Colaboratory ou colab (figure 4.2) est un service de Google qui nous permet
d’exécuter du code Python à partir de notre navigateur sur la base de la technologie
Jupyter notebook. Sur le serveur se trouve un interpréteur de Python qui reçoit le
code écrit dans le navigateur et renvoie le résultat à afficher dans sa cellule corres-
pondante.
Le principal avantage de ce service par rapport à l’exécution locale du code est
l’accès aux GPU et aux TPU fournis par , c’est-à-dire que nous pouvons effectuer
des calculs très coûteux à partir d’ordinateurs de base.
Google Colab ne nécessite aucune configuration pour démarrer et fournit un
accès gratuit aux GPU. Il nous facilite le partage de code en direct, d’équations
mathématiques, de visualisation de données, de nettoyage et de transformation de
données, de modèles d’apprentissage automatique, de simulations numériques, et
bien d’autres.

4.3 Résultats
La Figure 4.3a montre une image extraite d’une vidéo , la Figure 4.3b montre
l’image de background calculée en utilisant le processus su-cité et la Figure 4.3c
montre le résultat de soustraction .
Les images obtenues sont généralement bruitées, soit à cause de la poussière sur

41
Figure 4.2 – Logo de Google Colab

(a) Image de vidéo (b) Image de background

(c) Résultat de soustraction

Figure 4.3 – La différence entre l’image de vidéo et background

42
les véhicules, soit à cause d’une compression bruyante, soit à cause de la poussière
sur la caméra.
Nous utilisons un filtre Gaussien de noyau de taille 9 × 9 pour filtrer l’image de diffé-
rence I ′ (Figure 4.4). Nous avons ensuite utilisé le seuillage d’Otsu afin de binariser
l’image en fonction de l’intensité des pixels ( les négatifs à 255, puisque les véhicules
en mouvement ont la luminance la plus faible, et tous les pixels positifs à 0) (Figure
4.5), .

Figure 4.4 – Image filtrée par un noyau Gaussien

Figure 4.5 – Seuillage par la méthode d’Otsu

43
L’image binaire présentée dans la Figure 4.5 est suffisamment connectée pour
permettre une bonne segmentation et une bonne classification. Mais ce n’est pas
toujours le cas lorsqu’il y a de grandes zones sur un véhicule avec de grandes varia-
tions d’intensité.
Il y’a deux opérations fondamentales, appelées érosion et dilatation. L’érosion
rétrécit une image en agrandissant les trous et les espaces entre les pixels. La dilata-
tion fait exactement le contraire, elle ajoute des pixels dans les vides, comblant ainsi
tous les vides de l’image binaire. La combinaison des deux entraîne l’ouverture ou
la fermeture d’une image, L’ouverture tend à éliminer les petits objets au premier
plan, tandis que la fermeture élimine les petits trous au premier plan.
L’opération de fermeture est réalisée en effectuant d’abord une dilatation, suivie
d’une érosion en utilisant le même élément structurant. Le résultat de l’opération
de dilatation est illustré dans la Figure 4.6.

Figure 4.6 – Image après la dilatation

Un objet peut être localisé à partir de l’ensemble des pixels de son contour. De ce
fait, la détection de contours est utilisée pour trouver les limites de régions. Un al-
gorithme de remplissage est utilisé pour étiqueter tous les pixels chague composante
connectée contenant chaque pixel. Une boîte de délimitation est ensuite dessinée
autour de tous les groupes connectés comme le montre le Figure 4.7.

44
Figure 4.7 – Détection de véhicules dans une scène vidéo

D’autre résultats de la détection sont donnés dans ce qui suit.

(a) Image de vidéo (b) Image de background

(c) Résultat de soustraction

Figure 4.8 – La différence entre l’image de vidéo et background

45
Figure 4.9 – Image filtrée par un noyau Gaussien

Figure 4.10 – Seuillage par la méthode d’Otsu

46
Figure 4.11 – Image après la dilatation

Figure 4.12 – Détection de véhicules dans une scène vidéo

47
Conclusion Générale

Les applications de détection et de suivi des véhicules jouent un rôle important


pour les applications civiles et militaires telles que la surveillance du trafic routier,
la gestion et la planification du trafic urbain. Les processus de détection de véhicules
sur route sont utilisés pour le suivi des véhicules, les comptages, la vitesse moyenne
de chaque véhicule individuel, l’analyse du trafic et les objectifs de catégorisation
des véhicules et peuvent être mis en œuvre sous différents changements d’environ-
nement. Dans cette revue, nous présentons une recherche concis des méthodes de
traitement de vidéo et des outils d’analyse utilisés dans la construction de ces appli-
cations mentionnées précédemment qui impliquaient le développement de systèmes
de surveillance du trafic.
Le traitement vidéo est un sujet brûlant dans le domaine de la recherche et du déve-
loppement. C’est un cas particulier du traitement du signal, où les signaux d’entrée
et de sortie sont des fichiers vidéo ou des flux vidéo. Les techniques de traitement
vidéo sont utilisées dans les téléviseurs, les magnétoscopes, les DVD, les codecs vi-
déo, les lecteurs vidéo et d’autres appareils. Dans cette recherche, nous présentons
des éléments de traitement vidéo et les technologies actuelles liées à cette technique.
Avec la généralisation de l’utilisation des images numériques, l’analyse du mouve-
ment dans les vidéos s’est Révélée être un outil indispensable pour des applications
aussi diverses que la vidéo surveillance, la Compression vidéo, l’imagerie médicale,
la robotique.
Dans ce projet de fin d’étude nous avons essayé De mettre en pratique les connais-
sances acquises durant nos études universitaires Et cela dans le but de réaliser une
application de détection et suivi un objet en Mouvement sur une sciène vidéo.

48
Bibliographie

[Aibeche et al., 2020] Aibeche, Y. et al. (2020). Développement d’un système intel-
ligent de gestion des feux de circulation à Base des algorithmes génétiques. PhD
thesis, University of Jijel.
[Ben Yedder, 2014] Ben Yedder, H. (2014). Gestion adaptative des véhicules d’ur-
gence utilisant des informations en temps réel. PhD thesis, Université du Québec
en Outaouais.
[BIDAUD, 2005] BIDAUD, C. (2005). Le télépéage aujourd’hui et demain. TEC
(TRANSPORT, ENVIRONNEMENT, CIRCULATION), (186).
[Bongiovanni, 1996] Bongiovanni, C. (1996). Traitement d’image appliqué à la me-
sure de la taille, de la vitesse et de la déformation des bulles. PhD thesis, Toulouse,
INPT.
[Cours du Master et al., 2014] Cours du Master, O., Etienne, S., and BEUCHER,
S. (2014). Segmentation d’image & morphologie morphologie mathematique.
[Crozet, 2011] Crozet, Y. (2011). De l’économie des transports à la mobilité durable :
quel rôle pour les innovations ? Transports Environnement Circulation, 210 :6–12.
[Diwakar and Kumar, 2018] Diwakar, M. and Kumar, M. (2018). A review on ct
image noise and its denoising. Biomedical Signal Processing and Control, 42 :73–
88.
[Djeziri and Nouboud, ] Djeziri, S. and Nouboud, F. Algorithme de regroupement
d’objets sur une image binaire.
[Fadnavis, 2014] Fadnavis, S. (2014). Image interpolation techniques in digital image
processing : an overview. International Journal of Engineering Research and Ap-
plications, 4(10) :70–73.

49
[Fougères, 2001] Fougères, A.-J. (2001). Un système tutoriel intelligent adapté à la
formation de régulateurs de trafic. Sciences et Technologies de l’Information et
de la Communication pour l’Éducation et la Formation, 8(1) :141–147.
[Garcia-Garcia et al., 2020] Garcia-Garcia, B., Bouwmans, T., and Silva, A. J. R.
(2020). Background subtraction in real applications : Challenges, current models
and future directions. Computer Science Review, 35 :100204.
[Gaudron, 2020] Gaudron, P. (2020). Claude rochet, les villes intelligentes, réalité
ou fiction, iste éditions, 2018. Management international/International Manage-
ment/Gestiòn Internacional, 24(2) :182–184.
[George et al., 2018] George, G., Oommen, R. M., Shelly, S., Philipose, S. S., and
Varghese, A. M. (2018). A survey on various median filtering techniques for
removal of impulse noise from digital image. In 2018 Conference on Emerging
Devices and Smart Systems (ICEDSS), pages 235–238. IEEE.
[Gong et al., 2018] Gong, X.-Y., Su, H., Xu, D., Zhang, Z.-T., Shen, F., and Yang,
H.-B. (2018). An overview of contour detection approaches. International Journal
of Automation and Computing, 15(6) :656–672.
[Krig, 2016] Krig, S. (2016). Image pre-processing. In Computer vision metrics,
pages 35–74. Springer.
[Krishnakumar, 2003] Krishnakumar, K. (2003). Intelligent systems for aerospace
engineering-an overview.
[Kumar and Verma, 2010] Kumar, T. and Verma, K. (2010). A theory based on
conversion of rgb image to gray image. International Journal of Computer Appli-
cations, 7(2) :7–10.
[Larobina and Murino, 2014] Larobina, M. and Murino, L. (2014). Medical image
file formats. Journal of digital imaging, 27(2) :200–206.
[Lin et al., 2018] Lin, Y., Bai, R., and Qian, Z. (2018). The design method and
research status of vehicle detection system based on geomagnetic detection prin-
ciple. In Journal of Physics : Conference Series, volume 986, page 012033. IOP
Publishing.
[Mbula et al., 2016] Mbula, R. M., Ndeko, J.-M. M., and Lusala, A. K. (2016). Com-
mande de pelotons de véhicules avec détection de plaques d’immatriculation.

50
[Mukhtar et al., 2015] Mukhtar, A., Xia, L., and Tang, T. B. (2015). Vehicle detec-
tion techniques for collision avoidance systems : A review. IEEE transactions on
intelligent transportation systems, 16(5) :2318–2338.
[Reu et al., 2015] Reu, P. L., Sweatt, W., Miller, T., and Fleming, D. (2015). Ca-
mera system resolution and its influence on digital image correlation. Experimental
Mechanics, 55(1) :9–25.
[Sajid and Cheung, 2015] Sajid, H. and Cheung, S.-C. S. (2015). Background sub-
traction for static & moving camera. In 2015 IEEE International Conference on
Image Processing (ICIP), pages 4530–4534. IEEE.
[Saravanan, 2010] Saravanan, C. (2010). Color image to grayscale image conversion.
In 2010 Second International Conference on Computer Engineering and Applica-
tions, volume 2, pages 196–199. IEEE.
[White et al., 1988] White, R. J., Prentice, H. C., and Verwijst, T. (1988). Au-
tomated image acquisition and morphometric description. Canadian Journal of
Botany, 66(3) :450–459.
[Yu et al., 2018] Yu, L., Zhang, D., Chen, X., and Hauptmann, A. (2018). Traffic
danger recognition with surveillance cameras without training data. In 2018 15th
IEEE International Conference on Advanced Video and Signal Based Surveillance
(AVSS), pages 1–6. IEEE.
[Yuan, 2011] Yuan, H.-D. (2011). Blind forensics of median filtering in digital
images. IEEE Transactions on Information Forensics and Security, 6(4) :1335–
1345.

51

Vous aimerez peut-être aussi