0% ont trouvé ce document utile (0 vote)
94 vues21 pages

Chapitre 2

Ce chapitre traite des méthodes d'algorithmes d'apprentissage profond pour la détection des plaques d'immatriculation, en examinant les étapes et techniques utilisées, ainsi que leurs avantages et limites. Il couvre également les méthodes classiques comme HOG, SIFT et LBP, ainsi que des approches basées sur les réseaux de neurones convolutifs (CNN) telles que R-CNN, Fast R-CNN, Faster R-CNN, Mask R-CNN, SSD et RetinaNet. Ces méthodes varient en précision, rapidité et capacité d'apprentissage automatique des caractéristiques.

Transféré par

amne
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
94 vues21 pages

Chapitre 2

Ce chapitre traite des méthodes d'algorithmes d'apprentissage profond pour la détection des plaques d'immatriculation, en examinant les étapes et techniques utilisées, ainsi que leurs avantages et limites. Il couvre également les méthodes classiques comme HOG, SIFT et LBP, ainsi que des approches basées sur les réseaux de neurones convolutifs (CNN) telles que R-CNN, Fast R-CNN, Faster R-CNN, Mask R-CNN, SSD et RetinaNet. Ces méthodes varient en précision, rapidité et capacité d'apprentissage automatique des caractéristiques.

Transféré par

amne
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

CHAPITRE 2 : LES MODELES DE DETECTIONS

I. Introduction
Dans ce chapitre, nous aborderons en détails les méthodes des algorithmes de l’apprentissage
profond utilisées pour la détection de la plaque d’immatriculation. Ces méthodes font appel
aux techniques avancées d’intelligence artificielle pour traiter et analyser les images, afin de
détecter et identifier les caractères des plaques d’immatriculation.
Au cours de ce chapitre, nous examinerons de manière détaillée les différentes étapes et
méthodes utilisées dans les algorithmes d’apprentissage profond pour la détection de la plaque
d’immatriculation, ainsi que les avantages et les limites de ces méthodes.
Ce chapitre fera aussi l’objet d’un état de l’art autour de l’utilisation des modèles de détection
et reconnaissance des plaques d’immatriculations des véhicules qui grillent le feu de
signalisation.

II. Méthodes classiques


La détection d’objets est une méthode permettant de détecter la présence d’une instance
(reconnaissance d’objet) ou d’une classe d’objets dans une image numérique. Les méthodes
classiques de détection d’objets étaient principalement basées sur l’extraction de descripteurs
de caractéristiques, tels que les histogrammes de gradients orientés (HOG) ou la
transformation de caractéristiques visuelles invariante à l’échelle (SIFT) avec classification
ultérieure par un classificateur linéaire, tel que SVM.

Ces méthodes ont été largement utilisées avant l’avènement des approches basées sur
l’apprentissage profond comme Faster R-CNN, YOLO V2 et SSD.

1. Histogramme de gradient orienté (HOG)


Le descripteur HOG est une statistique locale des orientations des dégradés de l'image. Il se
caractérise par son invariance aux changements de rotation et d’éclairage. Ajoutez à cela que
la simplicité de sa technique de calcul en fait l'un des descripteurs d'objet les plus rapides de
l'état de l'art. L'idée principale derrière ce descripteur est que l'apparence et la forme d'un
objet local peuvent souvent être assez bien caractérisées par la distribution des gradients
d'intensité locaux ou par les directions des bords. Dans sa forme la plus simple, la fonction
HOG divise l'image en plusieurs cellules, dans chacune d'elles un histogramme compte les
occurrences d'orientations de pixels données par leurs dégradés. Le descripteur HOG final est
ensuite construit avec une combinaison de ces histogrammes. En pratique, quatre grandes
étapes interviennent : Informatique dérivée d'images, Calcul de la magnitude et de
l'orientation du gradient, Construction d'histogrammes partiels, Normalisation des
histogrammes partiels.[44]
Figure 1.1 Principales étapes du calcul HOG : (a) Image originale, (b) résultat de convolution
du visage avec noyau horizontal, (c) résultat de convolution du visage avec noyau vertical, (d)
orientation dégradée de l'ensemble du visage, (e1) …(en) vecteurs de gradient dans chaque
cellule, (f1) ... (Fn) histogrammes correspondant aux cellules calculées en fonction du
gradient et de l'amplitude, (g) calcul HOG final. [44]

2. Transformation de caractéristiques visuelles invariante à


l'échelle (SIFT)
La scale-invariant feature transform (SIFT), est un algorithme utilisé dans le domaine de
la vision par ordinateur pour détecter et identifier les éléments similaires entre
différentes images numériques, Il a été développé en 1999 par le chercheur David Lowe.
Cette approche transforme une image en une large collection de vecteurs de caractéristiques
locales, dont chacun est invariant par rapport à l'image translation, mise à l'échelle et rotation,
et partiellement invariant aux changements d'éclairage et à la projection affine ou 3D. Les
caractéristiques invariantes d'échelle sont identifiées efficacement à l'aide d'une approche de
filtrage par étapes. La première étape identifie les emplacements clés dans l'espace d'échelle
en recherchant les emplacements qui sont des maximas ou des minima d'une fonction de
différence de gaussienne. Chaque point est utilisé pour générer un vecteur de caractéristiques
qui décrit la région d'image locale échantillonnée par rapport à son cadre de coordonnées
d'échelle-espace. Les fonctionnalités permettent d'obtenir une invariance partielle aux
variations locales, telles que les projections affines ou 3D, en brouillant les emplacements de
gradient d'image. Cette approche s'appuie sur un modèle du comportement de cellules
complexes du cortex cérébral de la vision des mammifères. Les vecteurs de caractéristiques
résultants sont appelés clés SIFT.
Les clés SIFT dérivées d'une image sont utilisées dans une approche d'indexation du plus
proche voisin pour identifier des modèles d'objets candidats. Les collections de clés qui
concordent sur une pose potentielle de modèle sont d'abord identifiées via une table de
hachage de transformation de Hough, puis via un ajustement par les moindres carrés à une
estimation finale des paramètres du modèle. Lorsqu'au moins 3 clés s'accordent sur les
paramètres du modèle avec un faible résidu, il existe des preuves solides de la présence de
l'objet. Puisqu'il peut y avoir des dizaines de clés SIFT dans l'image d'un objet typique, il est
possible d'avoir des niveaux d'occlusion importants dans l'image tout en conservant des
niveaux élevés de fiabilité.[45]

3. Motif binaire local (LBP)


L'opérateur motif binaire local (LBP) a été proposé initialement par Ojala et al. La technique
LBP (local Binary Pattern), c'est une méthode mathématique dont son principe consiste à
caractériser Ia texture d'une image par calcule du code LBP pour tous les pixels d’image
ensuite calcule l’histogramme de cette image LBP pour former un vecteur de caractéristiques
représentant l’image.
La méthode LBP originale étiquette les pixels d'une image avec des nombres décimaux, qui
sont appelés LBP qui codent la structure locale autour de chaque pixel. On procède ainsi,
comme illustré sur la figure 2.6: chaque pixel est comparé à ses huit voisins dans un voisinage
3 × 3 en soustrayant la valeur du pixel central ; les valeurs strictement négatives résultantes
sont codées avec 0 et les autres avec un. Pour chaque pixel donné, un nombre binaire est
obtenu en concaténant l'ensemble de ces valeurs binaires dans le sens horaire, ce qui
commence à partir de l'une de ses voisines en haut à gauche. La valeur décimale
correspondant du nombre binaire généré est ensuite utilisée pour marquer le pixel donné. Les
nombres binaires dérivés sont appelés codes de LBP. La méthodologie de LBP a été
développée récemment avec un grand nombre de variations pour l'amélioration des
performances dans différentes applications.[46]

Figure 1.2: Exemple de la méthode LBP [46]

III. Méthodes basées CNN


La détection d’objets basée sur le réseau neuronal convolutif (CNN) est une méthode qui
utilise des CNN pour identifier et localiser des objets dans une image ou une vidéo
Des exemples de méthodes de détection d’objets basées sur CNN comprennent R-CNN, Fast
R-CNN, Faster R-CNN et YOLO (You Only Look Once). Ces méthodes diffèrent par la façon
dont elles sélectionnent les régions d’intérêt dans l’image et comment elles effectuent la
classification.

L’utilisation des réseaux de neurones convolutifs (CNN) pour la détection d’objets présente
plusieurs avantages : Précision, Rapidité, Apprentissage automatique des caractéristiques,
Robustesse aux variations et utilisation dans une variété d’applications
1. R-CNN
R-CNN a été proposé en 2014 pour améliorer la méthode de CNN dans la reconnaissance
d'images, il peut choisir un grand nombre de boîtes englobantes qui pourraient être des cibles
finales par une recherche facultative, puis diviser les différentes zones indépendantes de
l'image en utilisant l'extraction de caractéristiques de CNN. Le fait est qu'une trame de R-
CNN se compose de quatre étapes, notamment la saisie d'images, l'extraction de propositions
de régions, le calcul des caractéristiques CNN et la classification des régions. Le modèle
d'algorithme de R-CNN peut être identifié à plusieurs processus. Premièrement, CNN peut
être entraîné en classant les images et les zones cibles peuvent être recherchées par la
recherche sélective. De plus, ces zones cibles doivent être redimensionnées à une taille par
défaut. Deuxièmement, pour chaque zone d'image, un vecteur de caractéristiques est généré
par la propagation vers l'avant de CNN, puis le vecteur de caractéristiques doit être saisi dans
le SVM binaire. Enfin, le modèle de régression est utilisé pour réduire les erreurs de
positionnement et corriger la zone de délimitation. Pour résumer, CNN, SVM et le modèle de
régression sont inclus dans R-CNN. En conséquence, R-CNN est très informatique [47].
Sur la base de ce qui précède le principal avantage du R-CNN est qu’il présente un taux
d’erreur inférieur à celui du CNN conventionnel, en divisant les images en régions
individuelles. En outre, un autre avantage est que le réseau CNN peut extraire
automatiquement les caractéristiques de l’image.
En revanche, l'inconvénient comprend plusieurs points : Premièrement, la formation est
échelonnée et les étapes sont compliquées. Deuxièmement, chaque proposition de région doit
extraire des fonctionnalités via le réseau CNN, générant un grand nombre de fichiers de
fonctionnalités et occupant trop de mémoire physique. Troisièmement, chaque proposition de
région doit extraire des fonctionnalités via le réseau CNN, ce qui entraîne une vitesse de
fonctionnement lente. Enfin, comme SVM est utilisé pour la classification, la formation de
bout en bout ne peut pas être réalisée [47]

Figure 2.2 : Architecture R-CNN [8]


2. R-CNN rapide
Afin d'améliorer l'efficacité du traitement d'image de R-CNN, Fast R-CNN a été introduit en
2015. Trois des modèles indépendants ont été fusionnés dans un cadre de formation commun,
partageant les résultats informatiques. Plus précisément, les formateurs ne définissent plus de
vecteurs de caractéristiques indépendants pour chaque caractéristique, mais chaque image
utilise un canal aller CNN et partage la matrice de caractéristiques. La même matrice propre
est utilisée pour construire le classificateur et la matrice de régression des limites. Il est un fait
que de nombreuses étapes de Fast R-CNN sont les mêmes que celles de R-CNN. En outre,
Fast R-CNN comprend plusieurs processus. Premièrement, un CNN pré-entraîné a été
appliqué à la tâche de classification ainsi qu'au choix de la zone de recherche. Ensuite, la
couche de pooling maximum qui est la dernière couche de CNN pré-entraîné sera échangée
par la couche de pooling Rol. Deuxièmement, Les algorithmes rapides R-CNN remplacent la
dernière couche de connexion complète et le dernier SoftMax de classe k par une couche de
connexion complète et SoftMax de classe k+1. Enfin, Fast R-CNN produit une probabilité
discrète istribution pour chaque RoI et prédire le modèle de régression de boîte englobante
des décalages par rapport au RoI d'origine pour chaque classe K [47].
Fast R-CNN présente plusieurs avantages par rapport à R-CNN. Premièrement, Fast R-CNN
résout la méthode de formation en plusieurs étapes de R-CNN et SPP-Net et forme l'ensemble
du réseau en multitâche. Deuxièmement, il utilise SoftMax pour remplacer SVM pour la
prédiction multi-classification afin de réaliser une formation de bout en bout. Enfin, il réalise
le partage de poids d'un réseau convolutif et adopte la mise en commun RoI pour maintenir
une entrée multiéchelle.
En outre, l'inconvénient est la perte de temps importante, puisque la proposition de région
extraite par recherche sélective ne peut être exécutée que dans le CPU [47].

Figure 2.2: Architecture Fast R-CNN [9]


3. R-CNN plus rapide
Cependant, Fast R-CNN n’est toujours pas assez rapide. En conséquence, Faster R-CNN a été
introduit en 2016. Premièrement, de nombreuses étapes de Faster R-CNN sont les mêmes que
celles de Faster R-CNN. Deuxièmement, afin de proposer une distribution, la mise au point de
Faster R-CNN est un RPN de bout en bout utilisant une classification d'images préentraînée.
Troisièmement, un modèle de vérification d'objet Fast R-CNN est proposé à travers la
distribution proposée de la génération actuelle de RPN. Ensuite, Fast R-CNN est utilisé pour
lancer la formation RPN. Tout en conservant la couche de convolution partagée, seule la
couche RPN est ajustée. À ce stade, le RPN et la couche de convolution du réseau de
détection sont partagés. Enfin, la couche unique de Fast R-CNN peut être affinée et Fast R-
CNN peut être répétée en 4 à 5 étapes.
Le Faster R-CNN, en tant que version la plus améliorée, présente plusieurs avantages
identifiés. Pour commencer, Faster R-CNN optimise la génération de la zone proposée, afin
de réaliser véritablement une formation de bout en bout. Ensuite, il atteint le temps réel sur
GPU et une grande précision. Cependant, la proposition d'objets nécessite beaucoup de temps
et les performances du système dépendent des performances du système précédent [8]. Après
cette série d'améliorations, la série R-CNN a évolué pour compléter la structure de base. Tout
d’abord, la caractéristique de la région candidate est extraite par la méthode de convolution
partagée. Deuxièmement, afin de s'adapter aux différentes tailles de zones candidates, Fast R-
CNN a adopté la dimension de mutualisation du retour sur investissement avec
immobilisation. Enfin, cela permettra de réaliser des tâches de formation en plusieurs étapes
afin que le modèle soit plus simple et plus pratique [47].

Figure 2.3: Architecture Faster R-CNN [10]

4. Masque R-CNN
Il y a une nouvelle mise à jour dans Faster R-CNN en 2017, Mask R-CNN. Il applique un R-
CNN plus rapide à la segmentation des images en pixels. Le point clé est de classer et de
générer des masques au niveau des pixels. Mask R-CNN ajoute une troisième branche telle
que la classification, l'emplacement et le masque basé sur Faster R-CNN. La branche masque
génère un petit réseau de liaison complète pour chaque RoIAlign et génère un masque pixel à
pixel. De plus, comme la découpe de pixels nécessite une zone de délimitation plus précise,
elle a également modifié le pooling RoI [47]
Le masque R-CNN est une extension du R-CNN plus rapide. Faster R-CNN prédit les boîtes
englobantes et Mask R-CNN ajoute essentiellement une autre branche pour prédire un masque
d’objet en parallèle [47].

Figure 2.4: Architecture Mask R-CNN [11]

5. SSD
Le SSD présenté par Liu et al est capable de fournir des performances en temps réel avec une
grande précision [40]. SSD est un détecteur en une passe entièrement convolutif. Il permet
une détection à multi-échelles facilitant ainsi la détection d’objets de tailles différentes,
s’appuie sur l’architecture VGG-16 pour l’extraction de caractéristiques. Des couches
supplémentaires convolutives succèdent le backbone et font partie du neck du détecteur. Elles
ont pour rôle de réduire progressivement la taille des matrices d’activation. Enfin, la couche
de la tête du détecteur prend en entrée des cartes de caractéristiques du neck et de l’extracteur
[39].

Figure 2.5 : Architecture SSD

6. RetinaNet
RetinaNet est l'un des algorithmes représentatifs en une étape et sa structure est illustrée à la
Figure 2.6. Le backbone utilise les structures ResNet et Feature Pyramid Net (FPN). Sur la
base de la structure FPN, un chemin descendant et une connexion horizontale sont ajoutés.
Chaque niveau du FPN est connecté aux réseaux entièrement convolutifs, qui comprennent
deux sous-réseaux indépendants utilisés pour la classification et la régression. La principale
innovation de RetinaNet est l'ajout de Focal Loss au sous-réseau de classification. Étant donné
que le déséquilibre du nombre d'échantillons positifs et négatifs dans la détection cible de
l'algorithme en une étape affectera la perte d'entraînement, Focal Loss attribue différents
poids aux échantillons durs, ce qui résout efficacement le problème de déséquilibre de classe
dans le modèle de détection cible. [42]

Figure 2.6 : Architecture RetinaNet [41]

7. YOLO V3
Les deux premières versions de YOLO ont été publiées en 2016 et 2017 respectivement.
Cependant, en 2018 une version principale de YOLO a été publiée, nommées. Suite au
mécanisme d'ancrage introduit dans YOLO9000, YOLOv3 effectue des prédictions à partir de
cartes de caractéristiques à trois niveaux différents. Les cartes de caractéristiques sont divisées
en grilles et les cellules des grilles sont placées avec des ancres de différentes tailles et
rapports d'aspect, qui sont acquises en effectuant des Kmoyennes sur l'ensemble de données.
Les ancres sont étiquetées au premier plan si leur IoU avec une boîte de vérité terrain est
supérieure au seuil de 0,3. Les coordonnées centrales et les tailles des boîtes sont régressées
en fonction des positions et des tailles des ancres. Par rapport à l'utilisation d'une couche
entièrement connectée pour prédire directement les coordonnées des cadres de délimitation, le
mécanisme basé sur l'ancrage peut améliorer considérablement le rappel du modèle sur des
objets de petite taille. Au lieu d'une couche softmax, YOLOv3 effectue des classifications
avec des classificateurs binaires C, où C est le nombre de classes de l'ensemble de données.
Cette modification donne à YOLOv3 la capacité d'effectuer une classification multi-
étiquettes. Suite à l'idée du réseau résiduel, un réseau fédérateur plus profond Darknet-53 a été
adopté dans YOLOv3. De plus, YOLOv3 applique une stratégie de formation multi-échelle,
qui répond davantage à la difficulté du précédent YOLO à détecter de petits objets. YOLOv3
est compétitif en termes de précision et de vitesse, et il est robuste dans la détection de
différents types d'objets.[43]
Figure 2.7 : Architecture YOLOv3 [43]

8. YOLOv4
YOLOv4 se compose de : Colonne vertébrale (CSPDarknet53), Cou(SPP), POÊLE,
Tête( YOLOv3) . YOLO v4 utilise :
• Sac de cadeaux (BoF) pour le backbone : augmentation des données CutMix et Mosaic,
régularisation DropBlock, lissage des étiquettes de classe
• Bag of Specials (BoS) pour le backbone : activation Mish, connexions partielles entre
étages (CSP), connexions résiduelles pondérées multi-entrées (MiWRC)
• Sac de cadeaux (BoF) pour le détecteur : perte CIoU, CmBN, régularisation DropBlock,
augmentation des données mosaïque, formation auto-adversative, élimination de la sensibilité
de la grille, utilisation de plusieurs ancres pour une seule vérité terrain, planificateur de recuit
cosinus [52], hyperparamètres optimaux, formes d'entraînement aléatoires
• Bag of Specials (BoS) pour détecteur : activation Mish, bloc SPP, bloc SAM, bloc
d'agrégation de chemin PAN, DIoU-NMS

Figure 2.8 : Architecture globale YOLO v4


Etat de l’art
[1] Ce travail aborde L’apprentissage profond avec les modèles de réseaux de neurones pour
la détection des plaques d’immatriculations, dans le but d’améliorer les taux de précision de la
détection des plaques d’immatriculation, ils ont développé une application qui a été testée
pour la détection et reconnaissance des plaques d’immatriculation des véhicules.
En effet, ils ont utilisé la fusion de type late fusion, en fusionnant les résultats des modèles de
détection des plaques semblait être une bonne idée.
Pour mener les expériences, ils ont choisi un dataset composé de photos prises sur des
véhicules. Ce dataset contient 500 images de véhicules tirées d’une vidéo prise dans un
carrefour routier, dont un total de 300 images annotées, ils ont utilisé 250 images pour
l’entrainement et 50 images pour la validation (avec un ration de 80%).
Ainsi, la fusion des deux modèles (YOLOv3 et RetinaNet) a donné suite à une augmentation
significative de la précision de la détection.
Comme perspective pour ce travail, ils ont proposé l’utilisation d’un troisième modèle en plus
de RetinaNet et de YOLOv3, et ce afin de faire face à d’éventuelles lacunes, sinon, apporter
plus légitimité et de pertinence à leur contribution.
[2] Dans de ce travail, l’auteur propose une méthode utilisant des techniques d'apprentissage
en profondeur pour résoudre la tâche de détection automatique de plaques d'immatriculation.
Ils ont créé leur propre base de données et labellisé les images manuellement et par
programmation.
Les algorithmes d’apprentissage utilisés sont : profond Faster R-CNN et SSD MobileNet qui
ont été comparés sous CPU et GPU. Le premier s’est avéré plus précis mais plus lent et
l’utilisation de GPU est beaucoup plus rapide pour les deux.
Les resultats montrent que la perte du modèle Faster R-CNN Inception v2 est trop faible, ils
ont interrompu l’entraînement après une perte de 0,05 et cela s'est produit après 60000 pas.
Par contre avec le modèle SSD-MobileNet v1 ils ont obtenu après 60000 pas une perte de 1,6
à peu près et ceci est un peu trop.
Ils ont conclu qu’ils ont obtenu une haute précision par le modèle Faster-R-CNN-Inception-
v2, et grand temps d’exécution (58 ms par image), dont on ne peut pas utiliser ce modèle en
temps réel dans les systèmes embarqués. Le modèle SSD-MobileNet-v1 donne une faible
précision et petit temps d’exécution (30 ms par image), donc on peut l’utilise dans les
systèmes embarqués. On peut le faire par exemple avec Raspberry Pi.
Et comme perspectives, pour l’identification des plaques, leur travail (la détection) peut être
considéré comme un préapprentissage pour un algorithme pour la reconnaissance des
caractères.
[3] Cet article aborde la reconnaissance et la lecture automatique de plaques
d’immatriculation à partir de captures d’images prises du devant ou de l’arrière des véhicules.
Pour atteindre leur objectif, ils ont développé une application Python qui consiste tout d’abord
à Une détection de véhicule, Une segmentation de la plaque d'immatriculation, Une
identification automatique du numéro de la plaque.
Ainsi, ils ont utilisé une méthode qui s’appelle YOLO v3 pour détecter les plaques
d'immatriculation des véhicules marocaines. La méthode présente les avantages d'une haute
précision et de performances en temps réel, selon l'architecture YOLO v.3.
Pour mener les expériences, ils ont rassemblé leur propre ensemble de données (quelques
photos de voitures) pour former le classificateur de modèle basé sur CNN.
[4] Pour ce travail, les auteurs ont proposé de réaliser un système de détection de plaque
d’immatriculation automatique en utilisant les techniques d’apprentissage en profondeur et le
traitement d’images et implémenté ce système dans un Raspberry Pi à base de CPU.
Ainsi, ils ont utilisé deux types d’algorithmes pour la détection de plaque, un premier
algorithme pour le traitement d’image qui est basé sur la méthode de segmentation et le
traitement de chaque caractère individuellement et un deuxième algorithme d’apprentissage
approfondie qui est le MobileNetsSSD et visualisé les deux résultats avec une étude
comparative.
Ainsi, pour entrainer le modèle du deep Learning, ils ont pris une base de données déjà
étiquetée et additionnée à leurs propres donnés.
Le resultat de comparaison est :
Algo1 (traitement d’image) : Performance (80%), Précision (50%), Taux d’erreur (60%)
L’algo2 (deep learning): Performance (20%), Precision (80%), Taux d’erreur (30%)
Les résultats d’étude comparative entre les deux algorithmes montrent que l’apprentissage
approfondi était plus précis alors que le traitement d’image était plus rapide et plus
performant.
Limites : Le choix de l’algorithme était l’algorithme Yolo le meilleur pour la détection
d’objet. Le problème était sa mise en place et la performance sur la carte Raspberry, donc le
choix enfin était MobilNetsSDD.
[5] Ce travail se focalise sur le système de détection et gestion des automobiles au sein d’un
parking par la reconnaissance des matricules avec des techniques avancées.
Afin d’atteindre le meilleur résultat pour la capture du matricule, Le travail a été divisé en
deux phases dont la première consiste à développer un programme spécial permettant
l'identification et la reconnaissance de la plaque d’immatriculation en utilisant le traitement
d’images. Alors que, la deuxième étape représente un autre modèle entrainé par
l’apprentissage approfondi qui est la méthode Faster R-CNN.
Pour leurs dataset ils ont Rassemblé et étiqueté des données avec des arrière-plans différents,
des objets aléatoires et des conditions d'éclairage variables, et les voitures avec plusieurs
positions.
Ainsi, ils ont conclu l’importance de l’apprentissage en profondeur, étant donné qu’il est
rapide et efficace, fonctionnant en temps réel pour découvrir la plaque de numérotation. Par
rapport au premier model.
Et leur système présente quelques limites lies à la précision de détection du numéro matricule
dont il propose en perspective d'utiliser le modèle YOLO au lieu Faster SSD et aussi l'ajout du
système embarqué.
[6] Dans cette recherche, ils ont proposé la méthode qui se base sur les réseaux de neurones,
son schéma général se définit par les opérations suivantes qui se succèdent depuis la saisie des
données à traiter, suivie d’un prétraitement, le seuillage et la détection des contours. Après
cela ils enchainent avec l’opération d’extraction des caractéristiques, dans leur cas ils ont
utilisé le détecteur de Harris et finalisé par une opération de segmentation afin d’obtenir des
données claires, distinctes, représentatives et prêtes pour classification. Cette dernière
représente le noyau de la méthode qu’ils ont proposé, elle se base sur un modèle des réseaux
de neurones dite : perceptron multicouche « MLP » connu par sa capacité de classification et
la possibilité de l’exécuter sous forme parallèle.
Afin de tester l’approche qu’ils développé et vu que le matricule algérien possède une
organisation des caractères et une interprétation spécifique, ils avaient créé leur propre base
de données afin qu’elle soit prête pour l’évaluation de ce projet.
Ainsi, le réseau neuronal a ensuite été testé contre 200 images de chaque chiffre et le résultat
a été Taux de réussite de 95% pour la reconnaissance des chiffres. Le taux d'erreur est
différent pour chaque ensemble d'entraînement d'images.
Ils suggèrent que d’autres outils neuronaux puissent être exploités dans ce type de
reconnaissances tel que le « deep learning » toutes en diversifiant le type d’images en
introduisant les images nocturnes avec des bruits importants.
[7] Cet article aborde, le développement d’un modèle de détection et de reconnaissance
automatique des plaques d'immatriculation (ALPDR) qui reconnaît automatiquement le
numéro de plaque d'immatriculation des véhicules. Pour automatiser ce processus, ils ont
proposé un processus en trois étapes qui détectera la plaque d'immatriculation, segmentera les
caractères et reconnaîtra les caractères qui y sont présents.
La détection s'effectue en convertissant l'image d'entrée en une image à deux niveaux. À
l'aide des accessoires de région, les caractères sont segmentés à partir de la plaque
d'immatriculation détectée. Un modèle CNN à deux couches est développé pour reconnaître
les caractères segmentés.
Pour former et tester le modèle, ils ont utilisé 3 types différents d'ensembles de données
extraits de l'ensemble de données Chars74k qui est couramment utilisé pour la reconnaissance
des caractères des plaques d'immatriculation.
Ainsi, Tous les caractères segmentés de la plaque d'immatriculation dans différentes ont été
testés pour vérifier dans quelle mesure CNN peut reconnaître ces caractères et cela a donné
une précision de 98,8% et dans la détection de la plaque d'immatriculation, le modèle a atteint
une précision de 91,1% mais le modèle est incapable de reconnaître les caractères lorsqu'ils
sont fortement floutés.
À l'avenir, ils aimeront étendre leur travail pour les véhicules en mouvement en capturant les
images vidéo. De plus, nous aimerions approfondir le modèle d'apprentissage en profondeur
avec une régularisation appropriée pour améliorer la précision de la détection et de la
reconnaissance.
[8] Dans cet article, ils ont proposé un nouveau système RAPI en temps réel robuste basé sur
les réseaux de neurones convolutifs (CNN) de détection d'objets YOLO. Pour la segmentation
et la reconnaissance des caractères, ils ont conçu une approche en deux étapes utilisant des
astuces simples d'augmentation des données telles que les plaques d'immatriculation inversées
(LP) et les caractères inversés.
L'approche ALPR qui en a résulté a obtenu des résultats impressionnants dans deux
ensembles de données. Tout d'abord, dans le jeu de données SSIG, composé de 2000 images à
partir de 101 vidéos de véhicules, le système a atteint un taux de reconnaissance de 93,53 % et
47 images par seconde (FPS)
Deuxièmement, en ciblant un scénario plus réaliste, ils ont introduit un ensemble de données
publiques plus large1, appelé jeu de données UFPR-ALPR, conçu pour ALPR. Cet ensemble
de données contient 150 vidéos et 4 500 images capturées lorsque la caméra et les véhicules
se déplacent et contient également différents types de véhicules (voitures, motos, bus et
camions). Dans leur ensemble de données proposé, les versions d'essai des systèmes
commerciaux ont atteint des taux de reconnaissance inférieurs à 70 %. En revanche, le
système a mieux performé, avec un taux de reconnaissance de 78,33% et 35 FPS.
Comme travaux futurs, ils ont proposé d'explorer de nouvelles architectures CNN pour
optimiser davantage (en termes de vitesse) les étapes de détection des véhicules et également
de corriger l'alignement des LP inclinés et des caractères afin d'améliorer la segmentation et la
reconnaissance des caractères.
[9] Dans ce travail, l’auteur aborde la classification automatisée et création d'ensembles de
données basé sur les topologies de réseau neuronal YOLO, leur approche consiste à utiliser
l'algorithme YOLOv3 pour la détection et l'OCR pour la reconnaissance.
Pour la détection des plaques d'immatriculation, ils ont d'abord préparé leur propre jeu de
données (un certain nombre d'images de voitures tunisiennes) puis les annoter pour extraire
les numéros de plaque d'immatriculation. Dont ils ont utilisé des images capturées à l'aide de
téléphone portable et extrait d'autres à partir de sites Web de vente de voitures. De plus, la
base de données proposée est suffisamment diversifiée.
Le résultat de la détection avec yolov3 avec une précision de 97%, et après avoir testé 100
images ils ont 80% comme une bonne reconnaissance pour l'ensemble du LP, et 8% la
reconnaissance du mot en arabe n'est pas efficace que nous avons comme résultat (‫ ) نونس‬et
enfin 12% nous avons le résultat (‫) توش‬ou (‫)توس‬.
Limites : Le mot Tunisie en arabe est écrit dans un format compliqué qui fait que le code de la
reconnaissance a quelques difficultés.
[10] Dans cet article, les auteurs ont abordé le système de reconnaissance de plaque
d'immatriculation Bangla en temps réel pour une faible ressource Applications basées sur la
vidéo. Ils ont utilisé un classificateur haar-cascade comme filtre au-dessus de leur modèle de
détection de base MobileNet SSDv2. Cela réduit le temps d'inférence, il n'y a pas d'ensembles
de données de plaques d'immatriculation en bengali accessibles au public, pour lesquels ils
ont créé un ensemble de données d'images et un ensemble de données vidéo contenant des
plaques d'immatriculation à l'état sauvage.
Ensuite, ils ont entraîné les modèles sur l'ensemble de données d'images et obtenu une PA 0, 5
score de 86 % et testé leur pipeline sur l'ensemble de données vidéo et observé des
performances de détection et de reconnaissance raisonnables (82,7 % de taux de détection et
60,8 % de score OCR F1) avec une vitesse de traitement en temps réel (27,2 images par
seconde).
En tant que travail futur, ils souhaitent déployer leur système dans diverses situations réelles.
[11] Dans cet article, les auteurs ont introduit une nouvelle approche en deux étapes pour
détecter et reconnaître les plaques d'immatriculation brésiliennes basée sur deux réseaux. Un
réseau de détection conçu spécifiquement pour gérer la détection des plaques
d'immatriculation et un CNN multitâche pour effectuer simultanément la segmentation et la
reconnaissance des images des plaques d'immatriculation.
Ils ont créé une nouvelle fonction de perte utilisée pour améliorer la convergence de leur
réseau de détection. Ils ont également conçu deux techniques d'augmentation des données
pour augmenter le nombre d'échantillons disponibles pour former leurs réseaux. Ensuite, cet
article introduit également un nouvel ensemble de données ALPR contenant 6 660 images.
Les résultats ont démontré que leur approche était capable de détecter 79,3 %plaques
d'immatriculation à l'aide de leur nouvel ensemble de données proposé. De plus, le réseau de
reconnaissance a pu reconnaître 85,6 %de toutes les plaques d'immatriculation.
Comme travaux futurs, ils ont suggéré d’augmenter la robustesse de l'approche en créant une
manière de former les deux réseaux conjointement, et aussi d'évaluer leur réseau avec d'autres
normes de plaques d'immatriculation puisque la plupart des pays du monde ont leurs propres
dispositions de plaques d'immatriculation.
[12] cet article aborde la reconnaissance automatique des plaques d’immatriculation
YOLOV4 ET TESSERACT OCR.
Ainsi, Ils ont développé un modèle basé sur plusieurs types de plaques d'immatriculation de
différents pays. L'ensemble de données d'images a été formé à l'aide de Yolov4 qui utilise des
architectures CNN. La reconnaissance des caractères a été effectuée à l'aide de l'OCR
Tesseract après plusieurs techniques de prétraitement d'images et de transformations
morphologique
Le programme qui a été développé ici en utilisant YoloV4 pour former des images a eu un
taux de validation de 98 % avec un taux d'erreur inférieur à 1. Ce modèle de détection de
plaque d'immatriculation permet la détection et la reconnaissance de caractères dans différents
types d'environnements et sur plusieurs types de plaques d'immatriculation. Ils ont testé le
programme avec 30 autres échantillons d'images et obtenu 92% de précision dans la détection
des plaques d'immatriculation et 81% de précision dans la détection des caractères.
Ainsi, ils ont suggéré pour les travaux futurs à améliorer le programme de reconnaissance de
caractères en entraînant des caractères individuels afin que le Tesseract-OCR fonctionne plus
efficacement.
[13] Dans cet article, les auteurs ont proposé une nouvelle méthode de reconnaissance des
plaques d'immatriculation pour les caméras de surveillance routière générale. Ainsi, Ils ont
utilisé SSD, qui est une technique populaire de détection d'objets basée sur l'apprentissage en
profondeur, à des fins de détection d'objets.
Au stade de la formation à la détection des plaques d'immatriculation, ils ont utilisé 3000
images réelles annotées (1500 NIR + 1500 RVB) pour apprendre les paramètres du modèle de
classification et 750 images ont été utilisées pour la validation. À des fins de test, 2000
images réelles ont été utilisées.
Pour la formation du modèle de détection de caractères, ils ont utilisé 72 000 images de
plaques synthétiques annotées (36 000 NIR + 36 000 RVB) pour apprendre les paramètres du
modèle de classification et 18 000 images ont été utilisées pour la validation. À des fins de
test, les mêmes 2000 images réelles, qui sont utilisées pour tester le modèle de détection de
plaque, ont été utilisées
Le modèle SSD proposé atteint généralement une précision globale d'environ 73,3 % sur un
ensemble de test composé de 2 000 images réelles.
À l'avenir, ils ont proposé l'utilisation de la combinaison de différentes techniques de
classification d'objets basées sur l'apprentissage en profondeur et de techniques de
classification bien connues.
[14] Dans cet article, les auteurs ont mis en œuvre un système de reconnaissance de plaque
d'immatriculation efficace qui détecte d'abord les véhicules, puis récupère les plaques
d'immatriculation des véhicules pour réduire les faux positifs lors de la détection des plaques.
Ainsi, la méthode proposée, le caractère est reconnu à l'aide de réseaux de neurones
convolutifs (CNN).
Les résultats expérimentaux montrent que le modèle proposé était suffisamment capable de
détecter avec succès la plaque d'immatriculation du véhicule à partir d'images contenant une
scène naturelle et différentes conditions d'éclairage.
[15] Dans cet article, les auteurs ont présenté un système RAPI efficace qui utilise un CNN
pour la reconnaissance de caractères. Une combinaison d'opérations de prétraitement et
morphologiques a été appliquée pour améliorer la qualité de l'image d'entrée, ce qui contribue
à l'efficacité du système. Le système possède diverses fonctionnalités, telles que la capacité de
reconnaître les plaques d'immatriculation multilignes, asymétriques et multipolices. Il
fonctionne également efficacement en mode nuit et peut être utilisé pour différents types de
véhicules.
Une précision globale de 98,13 % a été obtenue en utilisant la technique CNN proposée.
Les résultats ont démontré l'efficacité du système RAPI puisqu'il a atteint un taux de
reconnaissance élevé de 98,13 % lorsqu'il a été testé sur 160 images. Bien que le système
proposé soit très efficace et ait un taux de reconnaissance élevé, il existe également certaines
limitations, telles que la reconnaissance de plusieurs plaques d'immatriculation dans une seule
image. La CNN ne peut pas faire la distinction entre la zone de la plaque et les grilles du
véhicule automobile.
[16] Cet article aborde, la surveillance du trafic à l'aide de la plaque d'immatriculation du
véhicule, Détection et reconnaissance au Bangladesh.
Ainsi, ils ont utilisé la version 4 de Tesseract comme moteur OCR pour former un
classificateur de véhicule et une détection YOLOv4 VLP de caractères Bangla. Ils ont
entrainé le modèle avec la base Tkinter, dont une précision moyenne de 90,50 %, ils ont
présenté également une interface utilisateur graphique (GUI) reconnaissant les caractères à
l'aide de tesseract à partir de la licence détectant la plaque d'immatriculation des véhicules du
Bangladesh.
En tant que travaux futurs, ils ont proposé la réduction d’orientation des effets, le flou de
mouvement, les conditions d'éclairage, etc.
[17] Cet article vise à comparer différentes versions du modèle YOLOv5 à l'aide d'un
ensemble de données d'images de tous les jours et à fournir aux chercheurs des suggestions
précises pour sélectionner le modèle optimal pour un type de problème donné. Ils ont expliqué
le modèle YOLOv5, les caractéristiques de l'architecture et les principales différences entre
YOLOv5 et ses prédécesseurs, notamment v3 et v4. Les principales différences entre YOLO
v5 et les dernières versions v6/v7 ont été expliqué.
L'expérience de classification des personnes qui portent un masque ou non a été réalisée
indépendamment sur cinq architectures YOLOv5 (n, s, m, l, x) d'abord sur la formation, puis
sur les sous-ensembles d'images de test. L'architecture la plus complexe YOLOv5x a obtenu
les meilleurs résultats dans le sous-ensemble de formation, tandis que les modèles (m et l) ont
obtenu des résultats légèrement inférieurs. YOLOv5n a obtenu les pires performances en
raison de la corrélation entre le nombre de paramètres et la capacité à apprendre le réseau.
Ainsi, ils ont conclu que les modèles les plus complexes sont certainement plus précis, à la
fois dans les exemples vus et non vus, mais encore, ils ne peuvent pas dire qu'ils sont donc
meilleurs, surtout si l'on prend en compte les applications quotidiennes. Et aussi ils ont
indiqué que lors du choix d'une architecture de réseau optimale, il est nécessaire de faire un
compromis entre la qualité et la vitesse. Pour que les modèles plus complexes soient
compétitifs en termes de vitesse, ils ont besoin d'un matériel plus puissant, qui n'est pas
toujours disponible.
[19] : Dans cet article, les auteurs abordent la détection et le comptage des épis de blé qui
sont essentiels pour la gestion des champs de culture. Les résultats de recherches antérieures
ont montré que la plupart des méthodes de détection des épis de blé sont de deux types : la
couleur et la texture extraites par des méthodes d'apprentissage automatique ou des réseaux de
neurones convolutifs. Par conséquent, ils ont proposé un algorithme YOLO v5 amélioré basé
sur une couche d'entités peu profonde. Il y a deux idées principales : (1) augmenter le champ
perceptif en ajoutant un quadruple sous-échantillonnage dans la pyramide des caractéristiques
pour améliorer la détection de petites cibles, et (2) introduire le mécanisme d'attention CBAM
dans le réseau neuronal pour résoudre le problème de la disparition du gradient pendant
l'entraînement. Enfin, pour que le modèle ait une meilleure capacité de généralisation, ils ont
proposé la méthode d'amélioration des données Mosaic-8, avec une fonction de perte ajustée
et une formule de régression modifiée pour le cadre cible. Les résultats expérimentaux
montrent que l'algorithme amélioré a un mAP de 94,3 %, une précision de 88,5 % et un rappel
de 98,1 %.
Ainsi, l’utilisation de YOLO v5 amélioré pour détecter les comptages de blé, la vitesse de
reconnaissance est rapide et le taux de reconnaissance est élevé. À l'avenir, ils suggèrent
d'augmenter le nombre d'images collectées à différentes hauteurs pour couvrir l'ensemble du
processus de comptage du blé et d'augmenter le nombre d'échantillons d'apprentissage pour
améliorer le taux de reconnaissance.
[20] Cet article aborde YOLO v5 amélioré avec pyramide de fonctionnalités équilibrée et
module d'attention pour la détection des panneaux de signalisation, les auteurs ont proposé
une méthode YOLO v5 améliorée en utilisant la structure pyramidale des caractéristiques des
soldes et le bloc de contexte global pour améliorer la capacité de fusion et d'extraction des
caractéristiques. Pour vérifier leur méthode proposée, ils ont mené de nombreuses expériences
comparatives sur le jeu de données difficile TsinghuaTencent-100K (TT100K). Les résultats
expérimentaux démontrent que la précision de leur modèle augmente de 2,4 % et le rappel
augmente de 3,3 %.
Ils concluent que leur méthode est efficace sur le jeu de données, et a fait des progrès par
rapport à la méthode originale. À l'avenir, ils suggèrent de modifier leur modèle, afin de
mieux l'adapter à la conduite automatique.
[21] Cet article propose une méthode de détection YOLOv3 améliorée pour les pommes
immatures dans le verger. Ils ont utilisé CSPDarknet53 comme réseau fédérateur du modèle,
le mécanisme de régression de trame cible CIOU et combiner avec l'algorithme Mosaic pour
améliorer la précision de la détection. Pour l'ensemble de données avec des fruits sévèrement
occlus, le F1 et le mAP du modèle de reconnaissance des pommes immatures proposé dans
cet article sont respectivement de 0,652 et 0,675. La vitesse d'inférence pour une seule image
416×416 est de 12 ms, la vitesse de détection peut atteindre 83 images/s sur 1080ti, et la
vitesse d'inférence est de 8,6 ms. Par conséquent, pour l'ensemble de données de pommes
immatures gravement occluses, la méthode proposée dans cet article a un effet de détection
significatif et fournit une solution réalisable pour l'automatisation et la mécanisation de
l'industrie de la pomme.
Les recherches ultérieures devraient se concentrer sur la manière d'améliorer les performances
de détection du modèle sous l'influence de l'éclairage, de l'occlusion, du chevauchement, etc.,
et fournir un bon support technique pour le positionnement du robot de prélèvement.
[22] Cet article présente la détection en temps réel de plaque d'immatriculation pour un
motard non casqué à l'aide du détecteur d'objets en temps réel YOLO v2 (You Only Look
Once). Dans cette approche proposée, un seul réseau neuronal convolutif a été déployé pour
détecter automatiquement le plaque d'immatriculation d'un motocycliste non casqué à partir
du flux vidéo. La méthode de suivi centroïde avec une ligne de référence horizontale a été
utilisée pour éliminer le faux positif généré par le motard casqué à la sortie des images vidéo.
Le taux de détection global de plaque d'immatriculation était de 98,52 %.

Synthèse
Durant nos recherches, nous avons trouvé plusieurs travaux faisant sujet de plusieurs
méthodes destinées à la détection des plaques d’immatriculation, qui est basée sur
l’apprentissage profond avec les modèles de réseaux de neurones dont, chacune, présentent
ses avantages et ses compromis.
En vue de ce qui a été présenté ci-dessus, les travaux se sont basés sur la détection et la
localisation des plaques d’immatriculation avec précision et en temps réel.
Afin d’atteindre le meilleur résultat, les travaux traitent les problèmes de la détection et la
reconnaissance de caractères dans différents types d'environnements, La non uniformité des
modèles de plaques d’immatriculation, La faible résolution des plaques d’immatriculation, de
corriger l'alignement des plaques d’immatriculations inclinés, les différentes conditions
d'éclairage, les conditions environnementales : luminosité, brouillard...etc.
Auteurs Année Méthodes Précision
[1] 2021 Fusion (YOLOv3 et RetinaNet) 80%
[2] 2019 Profond Faster R-CNN et SSD MobileNet
[3] 2020 YOLOv3 96%
[4] 2021 MobileNetsSSD et traitement d’image MobileNetsSDD : 80%
Traitement d’images :
60 %
[5] 2020 Traitement d’images et Faster R-CNN
[6] 2020 MLP 95%

[7] 2021 Modèle CNN à deux couches La détection : 91,1%


Reconnaissance :
98,8%
[8] 2018 YOLO Détection 93,53 %
Reconnaissance :
78,33%
[9] 2020 YOLOv3 97%
[10] 2021 MobileNet SSDv2. 82,7 %

[11] CNN multitâche Détecter : 79,3%


Reconnaissance :85,6%
[12] 2021 YOLOv4 Précision : 92%
Reconnaissance :81%
[13] 2019 SSD Précision : 73,3 %
[14] 2020 CNN
[15] 2021 CNN 98,13 %
[16] 2020 YOLOv4 90,50 %
[17] 2022 YOLOv5
[19] 2022 YOLOv5 98,1 %
[21] 2021 YOLOv3 61%
[22] 2021 YOLO v2 98,52 %.

Tableau : résumé Etat de l’art

Conclusion
Dans ce chapitre, nous avons présenté les méthodes classiques de détection d'objets, ensuite
les méthodes de détection basée sur CNN et leur fonctionnement, et ses différentes
architectures. On a présenté aussi un état de l’art sur les travaux connexes.
Le chapitre suivant explique la méthodologie utilisée pour la détection de la plaque
d’immatriculation qui grille le feu de signalisation.

Je propose qu’il faut renvoyer la première partie au Chap I et consacrer entièrement celui-ci à l’état
de l’art.

Dans l’état de l’art, il faut juste présenter leur contribution, si possible brièvement les résultats et les
limites du travail si nécessaire.

References
[1] Kaouba Fatima Zohra: L’apprentissage profond avec les modèles de réseaux de neurones
pour la détection des plaques d’immatriculations, 2020-2021.
[2] MALKI Yacine & TIACHACHAT Nassim : Deep Learning pour la détection des plaques
d’immatriculation, 2018-2019.
[3] Ibtissam Chafia Mohammed : Reconnaissance Automatique des Numéros de Plaques
d'Immatriculation Marocaines, 2020.
[4] Boulahchiche Nadir & Ferikoui Mecheri : Système intelligent de reconnaissance de
plaque d’immatriculation via Raspberry Pi, 2021.
[5] TABI Mohammed Riad Mme & SEGHIRIA Youcef Salim: Détection et gestion des
automobiles au sein d’un parking par la reconnaissance des matricules avec des techniques
avancées, 2019/2020.
[6] Guendouz Ahmed Dhiya Eddine : Conception et réalisation d’un système de
reconnaissance automatique des plaques d’immatriculation algérien, 2019-2020
[7] [Link] Onesimu1, Robin D. Sébastien1, Yuichi Sei2,3,* et Lenny Christopher4 : Une
détection intelligente des plaques d'immatriculation et Modèle de reconnaissance utilisant
Deep Neural Réseaux, 2021.
[8] Rayson Laroca∗, Evair Severo∗, Luiz A. Zanlorensi∗, Luiz S. Oliveira∗, Gabriel
Resende Gonçalves†, William Robson Schwartz†et David Menotti, Une plaque
d'immatriculation automatique robuste en temps réel Reconnaissance basée sur le détecteur
YOLO.Département d'informatique, Université fédérale du Paraná (UFPR), Curitiba, PR,
Brésil. 2018
[9] Améni Neffat : Classification automatisée et création d'ensembles de données basé sur les
topologies de réseau neuronal YOLO, 2019/2020
[10] Alif Ashrafee1*, Akib Mohamed Khan1*, Mohammed Sabik Irbaz2, MD Abdullah Al
Nasim2 : Système de reconnaissance de plaque d'immatriculation Bangla en temps réel pour
une faible ressource Applications basées sur la vidéo.Département d'informatique et
d'ingénierie, Université islamique de technologie1, 2021
[11] Gabriel R. Gonçalves∗, Matheus A. Diniz∗, Rayson Laroca†, David Menotti†, William
Robson Schwartz : Reconnaissance automatique des plaques d'immatriculation en temps réel
Grâce à des réseaux multitâches profonds,Laboratoire Smart Sense, Département
d'informatique, Universidade Federal de Minas Gerais, Brésil
[12] Adarsh Sai Daivansh Sham, Paritosh Pandey, Sambhav Jain et Dr S. Kalaivani :
RECONNAISSANCE AUTOMATIQUE DES PLAQUES D'IMMATRICULATION
UTILISATION DE YOLOV4 ET TESSERACT OCR, Département d'ingénierie des
communications, École d'ingénierie électronique, Institut VelloredeTechnologie, Université
VIT, Vellore, Tamil Nadu, Inde, 2021.
[13] Alperen Elihos ,Burak Balçi ,Bensu Alkan ,Yusuf Artan: Reconnaissance de plaque
d'immatriculation gratuite basée sur la segmentation basée sur l'apprentissage profond à l'aide
de la surveillance de la chaussée Images de la caméra, 2019.
[14] [Link], Dr D. Gowri Shankar Reddy2: Numéro de véhicule basé sur l'opération
morphologique Détection de plaque. Département d'électronique et de communication
Ingénierie, Université SV, Tirupathi, 2020.
[15] Parneet Kaur1, Yogesh Kumar1, Shakeel Ahmed2,*, Abdulaziz Alhumam2, Ruchi
Singla3et Muhammad Fazal Ijaz4 : Système de reconnaissance automatique des plaques
d'immatriculation pour les véhicules utilisant un CNN, 2021.
[16] Mahmudul Haque3, Muhaiminul Islam Akash1,Maryland Saïf Hassan Onim2:
Surveillance du trafic à l'aide de la plaque d'immatriculation du véhicule Détection et
reconnaissance au Bangladesh, Institut militaire des sciences et technologies (MIST), Dhaka -
1216, Bangladesh ;2020.
[17] Marko.Horvat3, [Link], [Link] : Une étude comparative des
performances des modèles YOLOv5 pour localisation et classification d'images, Université de
Zagreb Gordon Gledec Unska 3, HR-10000 Zagreb, Croatie ; 2022
[18] Peiyuan Jiang, Daji Ergu*, Fangyao Liu, Ying Cai, Bo Ma : Un examen des
développements de l'algorithme Yolo, Laboratoire clé d'ingénierie électronique et de
l'information (Université du sud-ouest de Minzu) ;2021
[19] Rui Li * et Yanpeng Wu : Algorithme de détection d'épi de blé YOLO v5 amélioré basé
sur le mécanisme d'attention, École d'informatique et de communication, Université de
technologie de Lanzhou, Lanzhou 730050, Chine ; 2022
[20] LinfengJiang*, HuiLiu, HongZhu, etGuangjianZhang : YOLO v5 amélioré avec
pyramide de fonctionnalités équilibrée et module d'attention pour la détection des panneaux
de signalisation, École d'intelligence artificielle, Liangjiang, Université de technologie de
Chongqing, Chongqing, Chine ;2022
[21] Zhongqiang Huang1, Ping Zhang2,*, Ruigang Liu1et Dongxu Li2 : Une méthode de
détection des pommes immatures basée sur YOLOv3 amélioré ; 1École d'informatique,
Université agricole de Huazhong, Wuhan 430070, Chine 2École d'informatique, Université
des arts et des sciences de BaoJi, Baoji 721016, Chine ; 2021
[22] Yonten Jamtshoun,∗, Panomkhawn Riyamongkolb, Rattapoom Waranusastb : Détection de
plaque d'immatriculation en temps réel pour les motards non casqués à l'aide de YOLO ;
unGyalpozhing College of Information Technology, Gyalpozhing 43002, Bhoutan bUniversité
Naresuan, Phitsanulok 65000, Thaïlande ;2021

Plaques d’immatriculation indiennes | Kaggle

[Link]

[Link]

[Link]

[Link]
%20development%20with%20Labellerr/Mask%[Link][11]

Vous aimerez peut-être aussi