0% ont trouvé ce document utile (0 vote)
269 vues19 pages

Introduction aux réseaux de neurones CNN

Le document présente une étude sur les réseaux de neurones convolutifs (CNN) dans le cadre du data mining, en expliquant leur définition, architecture et fonctionnement. Il souligne l'importance du data mining pour extraire des informations pertinentes à partir de grandes quantités de données, notamment des images. Les CNNs, en tant que méthode efficace de classification d'images, utilisent des techniques d'apprentissage supervisé pour réaliser des tâches de reconnaissance visuelle.

Transféré par

yamimine281
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
269 vues19 pages

Introduction aux réseaux de neurones CNN

Le document présente une étude sur les réseaux de neurones convolutifs (CNN) dans le cadre du data mining, en expliquant leur définition, architecture et fonctionnement. Il souligne l'importance du data mining pour extraire des informations pertinentes à partir de grandes quantités de données, notamment des images. Les CNNs, en tant que méthode efficace de classification d'images, utilisent des techniques d'apprentissage supervisé pour réaliser des tâches de reconnaissance visuelle.

Transféré par

yamimine281
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique


Université A. MIRA - BEJAIA

Faculté Des Sciences Exactes


Département de Recherche Opérationnelle

EXPOSÉ
Intitulé

Les réseaux de neurones convolutifs (CNN)

Réalisé par : Proposé par :


Mr BENDRIS hamza Dr. TOUCHE N.

Université de Bejaia

2024/2025
Sommaire

Introduction générale.

I. Généralité
1. Data Mining.
1.1 Importance.
1.2 Tâches réalisées en Data Mining.
1.3 Les méthodes de Data Mining (fouille de données).

II. Réseaux de neurones convolutifs CNN


Introduction
1. Définition des réseaux de neurones convolutionnels.
2. Architecture de réseaux de neurones convolutionnels.
3. Les avantages d’un réseau de neurones convolutifs.
4. Les inconvénients des CNNs.
Conclusion

Conclusion générale.
Bibliographie.
INTRODUCTION GENERALE

Le data mining couvre l’ensemble des outils et méthodes qui permettent l’extraction
d’informations pertinentes, autrement dit utiles à la décision, à partir d’un grand volume de
données.

Ce vaste domaine ne se limite pas qu’au traitement des données structurées sous forme de tables
numériques, il offre également des moyens pour aborder, notamment, les images, car avec la
numérisation croissante, l’émergence des réseaux sociaux et des objets connectés, les bases de
données sont inondées d’images en tout genre.

Et les images tout comme tout autre document véhiculent des informations, et si ces
informations sont exploitées elles peuvent servir à une tâche quelconque. C’est donc tout le
travail de la fouille de données : extraire des connaissances à partir de données.

Notre cerveau fait que la vision semble facile, Il ne prend aucun effort pour distinguer un lion
d’un jaguar, lire un signe ou reconnaitre le visage d'un humain. Mais ce sont ici des problèmes
difficiles à résoudre pour un ordinateur.

Pour pouvoir, faire apprendre à l’ordinateur à distinguer entre une image et une autre, il existe
différentes techniques, mais la plus utilisée et la plus efficace d’entre elles est l’approche
neuronale, qui font partie de la catégorie des méthodes de classification.

Au cours des dernières années, d'énormes progrès ont été fait pour résoudre les problèmes
classification d’images. En particulier, en utilisant les réseaux neurones convolutifs (CNN) car
cela peut réaliser des performances raisonnables sur des tâches de reconnaissance visuelle
difficiles.

1
CHAPITRE I : GENERALITE

1. Data Mining :

Le Data Mining (ou exploration de données) est un processus qui consiste à analyser de grandes
quantités de données pour en extraire des informations significatives, des modèles, des
tendances ou des relations cachées. Il combine des techniques issues des statistiques, de
l'intelligence artificielle, de l'apprentissage automatique et des bases de données pour
transformer des données brutes en connaissances exploitables. L’objectif principale de Dat
Mining c’est de créer un processus automatique qui a comme point de départ les données y
comme finalité l’aide à la prise des décisions.

1.1 Importance :
Le data mining est important car il permet d’extraire des informations et des connaissances
précieuses à partir de grandes quantités de données. Ces informations peuvent aider les
entreprises à prendre des décisions éclairées et à améliorer leur performance.

Le data mining peut aider à détecter des tendances et des schémas cachés, à prédire les résultats
futurs, à identifier les risques et à améliorer la qualité des produits et services. Dans des
domaines tels que la santé, le data mining peut être utilisé pour diagnostiquer des maladies et
élaborer des plans de traitement personnalisés.

Dans la lutte contre la fraude, le data mining peut être utilisé pour détecter des activités
suspectes et identifier les fraudeurs potentiels. En fin de compte, le data mining peut aider les
entreprises à prendre des décisions plus efficaces et plus rentables, ce qui peut se traduire par
une amélioration de la satisfaction des clients et une augmentation des profits.

Figure 1 – Data Mining

2
CHAPITRE I : GENERALITE

1.2 Tâches réalisées en Data Mining :


1. Descriptives : consiste à trouver les caractéristiques générales relatives aux données
fouillées (Résumé/synthèse, Clustering, Règles d’association).

2. Prédictives : Consiste à utiliser certaines variables pour prédire les valeurs futures
inconnues de la même variable ou d’autres variables (Séries temporelles, Régression,
Classification).

1.3 Les méthodes de Data Mining (fouille de données) utilisées au CNN :


Les CNNs utilisent principalement l'apprentissage supervisé pour des tâches bien définies où
les labels (étiquetées) sont disponibles.

1.3.1 Apprentissage supervisé


L’apprentissage supervisé est une technique de data mining qui consiste à entraîner un modèle
à partir d’un ensemble de données d’entraînement étiquetées. L’objectif est de prédire les
étiquettes pour de nouvelles données qui ne sont pas incluses dans l’ensemble de données
d’entraînement.

L’apprentissage supervisé nécessite un ensemble de données d’entraînement préétiqueté, où


chaque instance de données est étiquetée avec la réponse attendue. Le modèle est entraîné à
partir de cet ensemble de données pour apprendre à prédire les étiquettes pour de nouvelles
données en se basant sur des caractéristiques spécifiques des données. Par exemple, une image
d’un chat est accompagnée d’une étiquette indiquant "chat".

Exemples courants :

• Classification d’images : Un CNN apprend à identifier si une image contient un chien,


un chat ou une voiture.

• Détection d’objets : Localisation et identification des objets présents dans une image.

• Segmentation d’images : Découper une image en différentes régions (par exemple,


distinguer un visage du fond).

➢ Méthodes de la classification supervisée :


• Arbres de décision.
• Régression logistique.
• Réseaux neuronaux.
• k-plus proches voisins (k-NN).

3
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

Introduction

Les réseaux neuronaux convolutifs CNN (Convolutional Neural Network) sont un type de
réseau neuronal artificiel dans lequel le modèle de communication entre les neurones est inspiré
des réseaux neuronaux biologiques.

Le nom « réseau de neurones convolutif » indique que le réseau emploie une opération
mathématique appelée convolution. La convolution est une opération linéaire spéciale. Les
réseaux convolutifs sont simplement des réseaux de neurones qui utilisent la convolution à la
place de la multiplication matricielle dans au moins une de leurs couches.

Ce réseau est constitué de nœuds ou de soi-disant neurones ou unités de traitement connectés


entre eux pour former un réseau de neurones, et chaque connexion entre ces nœuds à un
ensemble de valeurs appelées poids, ces poids permettent de déterminer les valeurs résultantes
pour chacun élément de traitement basé sur les valeurs internes de cet élément.

1. Définition des réseaux de neurones convolutionnels :

Les réseaux de neurones convolutionnels (CNN pour Convolutional Neural Networks) sont des
réseaux de neurones multicouches qui sont spécialisés dans des tâches de reconnaissance de
forme. (CNN) font partie des réseaux neuronaux supervisés, ce qui signifie qu’ils nécessitent
des données étiquetées pour l’entraînement. Ces données consistent en paires d’entrées (comme
des images) associées à des étiquettes (catégories, classes, etc.) correspondantes.

Ils comportent deux parties distinctes, première partie c’est la partie convolutionnelle, son
architecture repose sur des couches de convolution alternant avec des couches d’agrégation
(pooling). L’image en entrée est fournie sous forme de matrice de pixels, elle passe par une
succession de filtres au niveau de chaque couche de convolution, créant des nouvelles images
appelées cartes de convolutions.

La couche d’agrégation (pooling) réduit la taille de l’image par une fonction de max pooling.
Au final, les cartes de convolutions sont mises à plat et concaténées en un vecteur de
caractéristiques, appelé code textitCNN. Ce code CNN en sortie de la partie convolutionnelle
est ensuite branché en entrée d’une deuxième partie, constituée de couches entièrement
connectées (perceptron convolutionnels multicouche). Le rôle de cette partie est de combiner
les caractéristiques du code CNN pour classer l’image. La sortie est une dernière couche

4
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

comportant un neurone par catégorie. Les valeurs numériques obtenues sont généralement
normalisées entre 0 et 1, de somme 1, pour produire une distribution de probabilité sur les
catégories.

2. Architecture de réseaux de neurones convolutionnels :

L'architecture d'un réseau de neurones convolutifs contient de nombreuses couches allant de la


couche d'entrée à la couche de sortie en passant par de nombreuses étapes nécessaires et
importantes qui peuvent être répétées, chacune de ces étapes à un rôle dans la réussite de la
fonction de CNN.

Dans cette image, nous verrons les couches et les fonctions formées pour une structure CNN
simple et nous essaierons d'expliquer chacune séparément.

Figure 02 : L'architecture d'un réseau de neurones convolutifs simple

2.1 La couche d'entré :

C'est l'entrée du réseau CNN qu'il s'agisse de texte, d'audio ou d'image. Dans un réseau de
neurones de traitement d'images, il s'agit généralement de la matrice de pixels d'une image.
Cette matrice est généralement représentée par trois dimensions qui sont la longueur, la largeur
et la profondeur (RGB couleurs).

Figure 03 : Les trois dimensions d'image.

5
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

2.2 Couches convolutionnelles :

L'une des choses principales et importantes dans la construction d'un réseau CNN est la couche
convolutifs. Lorsque nous présentée les couches convolutifs, nous devons expliquer ce quoi la
convolution. La convolution est une opération arithmétique permettant de combiner deux
ensembles d'informations. La convolution est appliquée aux données d'entrée à l'aide d'un filtre
de convolution pour produire un vecteur des caractéristiques.

Sur le côté gauche de la figure 4 se trouve l'entrée de la couche de convolution, par exemple
l'image d'entrée. Et à droite se trouve le filtre de convolution, également appelé noyau ou kernel,
nous utiliserons ces termes de manière interchangeable. C'est ce qu'on appelle une convolution
3x3 en raison de la forme du filtre.

Figure 04 : Matrice d'entrée avec le filtre de convolution.

L'opération de convolution est effectuée plusieurs fois en déplaçant ce filtre sur toute la
matrice ou l'image d'entrée, on multiplie la matrice avec le filtre et on additionne le résultat.
Ce résultat va à vecteur des caractéristiques. Nous faisons ce processus pour couvrir toutes les
parties de l'image.

Figure 05 : Première étape de convolution.

6
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

Figure 06 : Deuxième étape de convolution.

Encore et encore nous répétons le processus jusqu’à ce que nous cuivre toute l’image.

Figure 07 : Vecteur de caractéristique après l'application de convolution.

2.2.1 Les filtres :


Les filtres jouent un rôle important et efficace dans l'extraction des propriétés des images au
cours du processus de convolution. Ce sont des formes carrées avec certaines dimensions. Ces
formes sont appelées Kernel ou noyaux et sont appliquées dans toute l'image.

Figure 08 : Exemple d’application des filtres.

7
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

2.2.2 Les Pas (Stride) :


Le pas est le nombre de décalages de pixels sur l'ensemble de la matrice d'entrée. Lorsque le
pas est de 1, nous déplaçons les filtres sur 1 pixel à la fois. Lorsque le pas est de 2, nous
déplaçons les filtres sur 2 pixels à la fois et ainsi de suite.

Figure 09 : Exemple d'application de pas "stride".

2.2.3 Rembourrage (padding) :


Le rembourrage permet d'utiliser une couche convolution sans nécessairement rétrécir la
hauteur et la largeur des volumes. Ceci est important pour la construction de réseaux plus
profonds, car sinon la hauteur/largeur diminuerait au fur et à mesure que nous allons vers des
couches plus profondes.

Cela nous aide à garder plus d'informations à la frontière d'une image. Sans rembourrage, très
peu de valeurs du calque suivant seraient affectées par les pixels en tant que bords d'une
image.

Quelques terminologies de rembourrage :

• Rembourrage « valid » : pas de rembourrage.


• Rembourrage « same » : rembourrage afin que la dimension de sortie soit la même que
l'entrée.
• Rembourrage « full » : introduis des zéros tels que tous les pixels sont visités par le
même nombre de carreaux par le filtre, ce qui entraîne une augmentation de la taille de
la sortie.

8
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

Figure 10 : Exemple d'application de rembourrage.

2.3 Couche de pooling :


Le pooling est une forme de sous-échantillonnage de l’image, il permet de réduire
progressivement la taille des représentations afin de réduire la quantité de paramètres et de
calcul dans le réseau ainsi que l’invariance aux petites translations, il est donc fréquent d'insérer
périodiquement une couche de pooling entre deux couches convolutives successives d'une
architecture CNN pour contrôler le sur-apprentissage. L'opération de pooling créait aussi une
forme d'invariance par translation. La couche de pooling fonctionne indépendamment sur
chaque tranche de profondeur de l'entrée et la redimensionne uniquement au niveau de la
surface.

La forme la plus courante est une couche de mise en commun avec des filtres de taille 2x2
(largeur/hauteur) et comme valeur de sortie la valeur maximale en entrée. On parle dans ce cas
de « Max-Pool 2x2 ».

Il est possible d'utiliser d'autres fonctions de pooling que le maximum. On peut utiliser un «
average pooling » la sortie est la moyenne des valeurs du patch d'entrée.

Le pooling permet de gros gains en puissance de calcul. Cependant, en raison de la réduction


agressive de la taille de la représentation et donc de la perte d'information associée, la tendance
actuelle est d'utiliser de petits filtres (type 2x2). Il est aussi possible d'éviter la couche de pooling
mais cela implique un risque sur-apprentissage plus important.

9
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

Figure 12 : (à gauche) Average pooling : chaque case correspond à la moyenne du carré


d’entrée de la même couleur, ex de la case jaune : (1+ 3+ 1+ 3)/4 = 2.

(à droite) Max pooling: chaque case correspond à la valeur maximum du carré d’entrée de la
même couleur, ex de la case bleu : max(5, 7, 5, 7) = 7.

2.4 Les couches entièrement connectées :


Les couches entièrement connectées (ou fully connected layers en anglais) sont un type de
couche dans les réseaux de neurones artificiels où chaque neurone de la couche précédente est
connecté à chaque neurone de la couche suivante. Ces couches sont également souvent appelées
couches Denses.

La sortie des couches convolutionnelles et de regroupement représente les fonctionnalités de


haut niveau de l’image d’entrée.

La couche entièrement connectée a pour le but d’utiliser ces fonctionnalités pour classer l’image
d’entrée dans différentes classes en fonction du jeu de données d’apprentissage.

10
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

Figure 13 : Architecture classique d’un réseau de neurones convolutif.

2.5 L’entrainement d’un réseau de neurone convolutionnelle :


L’entraînement d’un réseau de neurones convolutionnelles (CNN) est un processus crucial dans
le domaine de l’apprentissage profond et de la vision par ordinateur. Voici une vue d’ensemble
simplifiée du processus d’entraînement d’un CNN :

➢ Préparation des données :


• Collecte et prétraitement des données : Obtention d’un ensemble de données
étiquetées avec des images et leurs catégories correspondantes.
• Prétraitement des images : Redimensionnement, normalisation et augmentation des
données pour améliorer la diversité de l’ensemble de données et réduire le
surajustement.

➢ Construction du modèle CNN :


• Architecture du CNN : Définir la structure du réseau en empilant des couches
de convolution, de pooling, de normalisation et de couches entièrement
connectées.
• Initialisation des poids : Initialiser aléatoirement les poids du réseau pour
commencer l’apprentissage.

➢ Entraînement du CNN :
• Propagation avant (Forward Propagation) : Passer les données d’entrée à travers
le réseau pour obtenir les prédictions.

11
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

• Calcul de la perte (Loss Calculation) : Mesurer l’écart entre les prédictions du


modèle et les étiquettes réelles à l’aide d’une fonction de perte (comme
l’entropie croisée pour la classification).
• Propagation arrière (Backpropagation) : Calculer les gradients de perte par
rapport aux poids du réseau en utilisant l’algorithme de rétropropagation du
gradient.
• Mise à jour des poids (Optimisation) : Utiliser un algorithme d’optimisation
(comme la descente de gradient stochastique - SGD, Adam, RMSprop) pour
ajuster les poids du réseau afin de minimiser la perte.

➢ Évaluation du modèle :
• Validation : Évaluer les performances du modèle sur un ensemble de données de
validation pour vérifier s’il généralise bien et éviter le surajustement.
• églage des hyperparamètres : Ajuster les hyperparamètres du modèle (taux
d’apprentissage, taille du lot, nombre d’époques, etc.) pour améliorer les performances.

➢ Test et déploiement :
• Test : Évaluer les performances finales du modèle sur un ensemble de données de
test indépendant pour estimer sa performance réelle.
• Déploiement : Utiliser le modèle formé pour faire des prédictions sur de nouvelles
données dans des applications réelles.

➢ Optimisation et mise à l’échelle :


• Optimisation du modèle : Réduire la complexité du modèle, appliquer la
régularisation pour éviter le surajustement et améliorer l’efficacité.
• Mise à l’échelle : Adapter le modèle à des architectures plus grandes, à des
ensembles de données plus vastes ou à des tâches plus complexes si nécessaire.
L’entraînement d’un CNN est un processus itératif où le modèle est ajusté à
plusieurs reprises sur les données d’apprentissage jusqu’à ce qu’il atteigne une
performance satisfaisante sur les données de validation et de test.

12
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

3. Les avantages d’un réseau de neurones convolutifs :

1. Extraction Automatique des Caractéristiques.

• Les CNNs apprennent automatiquement les caractéristiques pertinentes des données


(bords, textures, objets) sans intervention humaine, réduisant ainsi la dépendance à
l'extraction manuelle des caractéristiques.

2. Réduction du Nombre de Paramètres.

• Grâce au partage des poids (filtres appliqués à plusieurs endroits de l'image), les CNNs
nécessitent moins de paramètres par rapport aux réseaux pleinement connectés, ce qui
améliore leur efficacité computationnelle.

3. Hiérarchisation des Caractéristiques.

• Les couches profondes extraient des caractéristiques complexes, tandis que les couches
initiales détectent des motifs simples, permettant une compréhension approfondie et
hiérarchique des données.

4. Invariance aux Transformations Locales.

• Les CNNs sont robustes aux variations telles que les translations, rotations,
redimensionnements ou déformations mineures, grâce aux mécanismes de convolution
et de pooling.

5. Polyvalence.

• Ils peuvent être appliqués à une variété de tâches comme :

o Classification d'images.

o Segmentation d'images.

o Détection d'objets.

o Analyse de données médicales, reconnaissance vocale, etc.

6. Scalabilité.

• Les CNNs peuvent être adaptés pour des tâches de petite ou grande échelle, avec des
architectures pouvant varier en profondeur et en complexité (VGG, ResNet,
EfficientNet).

13
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

7. Large Support Logiciel.

• Frameworks comme TensorFlow, PyTorch et Keras simplifient la mise en œuvre,


l’entraînement et l’optimisation des CNNs.

4. Les inconvénients des CNNs :

1. Dépendance aux Données.

• Les CNNs nécessitent de grandes quantités de données étiquetées pour s'entraîner


efficacement. Si les données sont insuffisantes, le modèle peut :

o Ne pas généraliser correctement.

o Souffrir de surapprentissage (overfitting).

2. Coût Computationnel Élevé.

• Les CNNs, surtout les architectures profondes, nécessitent :

o Des ressources importantes en calcul (GPU/TPU requis pour un entraînement


rapide).

o Une mémoire importante pour stocker les paramètres et gérer les calculs.

3. Boîte Noire.

• Les CNNs manquent d’interprétabilité. Il est souvent difficile de comprendre les raisons
derrière leurs décisions, ce qui peut être problématique dans des applications critiques
(par exemple, médicales).

4. Sensibilité aux Perturbations.

• Les CNNs peuvent être sensibles aux attaques adversariales (petites perturbations dans
l'image qui induisent de grosses erreurs de prédiction).

5. Difficulté de Conception.

• Définir l’architecture optimale (profondeur, tailles des filtres, types de couches) peut
être complexe et nécessite souvent des essais et erreurs.

• Les hyperparamètres (learning rate, taille de batch, etc.) influencent fortement les
performances.

14
CHAPITRE II: RESEAUX DE NEURONES CONVOLUTIFS CNN

6. Dépendance au Domaine.

• Les CNNs entraînés sur un domaine (par exemple, images naturelles) peuvent ne pas
bien se généraliser à d'autres types de données sans réentraînement (par exemple,
imagerie médicale).

7. Tendance à Ignorer les Relations Globales.

• Les CNNs capturent bien les relations locales dans une image, mais ils peuvent avoir
des difficultés à comprendre les relations globales à longue portée sans architectures
spécifiques (comme les Transformers pour la vision).

Conclusion

Les CNNs sont puissants et bien adaptés à de nombreuses tâches, mais ils nécessitent une
expertise et des ressources pour être utilisés efficacement, en particulier dans des applications
complexes ou sensibles.

15
CONCLUSION GENERALE

Les réseaux de neurones convolutionnels (CNN) ont révolutionné le domaine de l'intelligence


artificielle, en particulier pour les applications liées au traitement des données visuelles, telles
que la classification d'images, la reconnaissance faciale, et la détection d'objets. Inspirés du
fonctionnement du cortex visuel humain, ils combinent des mécanismes de convolution, de
pooling et de classification pour extraire automatiquement des caractéristiques pertinentes et
hiérarchisées à partir des données brutes.

Malgré leurs avantages majeurs, tels que la réduction des paramètres et leur robustesse face aux
variations dans les données, les CNN présentent des défis, notamment un besoin important de
données et de ressources computationnelles. Cependant, leur polyvalence et leur efficacité les
rendent indispensables dans de nombreux domaines, allant de l’imagerie médicale à la vision
par ordinateur.

16
BIBLIOGRAPHIE

1. HAMLAOUI M.Y. « Classification du COVID’19 en utilisant CNN dans les images X-


ray ». Université de 8 Mai 1945 – Guelma – 2021.
2. Jean-Michel Franco. « Le Data Warehouse, le Data Mining». Eyrolles, 1996.
3. M .[Link]. « Amélioration des images par un modèle de réseau de neurones
(comparaison avec les filtres de base), université abou-bakr belkaid tlemcen.2011 ».
4. NACER F. « Reconnaissance d’expression faciale à partir d’un visage réel ». Université
de 8 Mai 1945 – Guelma – 2019.
5. [Link]
6. [Link]
7. [Link]

Vous aimerez peut-être aussi