0% ont trouvé ce document utile (0 vote)
327 vues63 pages

Classification Clients en Microfinance

Ce document présente un mémoire de master sur l'utilisation des réseaux de neurones artificiels en data mining pour classifier les clients dans une institution de microfinance. Le document décrit le contexte du sujet, l'état de l'art sur le data mining et les réseaux de neurones, ainsi que la méthodologie adoptée pour mener l'étude.

Transféré par

Haingonirina Ignace
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
327 vues63 pages

Classification Clients en Microfinance

Ce document présente un mémoire de master sur l'utilisation des réseaux de neurones artificiels en data mining pour classifier les clients dans une institution de microfinance. Le document décrit le contexte du sujet, l'état de l'art sur le data mining et les réseaux de neurones, ainsi que la méthodologie adoptée pour mener l'étude.

Transféré par

Haingonirina Ignace
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

UNIVERSITE D'ANTANANARIVO

ECOLE SUPERIEURE POLYTECHNIQUE


Domaine : Sciences de l'Ingénieur
Mention : Electronique
Parcours : Sciences Cognitives

Mémoire de Master à visée de recherche en Sciences Cognitives

Intitulé : Utilisation des Réseaux de Neurones Artificiels


en Data Mining pour classifier les clients dans une

institution de Micro Finance.

N°: 02 M2R_SCA/ESPA/2015

Présenté par : Monsieur RAKOTOMANANA René

Directeur de Mémoire : Monsieur ANDRIANAHARISON Yvon, Professeur Titulaire

Promotion :2014
UNIVERSITE D'ANTANANARIVO
ECOLE SUPERIEURE POLYTECHNIQUE
Domaine : Sciences de l'Ingénieur
Mention : Electronique
Parcours : Sciences Cognitives
Mémoire de Master à visée de recherche en Sciences Cognitives

Intitulé : Utilisation des Réseaux de Neurones


Artificiels en Data Mining pour classifier les clients

dans une institution de Micro Finance.

N°: 02 M2R_SCA/ESPA/2015
Présenté par : Monsieur RAKOTOMANANA René
Le : 23 Fevrier 2016
Président du Jury :

Monsieur ANDRIAMANOHISOA Hery Zo (Professeur)


Directeur de Mémoire

Monsieur ANDRIANAHARISON Yvon (Professeur Titulaire)


Examinateurs :

-Monsieur RANDIMBINDRAIBE Falimanana (Professeur)


-Madame RABEHERIMANANA Lyliane (Maître de Conférences)
-Monsieur ROBINSON Matio (Maître de Conférences)
Promotion : 2014
REMERCIEMENTS
Au terme d’une année d’études au sein du parcours Sciences Cognitives à l’École
Supérieure Polytechnique d’Antananarivo, ce présent mémoire n'a pas pu être
réalisé sans aides et coopérations avec plusieurs personnes, en particuliers je tiens
à adresser ma profonde gratitude à :

– Monsieur ANDRIANARY Philippe, Professeur titulaire, Directeur de l’E.S.P.A ;

– Monsieur RATSIMBA Mamy Nirina, Maître de Conférences Responsable Mention


Electronique ;

– Monsieur RANDIMBINDRAIBE Falimanana, Professeur, responsable de l’équipe


d’accueil SCA et parmi les examinateurs ;

– Monsieur ANDRIAMANOHISOA Hery Zo, Professeur, responsable du parcours


Sciences Cognitives et en même temps président de jury,

– Monsieur ANDRIANAHARISON Yvon, Professeur Titulaire, Directeur de mémoire

– Aux enseignants et membres de Jury suivants

Madame RABEHERIMANANA Lyliane , Maître de Conférences,

Monsieur ROBINSON Matio Maître de Conférences,

– Tous les enseignants de l’E.S.P.A pendant les activités pédagogiques de l’année


universitaire

– Ma famille, Mes amis, tous ceux qui, de près ou de loin, ont contribué à la
réalisation de ce travail et m’ont soutenu moralement durant mes études à l’E.S.P.A.
Liste des abréviations
2D Deux Dimensions

ARFF Attribute-Relation File Format

CRISP-DM Cross Industry Standard Process for Data Mining

DM Data Mining

IA Intelligence Artificielle

KDD Knowledge Data Discovery

MVS Machine Vector Support

PMC Perceptron Multicouches

RNA Réseaux de Neurones Artificiels

ROC Receiving Operating Characteristic

SOM Self Organization Maps

WEKA Waikato Environment Knowledge Application

WTA Winner Takes All


Liste des figures
Figure 1: Les différents supports de données ................................................................ 5

Figure 2 Présentation démarche en Data Mining ........................................................... 7

Figure 3 Processus de découverte de connaissance ....................................................... 8

Figure 4 Neurone Biologique ......................................................................................... 14

Figure 5 Neurone formel................................................................................................ 16

Figure 6 Architecture perceptron, la fonction de classement .................................... 16

Figure 7 Perceptron Multicouches ............................................................................... 17

Figure 8 Présentation détails de la situation .............................................................. 19

Figure 9: Architecture d'un Réseau de Kohonen ......................................................... 25

Figure 10 Présentation des voisin selon le type ............................................................ 25

Figure 11 : L'interface principale de WEKA .................................................................... 29

Figure 12 L'interface SimpleCli de WEKA ....................................................................... 30

Figure 13 L'interface de WEKA Explorer ........................................................................ 31

Figure 14 WEKA Experiment .......................................................................................... 32

Figure 15 WEKA Knowledge Flow .................................................................................. 33

Figure 16 NCtool de Matlab ........................................................................................... 34

Figure 17 L'accès principal de traitement .................................................................... 34

Figure 18 Le choix de tableau à importer dans le traitement ..................................... 35

Figure 19 Visualisation global de chaque variable ........................................................ 37

Figure 20 Visualisation de possibilité entre variables ................................................... 37

Figure 21 Utilisation nntraitool ..................................................................................... 50

Figure 22 SOM Neighbor Weight Distances .................................................................. 50

Figure 23 SOM Weights planes ...................................................................................... 51

Figure 24 SOM Sample Hits ........................................................................................... 51


Table des matières
Remerciements

Liste des Abréviations

Liste des figures

. Introduction générale .............................................................................................. 1


. Chapitre 1 : Le Data Mining ...................................................................................... 4
I. Introduction .......................................................................................................... 4
II. Data Mining........................................................................................................... 4
A. Definition ........................................................................................................... 4
B. Les Processus de Data Mining .......................................................................... 4
III. Techniques du Data Mining .............................................................................. 8
A. Techniques supervisées .................................................................................... 8
B. Techniques non supervisées ........................................................................... 12
IV. Conclusion ....................................................................................................... 13
. Chapitre 2 : Le Réseau de Neurones Artificiels ...................................................... 14
I. Introduction ........................................................................................................ 14
II. Neurone réel ....................................................................................................... 14
A. Présentations .................................................................................................. 14
B. Fonctionnalités ................................................................................................ 15
III. Le Neurone Artificiel ....................................................................................... 15
A. Présentation de base...................................................................................... 15
B. Le Perceptron .................................................................................................. 16
C. Le Perceptron Multicouche (PMC) .................................................................. 17
D. La carte auto-organisatrice de Kohonen ......................................................... 24
IV. Conclusion ....................................................................................................... 27
. Chapitre 3 : Méthodologie ..................................................................................... 28
I. Introduction ........................................................................................................ 28
II. Démarche. ........................................................................................................... 28
III. Les Outils et matériels ..................................................................................... 29
A. WEKA ............................................................................................................... 29
B. Matlab ............................................................................................................. 33
IV. Conclusion ....................................................................................................... 35
. Chapitre 4 : Résultat et Discussion. ...................................................................... 36
I. Objectifs .............................................................................................................. 36
II. Résultats.............................................................................................................. 36
1. Utilisation de WEKA ....................................................................................... 36
2. Utilisation de Matlab ....................................................................................... 49
III. Discussion ........................................................................................................ 52
. Conclusion Générale .............................................................................................. 53
Bibliographie
. Introduction générale

Les sciences cognitives ont pour objet pour les grandes fonctions cognitives de
l'homme biologique, culturel et social: la perception, la mémoire, le langage, le
raisonnement, l'émotion, au travers des études interdisciplinaires: psychologie,
linguistique, philosophie, neuroscience, intelligence artificielle...

La cognition à son tour est un ensemble des activités intellectuelles et des processus
qui se rapportent à la connaissance et à la (aux) fonction(s) qui l'a (ont) réalisée, sous
forme de la cognition naturelle ou sous forme de la cognition artificielle.

La connaissance joue un rôle très important dans le monde de la science. Elle


manipule des informations pour pouvoir devenir une nouvelle application ou une
théorie qui vont être à la disposition de tout le monde même la pratique dans la vie
quotidienne.

La science cognitive utilise comme base la connaissance, à partir de laquelle on


dégagera des règles pour mettre en place une nouvelle démarche pour gérer la
situation associée.

L’informatique à son tour ne cesse de s’évoluer et petit à petit puis avec un grand
essor avec le temps dont il existe un accroissement non négligeable.

Les informations sont à traiter de manière automatique de nos jours en utilisant les
outils informatiques et prennent une place très importante dans le domaine de la
science.

Dans le contexte actuel de concurrence des entreprises, la mondialisation, la


délocalisation, l’objectif principal de l’entreprise n’est plus d’agrandir sa clientèle, n’y
d’optimiser ses processus mais de fidéliser ses clients, de leurs offrir des produits
adaptés à leurs besoins et de leur faire naître des besoins.

Depuis d’une dizaine d’années les données manipulées par les entreprises et les
sociétés sont de temps en temps très volumineuses, à savoir la manipulation des

Page 1
bases de données, la gestion du système d’information, surtout l’accroissement des
informations associées aux clients.

L'un des éléments commune entre l'informatique et la science cognitive est


l'intelligence artificielle (IA) dont le champ de la recherche informatique est issu des
réflexions sur la cognition dans les années 1950 avec la logique et représentation des
connaissances, représentations structurées dont l'idée principale est de concevoir des
machines intelligentes, qui pense comme un humain de même résultat et de même
imitation et de plus une machine intelligente qui produit le même résultat qu’un
humain.

En général le but est de trouver un moyen pour garder les clients et les rendre
fidèles sur les offres proposés. Dans ce cas, ces informations doivent être explorées,
fouillées pour maîtriser la connaissance sur les clients, trouver des moyens ou des
schémas comportementaux afin d’en déduire la façon de cadrer et anticiper leurs
attentes. Le Data Mining répond aux besoins de l’entreprise, il explore les données et
en ressort des relations entre le client et ses comportements, évalue les résultats à
une action future.

Le Data Mining est un champ situé au croisement de la statistique et des technologies


de l’information (bases de données, intelligence artificielle, apprentissage etc…) dont
le but est de découvrir des structures dans de vastes ensembles de données.

Le Data Mining possède plusieurs méthodes afin d’en tirer les connaissances parmi
elles le réseau de neurones artificiels et en particulier le Perceptron Multicouches
et les cartes de Kohonen.

Dans notre cas nous avons utilisé les informations concernant les clients des
établissements de Micro Finance afin de les classifier en fonction des certaines
variables d’informations en posant la question suivante est-il possible de classifier
les clients par rapport à des offres proposés ? Pour répondre à ce genre de question le
présent ouvrage se divise suivant l’organisation suivante : la situation générale en
Data Mining, ensuite le réseau de neurones artificiels et suivi de la méthodologie et

Page 2
nous allons terminer par Application de ces deux théories pour obtenir des résultats
avec des discussions associées.

A la fin de notre ouvrage nous pouvons apporter des nouvelles perspectives d’avenir
sur la mise en place et l’utilisation de Data Mining dans une institution de Micro
Finance qui a besoin de mettre en place une nouvelle stratégie sur la concurrence

Page 3
. Chapitre 1 : Le Data Mining

I. Introduction
Comme nous avons énoncé dans la partie introduction générale, l’utilisation de Data
Mining avec les techniques de classification, le présent chapitre va nous apporter
quelques notions générales et bases à propos de ces deux théories, leurs utilisations,
les avantages ainsi que les inconvénients.

II. Data Mining


Les techniques de Data Mining sont très utilisées dans le domaine économique. Tels
que la prédiction de certains indicateurs économiques, la découverte des informations
cachées, des problèmes ou de trouver des problèmes dans le secteur industriel, ainsi
que dans les relations avec les clients à travers l'étude de leurs données et leurs
comportements afin d'améliorer le rapport coût-efficacité de la relation avec les
clients ou d’attirer de nouveaux clients [1]. Dans ce chapitre nous voulons reconnaitre
les différentes techniques de Data Mining afin d'avoir un aperçu complet sur eux, pour
identifie ; les technique appropriées pour l’utiliser dans la résolution des problèmes
trouvés

A. Definition
Data Mining signifie l’extraction de connaissance à travers l’analyse d’une grande
quantité de données pour utiliser ces connaissances dans le processus de décision. Il
se compose en deux catégories : supervisé et non supervisé.

B. Les Processus de Data Mining


En 1996 un groupe d’analystes définit le Data Mining comme étant un processus
composé de cinq étapes sous le standard CRISP-DM (Cross-Industry Standard Process
for Data Mining) [10] dont la présentation est :

Définir et comprendre le problème

Collecte des données

Prétraitement

Page 4
Estimer le modèle

Interpréter le modèle

1) Définition et compréhension du problème

Dans la plus part des cas, il est indispensable de comprendre la signification des
données et le domaine à explorer. Sans cette compréhension, aucun algorithme ne va
donner un résultat fiable. En effet, Avec la compréhension du problème, on peut
préparer les données nécessaires à l’exploration et interpréter correctement les
résultats obtenus.

2) Collecte des données

D’après la définition du problème et des objectifs du Data Mining, on peut avoir une
idée sur les données qui doivent être utilisées. Ces données n’ont pas toujours le
même format et la même structure. On peut avoir des textes, des bases de données,
des pages web,etc…Parfois, on est amené à prendre une copie d’un système
d’information en cours d’exécution, puis ramasser les données de sources
éventuellement hétérogènes.

La Figure 1 [3] suivante présente les différentes sources de données. Leurs natures
sont en générales différentes même incompatible dans la plus part des cas.

Figure 1: Les différents supports de données

Page 5
3) Prétraitement

Les données peuvent contenir plusieurs types d’anomalies : des données peuvent être
omises à cause des erreurs de frappe ou à causes des erreurs dues au système lui-
même, dans ce cas il faut remplacer ces données ou éliminer complètement leurs
enregistrements. Des données peuvent être incohérentes, qui sortent des intervalles
permis, on doit les écarter où les normaliser. Parfois on est obligé à faire des
transformations sur les données pour unifier leur poids. Le prétraitement comporte
aussi la réduction des données qui permet de réduire le nombre d’attributs pour
accélérer les calculs et représenter les données sous un format optimal pour
l’exploration.

4) Estimation du modèle :

Dans cette étape, on doit choisir la bonne technique pour extraire les connaissances
(exploration) des données. Des techniques telles que les réseaux de neurones, les
arbres de décision, les réseaux bayésiens, le clustering, ... sont utilisées.

L’implémentation se base sur plusieurs de ces techniques, puis on choisit le bon


résultat. Dans le titre suivant on va détailler les différentes techniques utilisées dans
l’exploration des données et l’estimation du modèle.

5) Interprétation du modèle et établissement des conclusions :

Comme l’objectif du Data Mining est d’aider à la prise de décision en fournissant des
modèles compréhensibles aux utilisateurs. En effet, les utilisateurs ne demandent pas
des pages et des pages de chiffres, mais des interprétations des modèles obtenus. Les
expériences montrent que les modèles simples sont plus compréhensibles mais moins
précis, alors que ceux complexes sont plus précis mais difficiles à interpréter.

Le Data Mining est une étape dans le processus d’extraction des connaissances, qui
consiste à appliquer des algorithmes d’analyse des données.

Page 6
Figure 2 Présentation démarche en Data Mining

La Figure 2 [4] présente schématiquement la démarche en Data Mining qui à partir


des données d’une entité dont le but final est d’obtenir une nouvelle connaissance.

Le Data Mining est aussi le processus de découverte de connaissance en anglais


Knowledge Data Discovery (KDD) comme la capture suivante [3] (figure 3) nous
montre :

A partir des sources de données, on extraite les données sous formes de collecte,
nettoyage des bruits, intégration, ensuite on le stocke dans l’entrepôt de données
suivi de la préparation afin d’obtenir les données d’apprentissage et on obtient le
Data Mining pour le traitement. Le résultat attendu est les modèles de connaissances
et le traitement suivant est la vérification ainsi que l’Evaluation du résultat obtenu.

Le processus est itératif.

Page 7
Figure 3 Processus de découverte de connaissance

III. Techniques du Data Mining

A. Techniques supervisées
Dans la modélisation supervisée, ou prédictive, l'objectif est de prédire un événement
ou d'estimer les valeurs d'un attribut numérique continue. Dans ces modèles, il existe
des champs où les attributs d'entrée et une zone de sortie ou de la cible. Les champs
d'entrée sont également appelés prédicteurs, car ils sont utilisés par le modèle pour
identifier une fonction de prédiction de champ de sortie. Les modèles prédictifs sont
subdivisés en modèles de classification et d'estimation :

1) Les modèles de classification


Dans ces modèles les groupes ou classes cibles sont connus dès le départ. Le but est
de classer les cas dans ces groupes prédéfinis ; en d'autres termes, à prévoir un
événement. Le modèle généré peut être utilisé comme un moteur de marquage pour
l'affectation de nouveaux cas pour les classes prédéfinies. Il estime aussi un score de
propension pour chaque cas. Le score de propension dénote la probabilité
d'occurrence du groupe cible ou d'un événement.

Page 8
2) Les modèles d’estimation
Ces modèles sont similaires à des modèles de classification, mais avec une différence
majeure. Ils sont utilisés pour prédire la valeur d’un champ continu en fonction des
valeurs observées des attributs d'entrée.

a. Arbre de décision
Les arbres de décision fonctionnent en séparant de façon récursive la population
initiale. Pour chaque groupe, ils sélectionnent automatiquement l'indicateur le plus
significatif, le prédicteur qui donne la meilleure séparation par rapport au champ
cible.

À travers des cloisons successives, leur objectif est de produire des sous-segments
purs, avec un comportement homogène en termes de production. Ils sont peut-être la
technique la plus populaire de classification. Une partie de leur popularité, c'est parce
qu'ils produisent des résultats transparents qui sont facilement interprétables, offrant
un aperçu de l'événement à l’étude. Les résultats obtenus peuvent avoir deux formats
équivalents. Dans un format de règle, les résultats sont représentés dans un langage
simple que les règles ordinaires : SI (VALEURS PREDICTIVES) ALORS (RESULTAT CIBLE
ET SCORE DE CONFIANCE). Dans une forme d’arborescence, les règles sont
représentés graphiquement sous forme d'arbre dans laquelle la population initiale
(nœud racine) est successivement divisé en des nœuds terminaux ou feuilles de sous-
segments ayant un comportement similaire en ce qui concerne le champ cible. Les
algorithmes d'arbres de décision constituent selon la vitesse et l’évolutivité.

Page 9
b. Règles de décision
Ils sont assez semblables à des arbres de décision et de produire une liste de règles
qui ont le format des états humains compréhensibles: SI (VALEURS PREDICTIVES)
ALORS (RESULTAT CIBLE ET SCORE DE CONFIANCE). Leur principale différence par
rapport aux arbres de décision, c'est qu'ils peuvent produire plusieurs règles pour
chaque enregistrement. Les arbres de décision génèrent des règles exhaustives et
mutuellement exclusives qui couvrent tous les records. Pour chaque enregistrement
une seule règle s'applique.

Au contraire, les règles de décision peuvent générer un ensemble de règles de


chevauchement. Plus d'une règle, avec des prédictions différentes, peut-être vrai pour
chaque enregistrement. Dans ce cas, les règles sont évaluées, à travers une procédure
intégrée, afin de déterminer l'une pour l'évaluation. Habituellement, une procédure
de vote est appliquée, qui combine les règles et les moyennes de leurs confidences
individuelles pour chaque catégorie de sortie. Enfin, la catégorie ayant la confiance la
moyenne la plus élevée est sélectionnée comme la prédiction.

c. Régression
La régression est la méthode utilisée pour l’estimation des valeurs continues. Son
objectif est de trouver le meilleur modèle qui décrit la relation entre une variable
continue de sortie et une ou plusieurs variables d’entrée. Il s’agit de trouver une
fonction f qui se rapproche le plus possible d’un scénario donné d’entrées et de
sorties

d. Réseaux de neurones
Les réseaux de neurones sont des puissants algorithmes d'apprentissage automatique
qui utilisent des fonctions de cartographie complexe, non linéaire pour l'estimation et
classification. Ils sont constitués de neurones organisés en couches. La couche
d'entrée contient les prédicteurs ou neurones d’entrée. La couche de sortie comprend
dans le champ cible. Ces modèles permettent d'estimer des poids qui relient les
prédicteurs (de la couche d'entrée à la sortie).

Page 10
Des modèles avec des topologies plus complexes peuvent également inclure, couches
cachées intermédiaires, et les neurones. La procédure de formation est un processus
itératif. Enregistrements en entrée, avec des résultats connus, sont présentés sur le
réseau et la prédiction du modèle est évaluée par rapport aux résultats observés.
Erreurs observées sont utilisées pour ajuster et d'optimiser les estimations du poids
initial. Ils sont considérés comme des solutions opaques ou ''boîte noir'' car ils ne
fournissent pas une explication de leurs prédictions. Ils fournissent seulement une
analyse de sensibilité, qui résume l'importance prédictive des champs d'entrée. Ils
nécessitent une connaissance statistique minimum mais, selon le problème, peut
nécessiter un temps de traitement à long pour la formation.

e. Machines à vecteurs supports (SVM)


SVM est un algorithme de classification qui peut modéliser les profils de données non
linéaires hautement complexes, et d'éviter les sur-apprentissages, c'est-à- dire la
situation dans laquelle un modèle mémorise les modèles ne concernent que des cas
spécifiques analysés. SVM fonctionne en données cartographiques à un espace de
grande dimension caractéristique dans lequel les enregistrements deviennent plus
facilement séparables (ie, séparés par des fonctions linéaires) à l'égard des catégories
de cibles. Les données d'entraînement d'entrée sont transformées de manière
appropriée par les fonctions du noyau non linéaires et cette transformation est suivie
d'une recherche de fonctions plus simples, c'est-à-dire des fonctions linéaires, qui
enregistrent de façons optimales distinctes. Les analystes expérimentent
généralement avec différentes fonctions de transformation et de comparer les
résultats. Globalement SVM est un algorithme efficace et exigeant, en termes de
ressources de mémoire et de temps de traitement.

f. Réseaux bayésiens
Les modèles bayésiens sont des modèles de probabilité qui peuvent être utilisées dans
des problèmes de classification pour estimer la probabilité d'occurrences. Ils sont des
modèles graphiques qui fournissent une représentation visuelle des relations
d'attributs, en assurant la transparence, et une explication de la justification du
modèle.

Page 11
B. Techniques non supervisées
Dans les modèles non supervisés ou non orientés, il n'y a pas de champ de sortie, il n’y
a que des entrées. La reconnaissance de formes est non orientée; elle n'est pas guidée
par un attribut cible spécifique. Le but de ces modèles est de découvrir des motifs de
données dans l'ensemble des champs d'entrée. Les modèles non supervisés
comprennent :

1) • Les modèles de dispersion :


Dans ces modèles les groupes ne sont pas connus à l'avance. Au contraire, nous
voulons que les algorithmes pour analyser les schémas de données d'entrée et
d'identifier les regroupements naturels de données ou de cas. Lorsque de nouveaux
cas sont marqués par le modèle de cluster généré ils sont affectés à l'un des groupes
révélés.

2) • Les modèles d'association de séquences :


Ces modèles font également partie de la classe de la modélisation non supervisé. Ils
ne comportent pas de prédiction directe d'un seul champ. En fait, tous les champs
concernés ont un double rôle, car ils agissent comme des entrées et des sorties en
même temps. Des modèles d'association de détecter des associations entre des
événements discrets, des produits ou des attributs. Les modèles de séquence
détectent des associations au fil du temps.

3) Clustering hiérarchique
Il considère comme la ''mère'' de tous les modèles de clustering. Il est appelé
hiérarchique ou d’agglomération, car il commence avec une solution où chaque
enregistrement comprend un groupe et peu à peu les groupes se former jusqu'au
point où tous tomber dans un super-cluster. À chaque étape, il calcule les distances
entre toutes les paires d'enregistrements et les groupes les plus similaires. Une table
(horaire d’agglomération) ou un graphique (dendrogramme) résume les étapes de
regroupement et les distances respectives. L'analyste doit consulter ces informations,
identifier le point où l'algorithme commence à cas disjoints de groupe, et de décider
ensuite sur le nombre de grappes à conserver. Cet algorithme ne peut pas traiter

Page 12
efficacement plus de quelques milliers de cas. Ainsi, il ne peut pas être directement
appliqué dans la plupart des tâches de regroupement d’entreprise. Une solution
habituelle consiste à une utilisation sur un échantillon de la population de clustering.
Cependant, de nombreux autres algorithmes efficaces qui peuvent facilement gérer
des millions d’enregistrements, le regroupement par échantillonnage n'est pas
considéré comme une approche idéale.

4) K-means
C'est un moyen efficace et peut-être l'algorithme de segmentation le plus rapide qui
peut gérer deux longues (plusieurs enregistrements) et des ensembles de données
larges (de nombreuses dimensions de données et des champs d'entrée). Il s'agit d'une
technique de segmentation basé sur la distance et, à la différence de l'algorithme
hiérarchique, il n'a pas besoin de calculer les distances entre toutes les paires
d'enregistrements. Le nombre de grappes d'être formés et est prédéterminée
spécifiée par l'utilisateur à l'avance. Habituellement, un certain nombre de solutions
différentes doit être jugé et évalué avant d'approuver le plus approprié.

5) Carte auto-organisatrice de Kohonen


Les réseaux de Kohonen sont basés sur des réseaux neuronaux et produisent
typiquement une grille à deux dimensions ou une carte des grappes, où les cartes
d'auto-organisation. Réseaux de Kohonen prennent généralement plus de temps à
former que les K-means, mais ils fournissent un point de vue différent sur le
regroupement qui est la peine d'essayer.

IV. Conclusion
Data Mining apporte des différentes techniques pour donner une solution dans le
domaine d’application mais l’objectif reste le même est –il possible d’obtenir une
nouvelle connaissance à partir d’un ensemble de données spécifiques ?.

Page 13
. Chapitre 2 : Le Réseau de Neurones Artificiels

I. Introduction
L’inspiration à l’origine de la technique des « réseaux de neurones formels »,
communément appelé « réseau de neurones » vient du fait que le cerveau humain est
un système apprenant qui n’est pas basé sur les principes de la logique formelle mais
sur une structure, le cerveau humain, contenant environ 100 milliards de neurones
reliés entre eux par 10 000 contacts synaptiques soit environ un million de milliards de
synapses. Les réseaux de neurones formels sont une tentative pour imiter le
mécanisme d’apprentissage qui se produit dans le cerveau.

II. Neurone réel

A. Présentations
Les neurones réels présentent trois régions principales : le corps cellulaire ou Soma,
les dendrites - prolongements relativement courts et arborescents du corps cellulaire -
et l'axone, prolongement long et fibreux. Un neurone utilise des dendrites pour
rassembler des données d’entrée issues d’autres neurones. Ces données d’entrée sont
combinées pour produire une réponse envoyée à d’autres neurones ou d’autres
cellules. Les axones transportent les influx en provenance du corps cellulaire vers
d’autres cellules [5].

Figure 4 Neurone Biologique

Page 14
B. Fonctionnalités
Du point de vue classique, le neurone est une simple unité de processus qui reçoit
et combine des signaux provenant d’autres neurones à travers des filaments de
chemin d’entrée : les dendrites. Les dendrites se terminent par des filaments
dendritiques qui sont connectés avec le corps du neurone. Le soma a la forme d’une
pyramide ou de cylindre. La cellule est entourée par sa membrane, à l’intérieur de la
membrane est remplie du fluide intracellulaire et à l’extérieur le fluide extracellulaire.

La membrane du neurone et les fluides jouent des rôles très important dans son
opération et sa survivance. Quand la membrane est excitée par une certaine valeur
de potentiel supérieure à son seuil d’excitation, le phénomène d’excitation neurale,
transmet des signaux électriques : l’action potentielle, le long du chemin vers l’axone
qui débute par le segment initial. L’axone se termine par des filaments au bout
desquels se trouvent les boutons synaptiques( synapse signifie : contact en
grecque). Le contact avec les autres neurones se fait avec les dendrites des autres
neurones par l’intermédiaire de jonctions synaptiques.

III. Le Neurone Artificiel

A. Présentation de base
MacCulloch et Pitts sont les premiers à proposer, en 1943, un modèle formel de
neurones. Leur souci est de démontrer qu’un assemblage de leurs neurones était
capable de réaliser les fonctions logiques.

Leurs hypothèses de travail sont résumées comme suit :

- Les sorties des neurones formels sont binaires


- Le neurone n’a pas de mémoire, il faut un nombre fixe (seuil) de
d’activations de ses entrées pour activer la sortie.
- Le seul élément de délai est la synapse.
- L’activation d’une seule synapse inhibitrice interdit toute activation d’un
neurone formel
- La structure du réseau est fixe

Page 15
Dans le cas du neurone formel, les données d’entrée (xi) sont recueillies à partir des
neurones du flux supérieur dans l’ensemble des données, et sont combinées dans une
fonction combinatoire telle la somme. Cette fonction combinatoire est en entrée
d’une fonction d’activation qui produit une réponse envoyée en entrée d’autres
neurones.

Les données sont X1, X2,...., Xn et puis le calcul de la somme en entrée pour
obtenir le résultat de sortie y [7]

Figure 5 Neurone formel

B. Le Perceptron
Avant d'aborder le comportement collectif d'un ensemble de neurones, nous allons
présenter le Perceptron (un seul neurone) en phase d'utilisation. L'apprentissage
ayant été réalisé, les poids sont fixes. Le neurone de la figure suivante réalise une
simple somme pondérée de ses entrées, compare une valeur de seuil, et fourni une
réponse binaire en sortie. Par exemple, on peut interpréter sa décision comme classe
1 si la valeur de x est +1 et classe 2 si la valeur de x est -1 [7].

Figure 6 Architecture perceptron, la fonction de classement

Page 16
Les connexions des deux entrées e1 et e2 au neurone sont pondérées par les poids w1
et w2. La valeur de sortie du neurone est notée x. Elle est obtenue après somme
pondérée des entrées (a) et comparaison à une valeur de seuil S

C. Le Perceptron Multicouche (PMC)

1) Introduction
Le Perceptron Multicouche fait partie des réseaux de neurones Multicouches [7].

Figure 7 Perceptron Multicouches

Les réseaux sont constitués d’une couche d’entrée, d’une couche ou plusieurs
couches cachées et une couche de sortie.

Les PMC sont utilisés pour résoudre quelques problèmes difficiles en appliquant
l’apprentissage supervisé avec l’algorithme : La rétropropagation de l’erreur.

L’apprentissage utilisait la rétropropagation de l’erreur en deux étapes :

la première étape consiste à appliquer aux entrées de la première couche le


vecteur d’entrée et son effet se propage à travers le réseau, couche par couche pour
produire finalement des sorties comme réponse du réseau. Durant la propagation
dans le sens direct, les poids synaptiques des réseaux sont fixés.

La deuxième étape est la propagation de l’erreur dans le sens inverse en appliquant


la règle de correction de l’erreur. Les poids synaptiques ont tous ajustés. L’erreur
est obtenue en faisant la différence entre la valeur calculée et la valeur désirée à la
sortie des réseaux et cette erreur sera propagée à travers le réseau dans le sens
inverse.

Page 17
2) Caractéristique du Perceptron Multicouches
Ce type de réseau possède trois caractéristiques distinctes :

Le Modèle de chaque neurone dans le réseau inclut une fonction d’activation


non linéaire comme la fonction sigmoïde ou la fonction logistique définie par :

y= 1 / ( 1 + exp(- vj) ) où vj est la somme pondérée des poids synaptiques plus le


seuil. C’est à dire avec vj = ∑j wj ej + S ( S<0)

Le réseau contient une ou plusieurs couches cachées. Ces dernières sont


capables de traiter des problèmes complexes.

Le réseau expose un haut degré de connectivité, déterminé par les synapses du


réseau.

3) . Algorithme de la rétropropagation
Le signe d’erreur à la sortie du neurone j à l’itération n est définie par :

ej= dj(n)-yj(n) .

Le neurone j est nœud de sortie, d est valeur désirée, y la valeur calculée.

La valeur instantanée de l’énergie de l’erreur pour le neurone j a pour expression :


1
e2j (n)
2

La valeur instantanée de l’énergie totale de l’erreur est E(n), est obtenue en


1
sommant 2 e2j (n) sur tous les neurones de la couche de sortie. Ce sont les

neurones visibles pour lesquels les signaux d’erreur peuvent être calculés
directement par :

1
E(n)= ∑𝑗 𝑒𝑗2 (𝑛) .
2

On désigne par N le nombre total d’exemples contenus dans la base


d’apprentissage. La moyenne quadratique de l’énergie de l’erreur est

1
Eav= ∑𝑁
𝑛=1 𝐸(𝑛) (Average square error energy)
𝑁

Page 18
Pour un apprentissage donné, Eav représente la fonction coût correspondant la
mesure de la performance de l’apprentissage.

Le but de la procédure d’apprentissage est d’ajuster ou corriger les paramètres du


réseau pour minimiser Eav.

La figure suivante montre le graphe de fluence avec les détails de sortie au niveau
du neurone j.

Y0=+10

Wj0(n)=bj(n) : biais

dj(n)
f
Vj(n))
Vj(n yj-1(n)

ej(n)
Yi(n)

Figure 8 Présentation détails de la situation

Vj(n) =∑m
i=0 wji (n)yi(n) où m est le nombre total des entrées excluant le biais

appliquées au neurone j.

Le poids synaptique wj0 ( y0=+1) est égal au biais bj appliqué au neurone j :

Yj=fj(vj(n))

De façon similaire à l’algorithme de la méthode des moindres carrés, l’algorithme


de rétropropagation applique une correction ∆wji(n) au poids synaptique wji(n),
∂E(n)
lequel est proportionnel au calcul de la dérivée partielle ∂wji(n)

On peut exprimer ce gradient par :

𝜕𝐸(𝑛) 𝜕𝐸(𝑛) 𝜕𝑒𝑗(𝑛) 𝜕𝑦𝑗(𝑛) 𝜕𝑣𝑗(𝑛)


=
𝜕𝑤𝑗𝑖(𝑛) 𝜕𝑒𝑗(𝑛) 𝜕𝑦𝑗(𝑛) 𝜕𝑣𝑗(𝑛) 𝜕𝑤𝑗𝑖(𝑛)

Page 19
1 𝜕𝐸(𝑛)
Et comme E(n)= ∑𝑗 𝑒𝑗2 (𝑛) . on 𝑎 = 𝑒𝑗(𝑛)
2 𝜕𝑒𝑗(𝑛)

𝜕𝑒𝑗(𝑛)
et ej(n)=dj(n)-yj(n) on a = −1
𝜕𝑦𝑗(𝑛)

𝜕𝑦𝑗(𝑛)
Yj=fj(vj(n)) on a = fj’(vj(n))
𝜕𝑣𝑗(𝑛)

𝜕𝑣𝑗(𝑛)
Vj(n) =∑𝑚
𝑖=0 𝑤𝑗𝑖 (𝑛)𝑦𝑖(𝑛) on a = yi(n)
𝜕𝑤𝑗𝑖(𝑛)

𝜕𝐸(𝑛)
Donc =–ej(n) fj’(vj(n))yi(n)
𝜕𝑤𝑗𝑖(𝑛)

∂E(n)
La correction ∆wji(n) =ρ où ρ est le pas de l’algorithme de la
∂wji(n)

retropropagation

On pose ∆𝑤𝑗𝑖(𝑛) = 𝜌𝛿𝑗(𝑛)𝑦𝑖(𝑛) où le gradient local 𝛿𝑗(𝑛) est définie par :

𝜕𝐸(𝑛) 𝜕𝑒𝑗(𝑛) 𝜕𝑦𝑗(𝑛)


𝛿𝑗(𝑛)= =–ej(n) fj’(vj(n))
𝜕𝑒𝑗(𝑛) 𝜕𝑦𝑗(𝑛) 𝜕𝑣𝑗(𝑛)

Le gradient local δj(n) pour la sortie du neurone j est égal au produit de l’erreur
ej(n) et de la dérivée de la fonction d’activation associée.

Compte tenu de l’expression de ∆wji(n) et du gradient local δj(n) deux cas


doivent être distingués :

1er cas le neurone j est un nœud de sortie

On détermine seulement l’erreur ej(n) associé au neurone j et on calcule ensuite le


gradient local.

2ème cas : Le neurone j st un nœud dans la couche cachée

Quand le neurone j est détecté dans la couche cachée du réseau, il n’y a pas de
réponse désirée à spécifier pour ce neurone. En conséquence, le signal d’erreur
pour un neurone caché doit être déterminé de manière récursive :

𝜕𝐸(𝑛) 𝜕𝑦𝑗(𝑛) 𝜕𝐸(𝑛)


𝛿𝑗(𝑛)=− =− fj’(vj(n))
𝜕𝑦𝑗(𝑛) 𝜕𝑣𝑗(𝑛) 𝜕𝑦𝑗(𝑛)

Page 20
Avec le neurone j est dans la couche cachée

∂E(n)
Pour calculer ∂yj(n) on prend le neurone k au nœud de sortie, k représente la place
1
de j et E(n)= 2 ∑k e2k (n)

𝜕𝐸(𝑛) 𝜕𝑒𝑘 (𝑛)


=∑
𝜕𝑦𝑗(𝑛) 𝜕𝑦𝑗(𝑛)
𝑘

Notation :

ek(n)= dk(n)-yk(n) = dk(n)- fk(vk(n))

La formule finale de la rétropropagation pour le gradient local δj(n) est décrite


comme suit :

𝛿𝑗(𝑛) = 𝑓 ′ 𝑗(𝑣𝑗(𝑛)) ∑𝑘 𝛿𝑘 𝑘(𝑛)𝑤𝑘𝑗 (𝑛)

A titre de résumé

𝐶𝑜𝑟𝑟𝑒𝑐𝑡𝑖𝑜𝑛 𝑑𝑒 𝑝𝑎𝑠 𝑑′ 𝑎𝑝𝑝𝑟𝑒𝑛𝑡𝑖𝑠𝑠𝑎𝑔𝑒 𝑔𝑟𝑎𝑑𝑖𝑒𝑛𝑡 𝑙𝑜𝑐𝑎𝑙 𝑠𝑖𝑔𝑛𝑎𝑙 𝑑′ 𝑒𝑛𝑡𝑟é𝑒


( ) =( )( )( )
𝑃𝑜𝑖𝑑𝑠 ∆𝑤𝑗𝑖(𝑛) 𝜌 𝛿𝑗(𝑛) 𝑑𝑢 𝑛𝑒𝑢𝑟𝑜𝑛𝑒 𝑗𝑖(𝑛)

g. Fonction d’activation
La fonction d’activation utilisée aux perceptrons multicouches doit être continue et
différentiable. Généralement, on utilise la fonction sigmoïde non linéaire.

Elle se présente sous deux formes :

Fonction logistique :
1
fj(vj(n))= 1+𝑒𝑥𝑝(−𝑎 𝑣𝑗(𝑛)) où a>0 et −∞ < 𝑣𝑗(𝑛) < +∞

la sortie yj a pour valeur comprise entre 0 et 1 et la dérivée associée est :

𝑎 𝑒𝑥𝑝(−𝑎𝑣𝑗 (𝑛) )
f’j(vj(n))=(1+𝑒𝑥𝑝(−𝑎 𝑣𝑗(𝑛)))²

Pour un neurone j localisé dans la couche de sortie, yj(n)== Oj(n).

Page 21
Le gradient local pour le neurone j est

𝛿𝑗(𝑛) = ej(n)f’j(vj(n))=a[dj(n)-Oj(n)]Oj(n)[1-Oj(n)]

Le neurone j est un nœud de sortie Oj(n)=est le signal à la sortie du neurone j et


dj(n) est la réponse désirée.

D’autre part pour un neurone j quelconque dans la couche cachée, nous pouvons
exprimer le gradient local δj(n) comme

𝛿𝑗(𝑛) = 𝑓′𝑗 (𝑣𝑗(𝑛)) ∑𝑘 𝛿𝑘 (𝑛)𝑤𝑘𝑗 (n)

Fonction Tangente Hyperbolique

Elle est définie parf′j (vj(n))=a tanh(b vj(n)) où a >0 et b>0

En réalité une fonction tangente hyperbolique est juste une fonction logistique
biaisée.

𝑓′𝑗 (𝑣𝑗(𝑛)) = 𝑎 𝑏(1 − 𝑡𝑎𝑛ℎ2 (𝑏 𝑣𝑗(𝑛))

Pour un neurone j localisé dans la couche de sortie, le gradient local est :

𝛿𝑗(𝑛) = 𝑒𝑗(𝑛)𝑓′𝑗 (𝑣𝑗(𝑛))

Pour un neurone j dans la couche cachée, nous avons pour le neurone j caché

𝛿𝑗(𝑛) = 𝑓 ′ 𝑗 (𝑣𝑗(𝑛)) ∑ 𝛿𝑘 (𝑛)𝑤𝑘𝑗=𝑏 [∑ 𝛿𝑘 (𝑛)𝑤𝑘𝑗 ]


𝑎
𝑘 𝑘

Le pas d’apprentissage

On a vu la règle delta ∆wji(n) = ρδj(n)yi(n) et elle est modifiée comme suit

∆wji(n) = α∆wji(n − 1) + ρδj(n)yi(n) ρδj(n)yi(n) où α est généralement une


constante positive appelée constante de mouvement. Elle contrôle la boucle de
retour autour de ∆wji(n) lorsque ρ est trop grand

Page 22
Résumé : algorithme de la rétropropagation :

ETAPE 1 : Initialisation

Choisir les valeurs arbitraires pour tous les poids et les seuils. , on choisit des
valeurs petites.

ETAPE 2 : Présentation des exemples d’apprentissage

Présenter le réseau pour une époque lors de l’apprentissage dans le sens direct et
inverse décrit à l’étape 3 et 4

ETAPE 3 : Traitement dans le sens direct ( Forward Computation)

Si on considère dans une époque un couple(x(n), d(n)) avec x(n) est appliqué à la
couche d’entrée et d(n) vecteur réponse désirée à la couche de sortie, le traitement
se fait couche par couche :

Pour un neurone j dans la couche l, on a :

𝑚𝑜
(𝑙) (𝑙) (𝑙−1)
𝑣𝑗 (𝑛) = ∑ 𝑤𝑗𝑖 (𝑛)𝑦𝑖 (𝑛)
𝑖=0

(l−1)
Où yi (n) est le signal à la sortie du neurone i de la couche précédente l-1 à l’
(l)
itération n et wji (n) e le poids synaptique du neurone j dans la couche l

(l−1)
(n) = +1 et wj(l) (l)
Pour i=0 nous avons y0 i (n) = bj (n) le biais appliqué au

neurone j dans couche l

ETAPE 4 : Traitement dans le sens inverse ( Backward Computation)

(𝐿) (𝐿)
(𝑙)
𝑒𝑗 (𝑛)𝑓𝑗′ 𝑉𝑗 (𝑛) 𝑛𝑒𝑢𝑟𝑜𝑛𝑒 𝑗 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑐𝑜𝑢𝑐ℎ𝑒 𝑑𝑒 𝑠𝑜𝑟𝑡𝑖𝑒
𝛿𝑗 (𝑛)=
(𝑙+1)
(𝑛) 𝑤𝑘𝑗𝑙+1 (𝑛) 𝑛𝑒𝑢𝑟𝑜𝑛𝑒 𝑗 𝑑𝑎𝑛𝑠 𝑙𝑎𝑐𝑜𝑢𝑐ℎ𝑒 𝐿
(𝑙) ( )
{𝑓 𝑗 (𝑣𝑗(𝑛) ) ∑𝑘 𝛿𝑘

Page 23
La loi Delta généralisée est

𝑙 (𝑙) (𝑙) (𝑙−1)


𝑤𝑗𝑖(𝑛+1)= 𝑤𝑗𝑖 (𝑛) + 𝛼 [ 𝑤𝑗𝑖𝑙 (𝑛 − 1)] + 𝜌𝛿𝑗 (𝑛)𝑦𝑖 (𝑛)

avec ρ est le paramètre d′ itération et α est la constante de mouvement

ETAPE 5 : Retour à l’étape 3 tant que tous les poids ne vérifient pas tous les
exemples.

D. La carte auto-organisatrice de Kohonen

1) Présentation
L‘analyse réalisée par Kohonen apporte la méthode de classification non
supervisée.

Elle a les propriétés suivantes :

De représenter les données en conservant la topologie

Des données proches dans l’espace d’entrée vont avoir des représentations
proches dans l’espace de sortie et vont être classées dans une même classe ou
dans des classes voisines.

Un réseau de Kohonen est constitué :

- D’une couche d’entrée : tout individu à classer est représenté par un vecteur
multidimensionnel(le vecteur d’entrée). A chaque individu est affecté un
neurone qui représente le centre de la classe.
- D’une couche de sortie ou couche de compétition : les neurones de cette
couche entrent en compétition. Seuls les meilleurs gagnent : Winner Takes All
(WTA).

La Figure 9 montre la représentation graphique de l’architecture d’un Réseau de


Kohonen[8]

Page 24
Figure 9: Architecture d'un Réseau de Kohonen

A chaque neurone, on fait correspondre un espace de sortie, généralement de type


2D soit par une grille de rectangulaire soit par une grille hexagonale, soit en ficelle,
même cylindrique [10]

Figure 10 Présentation des voisin selon le type

Pour l’hexagone le neurone au milieu a 6 voisins

Pour le rectangle le neurone au milieu a 24 voisins

Pour la ficelle le neurone au centre a 4 voisins

2) Principe
Une carte auto-organisatrice est un procédé qui convertit un signal d’entrée complexe
(plusieurs variables par exemple) en une nouvelle variables catégorielle : c’est donc un
procédé de classification (modélisation non-supervisée). Les SOM sont une
généralisation de l’analyse en composantes principales. Elle fonctionne comme un
réseau de neurones sans variable cible et avec plusieurs nœuds dans la couche de
sortie. La carte structure les nœuds en sortie en classes de nœuds

Page 25
Les valeurs des nœuds de la couche d’entrée (valeurs normalisées des variables prises
en compte par le modèle) sont distribuées dans les nœuds de la couche de sortie
après transformation en fonction des pondérations du réseau : on parle de « fonction
de score ». Cette fonction est généralement une fonction de distance euclidienne. Le
nœud de sortie qui a le meilleur résultat (on dit le « meilleur score ») est le « nœud
gagnant » : il reçoit l’individu en question. Le meilleur score c’est la plus petite
distance entre les poids de connexion et les données d’entrée.

Comme dans tous les réseaux de neurones, les nœuds d’une même couche, et
particulièrement de la couche de sortie, ne sont pas reliés entre eux. Toutefois, les
poids des nœuds de voisinage du nœud gagnant sont adaptés pour favoriser leur
victoire en cas de données similaires. C’est ce qu’on appelle la coopération et
l’adaptation des nœuds de la couche de sortie. L’adaptation, c’est ce qui correspond à
l’apprentissage.

3) Algorithme d’apprentissage
L’algorithme de classement est itératif.

L’initialisation : associer à chaque classe un vecteur code dans l’espace des


observations choisi de manière aléatoire. Ensuite, à chaque étape, on choisit une
observation au hasard, on la compare à tous les vecteurs codes, et on détermine la
classe gagnante, c’est-à-dire celle dont le vecteur code est le plus proche au sens
d’une distance donnée a priori.

On rapproche alors de l’observation les codes de la classe gagnante et des classes


voisines. C’est aussi un algorithme compétitif

En premier lieu, la grille doit être initialisée de manière aléatoire. Un cycle


d’apprentissage est constitué des étapes suivantes [9]:

a) Présenter un vecteur d’entrée associé à un stimulus à la grille.

b) Trouver le nœud gagnant (ou winner). C’est l’unité dont le vecteur associé est le
plus similaire au vecteur d’entrée.

||entrée – neurone winner|| = Mini ||entrée – neurone i ||

Page 26
c) Modifier les poids Wi du nœud gagnant, ainsi que ceux de son entourage, de
manière à ce que les vecteurs associés (les vecteurs de poids) «se rapprochent
d’avantage» du vecteur d’entrée présenté à la grille.

La règle de modification est la suivante :

wi(t+1) = wi(t) + h(r,t)(pi – wi(t)) si i voisinage

wi(t+1) = wi(t) si i voisinage

Avec h(r,t) = (t).v(t)

(t) : Le taux d’apprentissage.

v(t) : la fonction de voisinage

d) Faire décroître la taille de la zone de voisinage des nœuds gagnants (la zone qui
contient les neurones subissant la transformation).

e) Faire décroître le coefficient d’apprentissage, (t), qui contrôle l’importance des


modifications appliquées aux vecteurs de poids.

f) Arrêter l’apprentissage si le coefficient d’apprentissage est nul, sinon, présenter un


autre stimulus à la grille.

IV. Conclusion
Le réseau de neurone artificiel a été étudié et mise en place afin d’imiter le
fonctionnement du cerveau naturel. Deux techniques différentes sont présentées
dans notre cas à savoir la technique de l’apprentissage supervisé, et la technique
d’apprentissage non supervisé. Dans notre cas ces deux types utilisent l’architecture
multicouche.

Page 27
. Chapitre 3 : Méthodologie

I. Introduction
Dans le cadre d’obtenir un résultat à partir de la précision sur l’état de l’art, les
éléménts suivants précisent la façon et les moyens pour classifier les types de
clients afin d’en déduire le type, les majorités , la nouvelle orientation à mettre en
place. Les apports sur la démarche en Data Mining jouent un rôle très important
dans le choix des données d’apprentissage..

II. Démarche.
La situation dans des institutions de Micro finance se présente dans diverses
positions : comme le statut d’un client donné en fonction de l’âge, le sexe, le niveau
d’études atteintes, l’activité professionnelle. A son tour, le responsable clientèle
avant de mettre fin une négociation en vue traiter un contrat doit étudier le
comportement de prétendants.

La diversification des offres apportent aussi, dans la plupart de tenter d’avoir un


maximum de nombre de contrat à signer. Par conséquent la nécessité de maîtriser
d’abord le comportement, la situation de chaque client ou chaque prétendant à fin
de les mieux gérer .

Dans ce cas nous allons adopter le moyen de traitement suivant :

1 maximiser les informations individuelles des clients

2 éliminer les exceptions ou des bruits sur ces informations

3 mettre en place les données associées pour réaliser les prétraitements : les
données de tests

4 essayer d’obtenir ou mettre en place une règle sur le résultat obtenu

5 valider le résultat obtenu par les restes des données non utilisées.

Si le résultat reste fiable utiliser ce modèle dans la suite si non apporter des
améliorations sur le prétraitement, ou modifier le principe sur la collecte des
informations. Et répéter les étapes précédentes.

Page 28
III. Les Outils et matériels
Dans le cadre de du travail, afin d’obtenir une information à propos des clients
sous forme de fichier sous Ms Excel. A partir de ces données numériques la
conversion en fonction de logiciel de traitement en fichier .arff est nécessaire pour
le cas de WEKA

La modification des types de données, au lieu de type texte nous avons les modifier
en type numérique pour que le logiciel Matlab ait la simplification sur la présentation
modifie .

A. WEKA
Weka Machine Learning Project (GNU Public License)

• Format ARFF

•Beaucoup de méthodes de classification supervisées

•Quelques méthodes de classification automatiques

•Quelques méthodes de recherches de sous-ensembles fréquents

•Fichiers de résultats standardisés

Figure 11 : L'interface principale de WEKA

WEKA est un logiciel de Datamining libre, qui peut utiliser les types de fichier
comme .arff, .csv, .data, .dat , etc…

WEKA possède quatre commandes principales pour son application à savoir :

Page 29
Explorer

Experimenter

KnowledgeFlow

Simple CLi

L’interface SimpleCli

La figure ci-dessous présente l’interface principale pour Simple Cli

Figure 12 L'interface SimpleCli de WEKA

Elle se sert pour lancer l’une des commandes proposées.

L’interface Explorer

Elle est réservée sur l’utilisation des méthodes dont l’objectif est de

Lancer une méthode à partir d’un fichier ARFF qui est le type de fichier par défaut.

Page 30
Les résultats sont mis sous la forme d’un fichier texte normalisé.

Permet de sélectionner la méthode la mieux adaptée ou la plus efficace avec de la


visualisation mutliplot.

L’interface principale est : l’onglet Preprocess précise le type de données à étudier


ensuite les types de méthode à utiliser : Classify, Cluster, Associate, Select Attributes

Figure 13 L'interface de WEKA Explorer

Un fichier .arff contient les éléments suivants :

@RELATION clientMICRO % ici le nom de la table

% les attributs de la table

@ATTRIBUTE CATEGORY_DESC {BAOBAB,SAHAZA,SANDRATRA}

@ATTRIBUTE CLIENT_AGE Numeric

@ATTRIBUTE CLIENT_GENDER {MALE,FEMALE}

@ATTRIBUTE EDUCATIONAL {SECONDAIRE ,PRIMAIRE, TECHNIQUE ,CORANIQUE, UNIVERSITAIRE }

@ATTRIBUTE RECRUITMENT String

@ATTRIBUTE SECTOR Numeric

@ATTRIBUTE SECTOR_DESC String

Page 31
@ATTRIBUTE LOAN_CYCLE Numeric

@ATTRIBUTE INTEREST_RATE Numeric

% les données

@DATA

BAOBAB,38,MALE, SECONDAIRE, 'AUTRES' , 3019,'Services-Transport passager-TaxiB',


2, 39

SANDRATRA, 56, MALE, SECONDAIRE, 'AUTRES',2012,'Production - Other',4 ,36

SANDRATRA, 31, MALE,SECONDAIRE,'BOUCHE A OREILLE', 3012, 'Services-


Transportation Mercanti', 3, 36

BAOBAB,46,MALE,SECONDAIRE,'AUTRES',3003,'Services - School, Daycare',2,39

Un fichier .arff peut être créé, modifié avec un éditeur de texte simple

Dans le cas de WEKA, le travail s’effectue avec le RNA de Type PMC .

L’interface Experimenter

• Weka Experiment Environment permet créer analyse de comparaison de méthodes


(classifiers) ou de stratégies d’utilisation de ces méthodes

• On peut sauvegarder le plan d’expérience et les résultats obtenus

• Une analyse des performances peut être faite via un tableur

Figure 14 WEKA Experiment

Page 32
L’interface KnowledgeFlow

Elle se sert de mettre en place un enchaînement de modules :

Créer les liens entre les entrées et sorties de différents modules de manipulation, de
visualisation, de décision et d’analyse.

Permet de créer un traitement complet d’analyse d’un jeu de données

Programmation « iconique »

Créer les liens entre les entrées et sorties de différents modules de manipulation, de
visualisation, de décision et d’analyse.

Permet de créer un traitement complet d’analyse d’un jeu de données

Programmation « iconique »

Son interface principale est

Figure 15 WEKA Knowledge Flow

B. Matlab
Sous Matlab, le travail s’effectue avec le ToolBoxes.

Pour pouvoir utiliser les RNA sous Matlab, nous allons travaillerons avec Neural
Network Clustering Tool : nctool. Afin de choisir Réseau Self Oraganization Maps
(SOM)

Page 33
Figure 16 NCtool de Matlab

L’utilisation de la boite à outils réservée pour le RNA, permet de configurer les


paramètres associés à une architecture donnée.

Le choix des données en entrée

Figure 17 L'accès principal de traitement

L’importation des données se présente comme suit

Page 34
Figure 18 Le choix de tableau à importer dans le traitement

IV. Conclusion
La démarche ainsi que les deux outils informatiques permettent d’apporter la
signification et la solution à adopter dans le traitement de données au point de
vue de marketing cible. L’orientation générale sur l’avenir de traiter les clients.

Les deux outils utilisent les deux types d’apprentissage : Supervisé pour le PMC et
Non Supervisé sur l’utilisation de la carte de Kohonen.

Page 35
. Chapitre 4 : Résultat et Discussion.

I. Objectifs
La mise en place du système de classification des clients en fonctions des
informations de la base, pour s’orienter de quel type de client selon le niveau
d’études, le sexe, l’âge, de trouver un compromis sur le client à cibler .

Même si on travaille dans le secteur financier les clients cibles sont dans le
domaine de secteur privé et non pour les salariés mensuels, dont l’activité
principale est souvent le transport soit : le TAXI BE, TAXI, Taxi Brousse, Location de
voiture, Transport écolier.

Les données associées décrivent en trois fichiers différents.

Le client

Le contrat

Les paiements effectués

II. Résultats

1. Utilisation de WEKA
Premier Essai

Visualisation des données d’apprentissage dans Weka

La capture d’écran suivante montre la répartition dans le modèle de données


d’apprentissage avec leurs répartitions respectives en fonctions de niveau d’études
Educational, le Sexe Client_Gender, l’âge Client_age.

Page 36
Figure 19 Visualisation global de chaque variable

La visualisation permet aussi d’avoir les informations dans l’ensemble

Figure 20 Visualisation de possibilité entre variables

Page 37
Ensuite la classification en utilisant le PMC

Scheme: weka.classifiers.functions.MultilayerPerceptron -L 0.3 -M 0.2 -N 500 -V 0 -


S 0 -E 20 -H a

Relation: clientMICRO-weka.filters.unsupervised.attribute.Remove-R9-
weka.filters.unsupervised.attribute.Remove-R8-
weka.filters.unsupervised.attribute.Remove-R7-
weka.filters.unsupervised.attribute.Remove-R5-
weka.filters.unsupervised.attribute.Remove-R5
Instances: 50

Attributes: 4

CATEGORY_DESC

CLIENT_AGE

CLIENT_GENDER

EDUCATIONAL

Test mode: evaluate on training data

=== Classifier model (full training set) ===

Sigmoid Node 0

Inputs Weights

Threshold -5.408245352235862

Node 5 -0.2878734939152444

Node 6 4.572773758988021

Node 7 1.8518219611823692

Node 8 0.5715784546408248

Node 9 1.2714318858288984

Sigmoid Node 1

Inputs Weights

Page 38
Threshold 5.071598408729493

Node 5 -0.2998923216246794

Node 6 -5.256453134381382

Node 7 -0.7701608437635081

Node 8 -1.1725942289657

Node 9 -1.3188158747201735

Sigmoid Node 2

Inputs Weights

Threshold -2.719237897768886

Node 5 -0.5207787325770364

Node 6 1.1589687133065827

Node 7 -2.0915560182095434

Node 8 0.7003933328067489

Node 9 -0.0987917130066498

Sigmoid Node 3

Inputs Weights

Threshold -2.770649392289135

Node 5 -0.4239704325962934

Node 6 0.3127745961552731

Node 7 -1.1227685620178767

Node 8 0.5885618626608037

Node 9 -0.370370033723459

Sigmoid Node 4

Inputs Weights

Threshold -2.8042442263852374

Page 39
Node 5 -1.0592100677916751

Node 6 -1.2274830661002303

Node 7 -1.202336277886075

Node 8 -1.0777756260119595

Node 9 -1.120293247048591

Sigmoid Node 5

Inputs Weights

Threshold -1.1880916596702857

Attrib CATEGORY_DESC=BAOBAB 0.49389241992495797

Attrib CATEGORY_DESC=SAHAZA 0.8225704399486811

Attrib CATEGORY_DESC=SANDRATRA -0.16877034060738338

Attrib CLIENT_AGE 0.05127712291626218

Attrib CLIENT_GENDER -0.15254591109894616

Sigmoid Node 6

Inputs Weights

Threshold 2.7446642198022975

Attrib CATEGORY_DESC=BAOBAB 1.7004239589912056

Attrib CATEGORY_DESC=SAHAZA -3.778932050923477

Attrib CATEGORY_DESC=SANDRATRA -0.6860595289031948

Attrib CLIENT_AGE -10.245904520122503

Attrib CLIENT_GENDER -4.763584892646667

Sigmoid Node 7

Inputs Weights

Threshold 1.0717865159909983

Attrib CATEGORY_DESC=BAOBAB 1.538376039742803

Page 40
Attrib CATEGORY_DESC=SAHAZA -1.4435356271061792

Attrib CATEGORY_DESC=SANDRATRA -1.1357069396253727

Attrib CLIENT_AGE 3.930561785305005

Attrib CLIENT_GENDER 1.4255590717195903

Sigmoid Node 8

Inputs Weights

Threshold -1.0804789489079145

Attrib CATEGORY_DESC=BAOBAB 1.079908203330821

Attrib CATEGORY_DESC=SAHAZA 0.3312498460729841

Attrib CATEGORY_DESC=SANDRATRA -0.4129880076586117

Attrib CLIENT_AGE 1.7459272654032303

Attrib CLIENT_GENDER -2.6662713922840533

Sigmoid Node 9

Inputs Weights

Threshold -1.5856777890091864

Attrib CATEGORY_DESC=BAOBAB -0.40846738814765093

Attrib CATEGORY_DESC=SAHAZA 1.1454729609871028

Attrib CATEGORY_DESC=SANDRATRA 0.8711908766742175

Attrib CLIENT_AGE 3.14246818208114

Attrib CLIENT_GENDER -1.0304492529114242

Class SECONDAIRE

Input

Node 0

Class PRIMAIRE

Input

Page 41
Node 1

Class TECHNIQUE

Input

Node 2

Class CORANIQUE

Input

Node 3

Class UNIVERSITAIRE

Input

Node 4

Time taken to build model: 0.34 seconds

=== Evaluation on training set ===

=== Summary ===

Correctly Classified Instances 35 70 %

Incorrectly Classified Instances 15 30 %

Kappa statistic 0.2871

Mean absolute error 0.1669

Root mean squared error 0.2858

Relative absolute error 74.9955 %

Root relative squared error 87.4334 %

Total Number of Instances 50

=== Detailed Accuracy By Class ===

TP Rate FP Rate Precision Recall F-Measure ROC Area Class

0.968 0.737 0.682 0.968 0.8 0.765 SECONDAIRE

0.357 0.028 0.833 0.357 0.5 0.777 PRIMAIRE

Page 42
0 0 0 0 0 0.784 TECHNIQUE

0 0 0 0 0 0.828 CORANIQUE

0 0 0 0 0 ? UNIVERSITAIRE

Weighted Avg. 0.7 0.465 0.656 0.7 0.636 0.772

=== Confusion Matrix ===

a b c d e <-- classified as

30 1 0 0 0 | a = SECONDAIRE

9 5 0 0 0 | b = PRIMAIRE

3 0 0 0 0 | c = TECHNIQUE

2 0 0 0 0 | d = CORANIQUE

0 0 0 0 0 | e = UNIVERSITAIRE

=== Run information ===

Scheme: weka.classifiers.functions.MultilayerPerceptron -L 0.3 -M 0.2 -N 500 -V 0 -


S 0 -E 20 -H a

Relation: clientMICRO-weka.filters.unsupervised.attribute.Remove-R2-4,7-9

Instances: 50

Attributes: 3

CATEGORY_DESC

RECRUITMENT

SECTOR

Test mode: 10-fold cross-validation

=== Classifier model (full training set) ===

Sigmoid Node 0

Inputs Weights

Threshold -0.7716227197131299

Page 43
Node 7 1.235825695507246

Node 8 -0.8884314890616969

Node 9 -1.3400402450697344

Node 10 -1.11954016316131

Node 11 -0.7816382516972878

Sigmoid Node 1

Inputs Weights

Threshold -0.9963910092622584

Node 7 -2.183612626038378

Node 8 -0.35577118096711946

Node 9 3.615027321024749

Node 10 -0.542550389621681

Node 11 0.37208140751098673

Sigmoid Node 2

Inputs Weights

Threshold -1.7060139220484647

Node 7 2.149843963545949

Node 8 0.15502099673465536

Node 9 -3.720016801609955

Node 10 -0.9928107941807267

Node 11 1.5950344516330066

Sigmoid Node 3

Inputs Weights

Threshold -1.5092330765662003

Node 7 -1.1845892248215222

Page 44
Node 8 0.3558866298781405

Node 9 -2.1048608433220153

Node 10 -1.0874029014364237

Node 11 -1.1119602793199481

Sigmoid Node 4

Inputs Weights

Threshold -1.655774610255317

Node 7 -0.6700204639385505

Node 8 -1.9511030249833754

Node 9 -0.26352731137190444

Node 10 -0.34594541114027944

Node 11 -0.9422850010867798

Sigmoid Node 5

Inputs Weights

Threshold -1.5286637117262107

Node 7 -0.5088883693828112

Node 8 0.25181736228181434

Node 9 -0.44423451288669824

Node 10 -1.1201682960129673

Node 11 -1.1087909265630964

Sigmoid Node 6

Inputs Weights

Threshold -2.578137630324142

Node 7 -1.1919173433514676

Node 8 -1.4279916824152585

Page 45
Node 9 -1.1085585355029552

Node 10 -1.1538393880874118

Node 11 -1.0912414955351357

Sigmoid Node 7

Inputs Weights

Threshold -1.0321155559640847

Attrib CATEGORY_DESC=BAOBAB -0.9351466577428659

Attrib CATEGORY_DESC=SAHAZA -0.49788264516984293

Attrib CATEGORY_DESC=SANDRATRA 2.496064847879049

Attrib SECTOR -0.17783087665598574

Sigmoid Node 8

Inputs Weights

Threshold -1.048932599508355

Attrib CATEGORY_DESC=BAOBAB 1.5568978003897518

Attrib CATEGORY_DESC=SAHAZA -0.7879485594117396

Attrib CATEGORY_DESC=SANDRATRA 0.19767445136762185

Attrib SECTOR -2.469084171821838

Sigmoid Node 9

Inputs Weights

Threshold -0.20862847601036796

Attrib CATEGORY_DESC=BAOBAB -3.0752379947120443

Attrib CATEGORY_DESC=SAHAZA 3.2739739296326786

Attrib CATEGORY_DESC=SANDRATRA 0.032411201594207614

Attrib SECTOR 3.2922554180481387

Sigmoid Node 10

Page 46
Inputs Weights

Threshold -0.8141583765585849

Attrib CATEGORY_DESC=BAOBAB -0.06868438482491179

Attrib CATEGORY_DESC=SAHAZA 1.1303035540868624

Attrib CATEGORY_DESC=SANDRATRA -0.23746501622626998

Attrib SECTOR 0.8959307878763888

Sigmoid Node 11

Inputs Weights

Threshold -1.2898031471049607

Attrib CATEGORY_DESC=BAOBAB -1.1783170744639315

Attrib CATEGORY_DESC=SAHAZA 1.7625939699232183

Attrib CATEGORY_DESC=SANDRATRA 0.6597516766655427

Attrib SECTOR -1.7458748264964876

Class AUTRES

Input

Node 0

Class BO

Input

Node 1

Class VISITE

Input

Node 2

Class RTV

Input

Node 3

Page 47
Class PUBLICITY

Input

Node 4

Class PROSPECTUS

Input

Node 5

Class ROADSHOW

Input

Node 6

Time taken to build model: 0.32 seconds

=== Stratified cross-validation ===

=== Summary ===

Correctly Classified Instances 12 24 %

Incorrectly Classified Instances 38 76 %

Kappa statistic -0.0544

Mean absolute error 0.2321

Root mean squared error 0.3535

Relative absolute error 100.9825 %

Root relative squared error 104.3984 %

Total Number of Instances 50

Page 48
=== Detailed Accuracy By Class ===

TP Rate FP Rate Precision Recall F-Measure ROC Area Class

0.182 0.308 0.143 0.182 0.16 0.131 AUTRES

0.588 0.606 0.333 0.588 0.426 0.49 BO

0 0.068 0 0 0 0.303 VISITE

0 0.044 0 0 0 0.391 RTV

0 0 0 0 0 0.372 PUBLICITY

0 0.023 0 0 0 0.295 PROSPECTUS

0 0 0 0 0 0.255 ROADSHOW

Weighted Avg. 0.24 0.289 0.145 0.24 0.18 0.341

=== Confusion Matrix ===

a b c d e f g <-- classified as

2 8 1 0 0 0 0 | a = AUTRES

5 10 1 1 0 0 0 | b = BO

3 2 0 1 0 0 0 | c = VISITE

1 3 0 0 0 1 0 | d = RTV

2 2 0 0 0 0 0 | e = PUBLICITY

1 4 1 0 0 0 0 | f = PROSPECTUS

0 1 0 0 0 0 0 | g = ROADSHOW

2. Utilisation de Matlab
L’utilisation nntraintool de Matlab nous permet aussi de réaliser la classification
des informations.

L’interface de traitement afin de récupérer les graphes de résultats.

Les trois figures ci-dessous apportent des informations :

Page 49
La distance voisine des poids de chaque sortie à fin de voir la stabilité sur les
valeurs de sortie calculée

Figure 21 Utilisation nntraitool

Figure 22 SOM Neighbor Weight Distances

Page 50
Les poids résultants de chaque nœud en entrée pour passer à la couche de sortie.

Figure 23 SOM Weights planes

Figure 24 SOM Sample Hits

Page 51
La valeur 1 signifie que le type de souscription est le baobab

La valeur 2 signifie que le type de souscription est le sandratra

La valeur 3 signifie que le type de souscription est le sahaza

III. Discussion
Notre discussion s’oriente vers la situation de connaissances acquises à propos de
l’utilisation Data Mining afin d’apporter une nouvelle orientation et nouvelle vision
sur la population cible

L’utilisation de Perceptron Multicouches dans WEKA nous permet de tirer la nouvelle


connaissance à propos des clients ciblés sont au niveau d’études secondaire même
sans baccalauréat, et en plus les diplômés de l’université ont de pourcentage très
faibles sur la souscription aux offres proposés par l’institution et par conséquent
dans notre vie quotidienne la création d’entreprise sur les nouveaux diplômés
reste toujours un handicap pour notre pays

Sur la classification au point de vue de l’âge sur la visualisation des données est de
30 à 45 qui signifie que ce sont des personnes qui ont besoin de travailler et en
plus selon leurs niveaux d’études , ces clients ont eu la moindre chance d’être
recruté dans les entreprises, les usines..

Sur l’information concernant le recrutement c’est à dire la source d’information


que le client a eu la possibilité de souscrire, est le BO =Bouche à Oreilles donc la
direction ou le service marketing doit changer de méthode.

Page 52
. Conclusion Générale

La science cognitive utilise des informations en fonction du domaine avec lequel


on travaille.

La pratique du Data Mining dans les entreprises joue un rôle très important non
seulement en tant que outils de voir les causes d’une situation actuelle mais aussi
de prédire l ‘avenir de l’entité concernée.

La démarche utilisée respecte les cinq éléments présentés par CRISP-DM, les
difficultés rencontrées tout d’abord lors de la mise en place des données
d’apprentissage, l’acceptation des modèles, ensuite l’interprétation sur les résultats
de calcul informatique .

Dans notre cas, l’analyse apportée par les outils informatiques à savoir le WEKA
un logiciel de Data Mining avec l’apprentissage supervisé du Réseau de Neurones
de type Perceptron Multicouches ainsi que l’utilisation de Matlab pour la
classification non supervisé du Réseau de Neurones de type SOM de Kohonen
permettent de voir l’acquisition des nouvelles connaissances suivantes :

Les clients ont de niveau d’études Secondaire

Les clients ont de l’âge productive dont les usines et les industries on en a
besoin

Les universitaires ne s’intéressent pas en général sur les micros finances et dans
ce cas le nombre d’industrialisation ainsi que la mise en place des PMI PME dans
notre pays reste toujours un obstacle.

La technique de vente qui est associée à la technique de communication


marketing reste encore inefficace la principale ressource d’information utilisée par
les clients est la technique de Bouche à Oreilles.

La répartition des secteurs d’activités au lieu de traiter tout simplement le


secteur transport, les autres secteurs d’activités doivent être aussi sollicités.

Page 53
A l’avenir la mise en place d’un outil particulier réservé pour une institution
financière sera nécessaire car la plupart de nos institutions financières est tout
simplement une copie de ce qui est implantée en Afrique ou en Europe.

Ensuite l’optimisation des traitements sur l’utilisation des RNA au point de vue
complexité des algorithmes et durée de l’apprentissage restent encore un projet
de recherche pour les chercheurs.

L’optimisation des algorithmes de Data Mining avec les Réseaux de Neurones


Artificiels comme AdaBoost, Learn++ est nécessaire pour ne pas rester tout
simplement dans les résultats standards.

Page 54
. Bibliographie
[1] Bertrand LIAUDET -Cours de Data Mining- Modélisations réseaux de neurones et
de Kohonen - EPF -4/5 Option Ingénierie d’Affaires et de Projets 2008

[2]Rudy DELACAMBRE- Les algorithmes de fouille de données- CNAM 2005

[3]Talbi E-G – Fouille de données Data Mining un tour d’horizon- Laboratoire


d’informatique Fondamentale de Lille 2000

[4] Gilbert SAPORTA –Introduction au Data Mining et à l’apprentissage statistique-


CNAM 2012

[5]Boussaidi ABDELLAH, Ismaïl CHAÏB-Introduction au Data Mining Concept et


Technique ESI 2009

[6] Ricco RAKOTOMALALA, Apprentissage Supervisé- Université Lyon 2 2003

[7]Ricco RAKOTOMALALA - Réseaux de neurones artificiels Perceptron Simple et


multicouches - Université Lyon 2 2003

[8]Canu S. –Réseaux de neurones artificiels : la rétropropagation du gradient-


Laboratoire PSI- INSA de Rouen

[9]Benoît DECOUX -Neurocomputing- Réseaux de Neurones- 2008

[10] Ela Righi, Techniques de DM pour la GRC dans les banques 2015
Auteur : RAKOTOMANANA René

Adresse : Lot III O 76 Ambohijanahary 101 Antananarivo

Tél : (+261) 32 04 862 27

E-mail : [email protected]
Titre :

Utilisation des Réseaux de Neurones Artificiels en Data Mining pour classifier les
clients dans une institution de Micro Finance

Résumé:

Le présent mémoire traite le moyen pour utiliser en Data Mining les Réseaux de
Neurones Artificiels dont le but est de classifier les clients afin de mettre en place
une nouvelle connaissance à utiliser dans le futur. Deux types de Réseaux de
Neurones artificiels sont utilisés : Le perceptron Multicouches pour l’apprentissage
supervisé et la carte de Kohonen pour l’apprentissage non supervisé.

Mots clés:

Data Mining, Apprentissage, Réseau de Neurones Artificiels, Perceptron Multicouches,


Carte de Kohonen

Abstract

The present memory treat the theme using an Neural Network Artificial as a classifier
on Data mining to give and purpose a new knowledge to manage clients. Two
types of Neural Network are used: the Perceptron Multilayer with supervised learning
and Kohonen Maps with unsupervised learning.

Keywords

Data Mining, Learning, Neural Network Artificial, Multilayer Perceptron, Kohonen


Maps

Nombre de pages : 54

Nombre de figures : 24

Vous aimerez peut-être aussi