0% ont trouvé ce document utile (0 vote)
13 vues43 pages

Cours 3

Le document traite du système nerveux et de la transmission des messages nerveux par le biais de potentiels d'action, en mettant l'accent sur les concepts d'habituation et de sensibilisation. Il explore également les modèles de neurones formels, notamment le perceptron, et les différentes fonctions de transfert utilisées dans les réseaux de neurones. Enfin, il aborde les architectures de réseaux, y compris les perceptrons multicouches et les réseaux à connexions récurrentes.

Transféré par

hichambed
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PPTX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
13 vues43 pages

Cours 3

Le document traite du système nerveux et de la transmission des messages nerveux par le biais de potentiels d'action, en mettant l'accent sur les concepts d'habituation et de sensibilisation. Il explore également les modèles de neurones formels, notamment le perceptron, et les différentes fonctions de transfert utilisées dans les réseaux de neurones. Enfin, il aborde les architectures de réseaux, y compris les perceptrons multicouches et les réseaux à connexions récurrentes.

Transféré par

hichambed
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PPTX, PDF, TXT ou lisez en ligne sur Scribd

Message nerveux

Le système nerveux travaille avec un codage en


fréquence.

Fréquence : C'est le nombre de potentiel d'action par


seconde
Les variations de fréquence qui code l'information.
Un potentiel d'action isolé ne signifie rien.

1
Message nerveux

Les messages transmis lors de mouvements du coude


permettent de connaitre en fonction de la fréquence :
La valeur de l'angle et en fonction des variations de
fréquences

2
Habituation

• Elle consiste à reconnaître, puis à ignorer, des

stimuli sans importances qui se répètent de façon


monotone.

Aplysie ou limace de mer 3


Habituation

 Le neurone sensoriel est activé par le


toucher du manteau.
 Le neurone moteur agit alors en
rétractant les branchies.
 Lorsque la stimulation est répétée, la
réponse de l'animal devient plus faible,
jusqu'à une absence de réaction au
toucher.
C'est le phénomène de
4
l'habituation
Habituation

5
Sensibilisation

 Si l'on répète la même expérience en créant après


chaque stimulation du manteau un courant d'eau
violent qui risque d'endommager les branchies.
 On observe alors l'effet inverse. La réponse de
l'animal au stimulus initial est augmentée.
Cet effet est appelé sensibilisation.

6
Sensibilisation

7
Modification synaptique

 Habituation et sensibilisation au niveau


neuronal traduisent la fonction d'apprentissage
au niveau de l'animal.
 Il y a adaptation de la réponse à
l'environnement.
 L'observation des synapses par le microscope
électronique montre des modifications
physiques.

8
Modification synaptique

a) Témoin.
b) Habituation : diminution du nombre de vésicules et du nombre de
récepteurs.
9
c) Sensibilisation : augmentation du nombre de vésicules et de récepteurs.
Du neurone biologique au
neurone formel

Points «faibles» :
 L'activité d'un neurone se mesure en fonction de la
fréquence du train de potentiels d'actions (spikes)
propagés sur l'axone:
 Fréquence inférieure à 300 Hz.
Très lent comparé aux circuits électroniques
modernes.

10
Du neurone biologique au
neurone formel

Points «forts» :
 Agencements de connexions inter-neurales
complexes : une seule cellule nerveuse peut
entretenir des milliers de connections.
 Parallélisme massif: l'information est traitée de
manière continue, selon plusieurs voies en
parallèle (traitement asynchrone).
 La synapse peut s'adapter et faciliter ou non le
passage de l'information : apprentissage
11
Neurone formel (artificiel)

 Chaque neurone artificiel est un processeur


élémentaire.
 Il reçoit un nombre variable d'entrées (neurones
amonts).
 Chacune de ces entrées est associée un poids w.
 Chaque processeur élémentaire est doté d'une sortie
unique, pour alimenter un nombre variable de
neurones avals.

12
Modèle de McCullochs et Pitts
(1943)

 Un modèle simple de neurone formel. Il s'agit


d'un neurone binaire, c'est-à-dire dont la sortie
vaut 0 ou 1.
 Pour calculer la sortie, le neurone effectue une
somme pondérée de ses entrées puis applique
une fonction d'activation à seuil.
Warren McCullochs
 Si la somme pondérée dépasse une certaine
valeur, la sortie du neurone est 1, sinon elle
vaut 0.

13
Modèle de Rosenblatt, 1950

Le perceptron de Rosenblatt, 1950

Rosenblatt
f

14
Modèle de Rosenblatt, 1950

 Le neurone reçoit les entrées X1, X2, ... , XN et


calcule le potentiel p comme la somme pondérée
des entrées :
p=X1W1+X2W2+...+XNWN
 Ensuite, une décision est prise pour calculer la
sortie s en fonction du seuil θ:
si p≥θ alors s=+1
sinon s= -1,
Ce qui revient à tester la différence ( p−θ )≥0
15
Modèle de Rosenblatt, 1950

Fonction de décision discrète

La fonction de décision f du neurone est une fonction à


seuil :
s=f(p)
s=signe(p−θ)

16
Modèle de Rosenblatt, 1950

 Ce que fait le neurone est de transformer les


entrées X en fonction de la sortie Y par adaptation
des poids synaptiques W : Y = W X
 La mémoire du neurone est contenue dans les
poids synaptiques. L'information est distribuée
dans toutes les synapses. 17
Exemples

Exemple 1
 Sachant que les poids d’un neurone à deux

entrées sont les suivants : w1 = 0.5, w2= 0.2


 Et que la valeur de seuil est S =0.1, déterminez
son comportement. (les entrées prennent la
valeur 1 ou 0)
Exemple 2
Même question avec w1 = -0.5, w2= -0.2 et S =-0.1
Exemple 3
Même question avec w1 = -0.5, w2= -0.2 et S =-0.4 18
Fonctions de transfert

Il existe de nombreuses formes possibles pour la


fonction de transfert. Les plus courantes sont :

oFonction à seuil
oFonction linéaire
oFonction sigmoïde
oFonction tangente hyperbolique

19
Fonctions à seuil

La sortie peut avoir deux états distincts (-1 et


+1) selon le dépassement d’un Seuil
S = f(p)
+1

SEUIL p

-1
20
Fonctions à seuil

La fonction de Heaviside
La fonction de Heaviside (fonction échelon, fonction
marche d'escalier) est une fonction H discontinue
prenant la valeur 0 pour tous les réels négatifs et la
valeur 1 partout ailleurs :
S = H(p)
+1

-1 21
Fonctions à seuil

Fonction Signe
La fonction signe, est une fonction mathématique qui extrait
le signe d'un nombre réel, c'est-à-dire que l'image d'un nombre par cette
application est 1 si le nombre est positif, et -1 si le nombre est négatif.
S = f(p)

+1

-1
22
Fonction linéaire

Fonction linéaire (identité)


La fonction identité est l'application qui n'a
aucun effet lorsqu'elle est appliquée à un
élément : elle renvoie toujours la valeur qui est
S = f(p)
utilisée comme argument.

23
Fonction linéaire

Fonction linéaire par morceaux (linéaire


saturée) :
S = f(p)
+1

1 p

-1

24
Fonction linéaire

Fonction linéaire par morceaux symétrique :

S = f(p)
+1

-1 1 p

-1

25
Fonction linéaire

Linéaire
positive
S = f(p)

26
Fonction sigmoïde

La fonction sigmoïde (dite aussi courbe en S) est définie par :

pour tout réel


Le nom de « sigmoïde » lui vient de sa forme en S.
S = f(p)

+1

-1 27
Tangente
hyperbolique

Définie par :

S = f(p)

+1

-1 28
La fonction Softmax

La fonction Softmax permet de transformer un


vecteur réel en un vecteur de probabilité.
On l’utilise souvent dans la couche finale d’un modèle
de classification, notamment pour les problèmes
multi-classes.

29
Architecture de réseau

Structure d'interconnexion

 Les connexions entre les neurones qui composent le


réseau décrivent la topologie du modèle.
 Généralement les neurones sont arrangés par couche.

 On appelle couche d'entrée l'ensemble des neurones


d'entrée
 Couche de sortie l'ensemble des neurones de sortie.
 Les couches intermédiaires n'ayant aucun contact
30
avec l'extérieur sont appelés couches cachées.
Les réseaux "Feed-
forward"

 Ce sont des réseaux dans les quels


l'information se propage de couche en couche
sans retour en arrière possible.
 On distingue alors :
 Perceptron monocouche
 Perceptron multicouche (PMC)

31
Perceptron monocouche

Comme leur nom l'indique, ces types de réseaux


sont constitués d'une seule couche. De plus, ces
réseaux sont linéaires.

32
Perceptron multicouche(PMC)

Les neurones sont arrangés par couche. Il n'y a pas de


connexion entre neurones d'une même couche et les
connexions ne se font qu'avec les neurones des couches
avales.

33
Perceptron multicouche(PMC)

Multicouche, en cascade

y1 d1
x1

x2 y2 d2

entrée cachée sortie

34
Perceptron multicouche(PMC)

Multicouche, en cascade, partiel

Champ
récepteur
de i i

35
Perceptron multicouche(PMC)

 On trouve aussi d’autre réseaux qui possèdent la même


architecture que le PMC mais avec quelques
particularités :
par exemple :
PMC a connexion locale : Il s'agit d'une structure
multicouche, mais qui à l'image de la rétine, conserve
une certaine topologie.

36
Les réseaux ‘Feed back’

Ce sont des réseaux dans les quels l'information se


propage de couche en couche avec retour en arrière
possible.
Réseau à connexions récurrentes :
Les connexions récurrentes ramènent l'information en
arrière par rapport au sens de propagation défini dans
un réseau multicouche.

37
Les réseaux ‘Feed back’

Réseau à connexion complète : c'est la structure


d'interconnexion la plus générale.
Chaque neurone est connecté à tous les neurones
du réseau.

38
Exercice
(fonctions logiques)

Considérons par exemple un neurone formel à deux


entrées (x1 et x2) dont on fixe les poids synaptiques
à 1. Déterminez son comportement en fonction de la
valeur du seuil Ɵ. (le neurone réalise un OU logique
ou un ET logique…).
On considère que les entrées peut prendre la valeur
0 ou 1
Et la sortie égale à 1 lorsque la somme pondérée
39
égale Ɵ
Exercice
(fonctions logiques)

On distingue quatre cas, selon la valeur de Ɵ


 Si la seuil est négative Ɵ≤0 la sortie du neurone vaut
toujours 1.
 Si 0< Ɵ ≤ 1 la table devient :

x1 x 2 0 1
0 0 1 Le neurone calcule donc un OU logique
1 1 1

40
Exercice
(fonctions logiques)

 Si 1< Ɵ ≤ 2 la table devient :


x1 x 2 0 1
0 0 0 Le neurone calcule donc un ET logique
1 0 1

 Si Ɵ >2 , le neurone donne toujours 0.

Par le même type de raisonnement, on constate


qu'un neurone à une entrée peut n'avoir aucun effet
(neurone identité) ou réaliser un NON logique.
41
Exercice
(fonctions logiques)

Les entrés prennent la valeur 1 ou -


1

X1 1 Ɵ=1

Y
1
X2

42
Exercice
(fonctions logiques)

Les entrés prennent la valeur 1 ou -


1

? Ɵ=-1,5
X1
Y

X2


43

Vous aimerez peut-être aussi