0% ont trouvé ce document utile (0 vote)
15 vues3 pages

TP 11 ML

Ce document présente un TP sur les réseaux de neurones artificiels, spécifiquement l'implémentation d'une régression logistique par descente de gradient. Il fournit des données d'apprentissage et des instructions pour initialiser les paramètres, implémenter des fonctions nécessaires, et analyser l'impact du taux d'apprentissage sur la convergence. Les étudiants doivent également expérimenter avec différentes fonctions d'activation.

Transféré par

MuR max
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
15 vues3 pages

TP 11 ML

Ce document présente un TP sur les réseaux de neurones artificiels, spécifiquement l'implémentation d'une régression logistique par descente de gradient. Il fournit des données d'apprentissage et des instructions pour initialiser les paramètres, implémenter des fonctions nécessaires, et analyser l'impact du taux d'apprentissage sur la convergence. Les étudiants doivent également expérimenter avec différentes fonctions d'activation.

Transféré par

MuR max
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ENSAO GI4 TP : MACHINE LEARNING

Université Mohammed Premier


École Nationale des Sciences Appliquées
Filière Génie Informatique

TP : Machine Learning
Partie 11 : Réseaux de neurones artificiels
Exercice : Implémentation d’une régression logistique (perceptron à sigmoïde)
par descente de gradient

Soit le modèle, la fonction coût et les formules de mise à jour suivants:

On vous donne m = 5 exemples d’apprentissage ( x(i) = (x1,x2) , y(i) ) :


i x1(i) x2(i) y(i)
1 0 0 0
2 0 1 0
3 1 0 1
4 1 1 1
5 2 1 1

ZAKARIA HAJA 1 2024/2025


ENSAO GI4 TP : MACHINE LEARNING

Initialisez les paramètres ainsi :


 w1(0) =0.1
 w2(0) =−0.2
 b(0) =0.0
 taux d’apprentissage α=0.1
 nombre d’itérations : 100
Pour accélérer le calcul, considérons cette vectorisation d'équations :

ZAKARIA HAJA 2 2024/2025


ENSAO GI4 TP : MACHINE LEARNING

1. Implémentez les fonctions suivantes :


 sigmoid(z)
 compute_cost(X, Y, w, b)
 compute_gradients(X, Y, w, b)
 gradient_descent(X, Y, w, b, alpha, num_iters)
2. Vérifiez que vos gradients sont raisonnables (par exemple en calculant
numériquement la dérivée pour une ou deux composantes).
3. Lancez la descente de gradient sur les 100 itérations ; tracez :
 L’évolution de la fonction coût en fonction du nombre d’itérations,
 La frontière de décision dans le plan montrant vos points d’entraînement.
4. Quel est l’impact de α (ex. 0.01, 1) sur la vitesse et la stabilité de convergence ?
5. Remplacez la sigmoïde par une autre fonction (ex: tanh ou ReLU), et ajustez la
fonction de coût si nécessaire.

ZAKARIA HAJA 3 2024/2025

Vous aimerez peut-être aussi