ENSAO GI4 TP : MACHINE LEARNING
Université Mohammed Premier
École Nationale des Sciences Appliquées
Filière Génie Informatique
TP : Machine Learning
Partie 11 : Réseaux de neurones artificiels
Exercice : Implémentation d’une régression logistique (perceptron à sigmoïde)
par descente de gradient
Soit le modèle, la fonction coût et les formules de mise à jour suivants:
On vous donne m = 5 exemples d’apprentissage ( x(i) = (x1,x2) , y(i) ) :
i x1(i) x2(i) y(i)
1 0 0 0
2 0 1 0
3 1 0 1
4 1 1 1
5 2 1 1
ZAKARIA HAJA 1 2024/2025
ENSAO GI4 TP : MACHINE LEARNING
Initialisez les paramètres ainsi :
w1(0) =0.1
w2(0) =−0.2
b(0) =0.0
taux d’apprentissage α=0.1
nombre d’itérations : 100
Pour accélérer le calcul, considérons cette vectorisation d'équations :
ZAKARIA HAJA 2 2024/2025
ENSAO GI4 TP : MACHINE LEARNING
1. Implémentez les fonctions suivantes :
sigmoid(z)
compute_cost(X, Y, w, b)
compute_gradients(X, Y, w, b)
gradient_descent(X, Y, w, b, alpha, num_iters)
2. Vérifiez que vos gradients sont raisonnables (par exemple en calculant
numériquement la dérivée pour une ou deux composantes).
3. Lancez la descente de gradient sur les 100 itérations ; tracez :
L’évolution de la fonction coût en fonction du nombre d’itérations,
La frontière de décision dans le plan montrant vos points d’entraînement.
4. Quel est l’impact de α (ex. 0.01, 1) sur la vitesse et la stabilité de convergence ?
5. Remplacez la sigmoïde par une autre fonction (ex: tanh ou ReLU), et ajustez la
fonction de coût si nécessaire.
ZAKARIA HAJA 3 2024/2025