Corrigé du Devoir de Contrôle
Matière : Intelligence Artificielle
Classe : GEA2
Enseignant : Mr. ZAIED
Date : 11/04/2025
Exercice 1 : Régression Logistique (10 pts)
Contexte : Une entreprise souhaite détecter les transactions frauduleuses. Chaque
transaction est caractérisée par deux variables :
- x1 : Montant (en milliers de dinars)
- x2 : Heure de la transaction (0 à 23)
- y = 1 si transaction frauduleuse, 0 sinon
Q1. Théorie
a) Fonction hypothèse :
h_w(x) = 1 / (1 + exp(-z)) où z = w^T * x = w0 + w1*x1 + w2*x2
b) Interprétation : h_w(x) = 0.9 signifie que la probabilité que la transaction soit frauduleuse
est de 90 %.
Q2. Frontière de décision
a) Frontière : z = 0, donc w0 + w1*x1 + w2*x2 = 0
b) Avec w = [-4, 3, 0.2] ⇒ -4 + 3x1 + 0.2x2 = 0 ⇒ x2 = -15x1 + 20
c) Tracer les points : (0.4, 22), (0.1, 23), (1.2, 3), (0.2, 13) et la droite x2 = -15x1 + 20
Q3. Application numérique
a) x = [1, 0.4, 22] ⇒ z = 1.6 ⇒ h_w(x) ≈ 0.832 ⇒ prédiction : frauduleuse
b) x = [1, 0.1, 10] ⇒ z = -1.7 ⇒ h_w(x) ≈ 0.154 ⇒ pas frauduleuse
c) Bonnes performances sur les exemples donnés.
Q4. Stratégie d’apprentissage
a) Étapes : Initialisation, choix de la fonction coût, descente de gradient, mise à jour des
poids.
b) Si données déséquilibrées, le modèle peut toujours prédire la classe majoritaire ⇒ biais.
Q5. Évaluation
a) Trois métriques : précision, rappel, exactitude.
b) Précision seule peut être trompeuse si classe majoritaire.
c) Exemple : précision = 80 %, rappel = 50 %, accuracy = 90 % ⇒ bon en général, mais faible
capacité à détecter les fraudes.
Exercice 2 : Régression Linéaire (10 pts)
Q1. Théorie
a) h_w(x) = w0 + w1*x
b) J(w) = (1/2m) Σ (h_w(x) - y)^2
c) Convexité assure un minimum global ⇒ convergence garantie.
Q2. Descente de gradient
a) w = [0, 0], α = 0.01, exemple x = 1, y = 470 :
z = 0 ⇒ erreur = -470 ⇒ w0 = 4.7, w1 = 4.7
b) Pour x = 2, y = 430, nouvelle mise à jour nécessaire.
c) Nouvelle fonction : h_w(x) = 4.7 + 4.7x
Q3. Prédiction
a) x = 4 ⇒ h_w(4) = 23.5 ⇒ prédiction trop basse par rapport aux valeurs réelles.
b) Compare avec les valeurs données pour évaluer si prédiction est surévaluée ou sous-
évaluée.
c) Ici, modèle sous-estime ⇒ nécessite amélioration.
Q4. Extension polynomiale
a) h_w(x) = w0 + w1*x + w2*x^2
b) Feature scaling important pour accélérer convergence.
c) Avantages : modélise non-linéarité ; Inconvénient : risque de sur-apprentissage.