0% ont trouvé ce document utile (0 vote)
24 vues2 pages

Ia Samir

Le document présente un corrigé de devoir sur l'intelligence artificielle, abordant la régression logistique et la régression linéaire. Il détaille les concepts théoriques, les calculs de prédiction, les stratégies d'apprentissage et les métriques d'évaluation. Les exercices incluent des exemples pratiques et des discussions sur les performances des modèles.

Transféré par

samirbelgacem2020
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
24 vues2 pages

Ia Samir

Le document présente un corrigé de devoir sur l'intelligence artificielle, abordant la régression logistique et la régression linéaire. Il détaille les concepts théoriques, les calculs de prédiction, les stratégies d'apprentissage et les métriques d'évaluation. Les exercices incluent des exemples pratiques et des discussions sur les performances des modèles.

Transféré par

samirbelgacem2020
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Corrigé du Devoir de Contrôle

Matière : Intelligence Artificielle


Classe : GEA2
Enseignant : Mr. ZAIED
Date : 11/04/2025

Exercice 1 : Régression Logistique (10 pts)


Contexte : Une entreprise souhaite détecter les transactions frauduleuses. Chaque
transaction est caractérisée par deux variables :

 - x1 : Montant (en milliers de dinars)


- x2 : Heure de la transaction (0 à 23)
- y = 1 si transaction frauduleuse, 0 sinon

Q1. Théorie
a) Fonction hypothèse :
h_w(x) = 1 / (1 + exp(-z)) où z = w^T * x = w0 + w1*x1 + w2*x2

b) Interprétation : h_w(x) = 0.9 signifie que la probabilité que la transaction soit frauduleuse
est de 90 %.

Q2. Frontière de décision


a) Frontière : z = 0, donc w0 + w1*x1 + w2*x2 = 0

b) Avec w = [-4, 3, 0.2] ⇒ -4 + 3x1 + 0.2x2 = 0 ⇒ x2 = -15x1 + 20

c) Tracer les points : (0.4, 22), (0.1, 23), (1.2, 3), (0.2, 13) et la droite x2 = -15x1 + 20

Q3. Application numérique


a) x = [1, 0.4, 22] ⇒ z = 1.6 ⇒ h_w(x) ≈ 0.832 ⇒ prédiction : frauduleuse

b) x = [1, 0.1, 10] ⇒ z = -1.7 ⇒ h_w(x) ≈ 0.154 ⇒ pas frauduleuse

c) Bonnes performances sur les exemples donnés.

Q4. Stratégie d’apprentissage


a) Étapes : Initialisation, choix de la fonction coût, descente de gradient, mise à jour des
poids.

b) Si données déséquilibrées, le modèle peut toujours prédire la classe majoritaire ⇒ biais.

Q5. Évaluation
a) Trois métriques : précision, rappel, exactitude.

b) Précision seule peut être trompeuse si classe majoritaire.


c) Exemple : précision = 80 %, rappel = 50 %, accuracy = 90 % ⇒ bon en général, mais faible
capacité à détecter les fraudes.

Exercice 2 : Régression Linéaire (10 pts)

Q1. Théorie
a) h_w(x) = w0 + w1*x

b) J(w) = (1/2m) Σ (h_w(x) - y)^2

c) Convexité assure un minimum global ⇒ convergence garantie.

Q2. Descente de gradient


a) w = [0, 0], α = 0.01, exemple x = 1, y = 470 :
z = 0 ⇒ erreur = -470 ⇒ w0 = 4.7, w1 = 4.7

b) Pour x = 2, y = 430, nouvelle mise à jour nécessaire.

c) Nouvelle fonction : h_w(x) = 4.7 + 4.7x

Q3. Prédiction
a) x = 4 ⇒ h_w(4) = 23.5 ⇒ prédiction trop basse par rapport aux valeurs réelles.

b) Compare avec les valeurs données pour évaluer si prédiction est surévaluée ou sous-
évaluée.

c) Ici, modèle sous-estime ⇒ nécessite amélioration.

Q4. Extension polynomiale


a) h_w(x) = w0 + w1*x + w2*x^2

b) Feature scaling important pour accélérer convergence.

c) Avantages : modélise non-linéarité ; Inconvénient : risque de sur-apprentissage.

Vous aimerez peut-être aussi