[Link]
com/share/68569c3b-23a4-800e-9906-0864b00b163e
🔹 1. Généralités sur le Deep Learning
Q1. Le Deep Learning est une sous-branche de :
● L’apprentissage non supervisé
● L’intelligence artificielle
● La vision par ordinateur
● L’algorithmique avancée
Q2. Quel est l’avantage principal du Deep Learning par rapport au Machine Learning
classique ?
● Il utilise moins de données
● Il automatise la détection des descripteurs
● Il ne nécessite pas de GPU
● Il est plus rapide à entraîner
Q3. Lequel des éléments suivants n’est pas un type d’apprentissage automatique ?
● Apprentissage supervisé
● Apprentissage autonome
● Apprentissage par renforcement
● Apprentissage semi-supervisé
🔹 2. Perceptron Simple
Q4. Le perceptron simple peut résoudre :
● Tous les problèmes de classification
● Le problème XOR
● Les problèmes linéairement séparables
● Les problèmes multi-classes
Q5. Quelle fonction d’activation est utilisée dans un perceptron simple classique ?
● Heaviside
● Sigmoïde
● ReLU
● Softmax
Q6. Dans l’apprentissage du perceptron simple, si la sortie est inférieure à la sortie désirée, le
poids :
● Augmente
● Reste inchangé
● Devient nul
● Diminue
🔹 3. Perceptron Multicouche (MLP)
Q7. Quel est l’objectif principal d’ajouter des couches cachées dans un MLP ?
● Réduire le nombre de paramètres
● Accélérer la convergence
● Apprendre des représentations non linéaires
● Supprimer le biais
Q8. Quelle fonction d’activation est la plus utilisée dans les couches cachées des réseaux
profonds ?
● Heaviside
● Sigmoïde
● ReLU
● Softmax
Q9. La fonction d’activation Softmax est utilisée pour :
● La classification binaire
● La classification multi-classes
● Les régressions
● La normalisation de données
🔹 4. Apprentissage et Optimisation
Q10. Lequel de ces algorithmes met à jour les poids après chaque observation ?
● Batch Gradient Descent
● Stochastic Gradient Descent
● Mini-batch Gradient Descent
● Adam
Q11. Quel est l’effet d’un taux d’apprentissage trop petit ?
● L’algorithme diverge
● La convergence est lente
● Le modèle surapprend
● Aucun poids n’est mis à jour
Q12. Le terme “epoch” désigne :
● Une observation
● Un neurone caché
● Un passage complet sur l’ensemble des données
● Un poids mis à jour
🔹 5. Keras et TensorFlow
Q13. Le rôle de la méthode .compile() dans Keras est de :
● Créer le modèle
● Définir l’optimiseur, la fonction de perte et les métriques
● Charger les données
● Prédire les classes
Q14. Quelle couche est utilisée pour transformer une matrice d’entrée en vecteur dans Keras ?
● Dense
● Flatten
● Dropout
● Activation
Q15. Dans Keras, quelle fonction de perte est utilisée pour la classification binaire ?
● Categorical Cross-Entropy
● Mean Squared Error
● Binary Cross-Entropy
● Hinge Loss
Souhaitez-vous un corrigé interactif, ou un format PDF prêt à imprimer pour vos étudiants ?
You said:
plus de question
ChatGPT said:
Parfait ! Voici une deuxième série de QCM approfondis, toujours basée sur vos cours de
Deep Learning. Cette fois, on couvrira plus de notions avancées : surapprentissage,
architectures, descente de gradient, TensorFlow, etc.
🔹 6. Surapprentissage et Sous-apprentissage
Q16. Le sur-apprentissage (overfitting) se produit lorsque :
● Le modèle ne converge pas
● Le modèle n’arrive pas à s’adapter aux données
● Le modèle performe bien sur l'entraînement mais mal sur le test
● Les poids deviennent tous nuls
Q17. Une technique pour détecter le sur-apprentissage est :
● La descente de gradient
● L’augmentation des couches
● Le suivi des erreurs de validation
● L’utilisation de ReLU
🔹 7. Problèmes du Perceptron et Résolutions
Q18. Quel est le principal problème du perceptron simple ?
● Il ne peut pas résoudre les problèmes non-linéaires
● Il nécessite trop de données
● Il prend trop de temps à s'entraîner
● Il génère des poids nuls
Q19. Le problème XOR est un exemple de :
● Problème supervisé résolu par SVM
● Problème non-linéaire non résolu par un perceptron simple
● Classification multi-classes
● Clustering non supervisé
🔹 8. Descente de Gradient
Q20. Quelle est la formule de mise à jour des poids en descente de gradient ?
● w←w−η∂E∂ww \leftarrow w - \eta \frac{\partial E}{\partial
w}w←w−η∂w∂E
● w←w+η∂E∂ww \leftarrow w + \eta \frac{\partial E}{\partial w}w←w+η∂w∂E
● w←w/ηw \leftarrow w / \etaw←w/η
● w←η⋅w⋅Ew \leftarrow \eta \cdot w \cdot Ew←η⋅w⋅E
●
Q21. L’un des risques d’un taux d’apprentissage trop élevé est :
● La lenteur de l’apprentissage
● Le fait de rater le minimum global
● Le sous-apprentissage
● Le blocage des gradients
Q22. La descente de gradient mini-batch permet :
● Une convergence plus stable
● Une mise à jour des poids après chaque observation
● Une absence de bruit
● Une exploration exhaustive de l’espace de poids
🔹 9. TensorFlow & Keras
Q23. Le framework Keras est :
● Une version allégée de TensorFlow
● Une API haut niveau de TensorFlow
● Développé par Facebook
● Exclusivement dédié à la régression
Q24. Quelle fonction d’activation est déconseillée dans les couches profondes ?
● ReLU
● Sigmoïde
● Tanh
● Softmax
Q25. Dans un modèle Keras, la couche Dense :
● Est entièrement connectée
● Sert à réduire la dimension
● Réalise la normalisation
● Est utilisée pour les images seulement
Q26. Le paramètre batch_size dans .fit() détermine :
● Le nombre de couches
● Le nombre de classes
● Le nombre d’exemples traités avant une mise à jour
● Le nombre d’itérations par époque
🔹 10. Réseaux Profonds & Hyperparamètres
Q27. Le terme "deep" dans Deep Learning fait référence à :
● La taille du dataset
● Le nombre de neurones de sortie
● Le nombre de couches cachées
● La profondeur du GPU
Q28. Le rôle de la validation croisée est :
● D’évaluer les poids
● De régler les hyperparamètres
● D'accélérer le GPU
● De détecter les classes déséquilibrées
Q29. Les hyperparamètres sont :
● Appris automatiquement
● Les poids internes
● Fixés manuellement avant entraînement
● Les sorties du modèle
Q30. Une méthode de recherche d’hyperparamètres exhaustive est :
● Adam
● Grid Search
● SGD
● Normalisation
Souhaitez-vous maintenant :
✅ un corrigé
✅ une version imprimable (PDF)
✅ des QCM interactifs (en HTML/JS)
✅ ou une exportation vers Moodle / Google Forms ?
You said:
question surle nombre de poids d'un model
ChatGPT said:
Excellente idée ! Le nombre de poids (paramètres) dans un réseau de neurones est un point
crucial, notamment pour analyser la complexité du modèle. Voici une série de QCM ciblés sur
le calcul du nombre de poids (et biais) dans différents types de modèles.
🔹 11. Nombre de paramètres dans un réseau de neurones
Q31. Un perceptron simple avec 3 entrées (features) possède combien de poids et biais ?
● 3 poids et 0 biais
● 3 poids et 1 biais
● 4 poids et 0 biais
● 1 seul poids
Q32. Un MLP possède une couche d’entrée avec 10 neurones, une couche cachée avec 5
neurones et une couche de sortie avec 1 neurone. Combien de poids et biais au total ?
Explication :
● Entre entrée (10) et cachée (5) → 10×5 = 50 poids + 5 biais
● Entre cachée (5) et sortie (1) → 5×1 = 5 poids + 1 biais
● Total = 50 + 5 + 5 + 1 = 61
● 60
● 63
● 61
● 66
Q33. Pour un réseau entièrement connecté entre une couche de 20 neurones et une autre de
15 neurones, combien y a-t-il de poids ?
● 35
● 300
● 20 × 15 = 300
● 20 + 15 = 35
Q34. Dans le même réseau que ci-dessus (20 → 15), combien y a-t-il de biais si
chaque neurone de la couche suivante possède un biais ?
● 20
● 15
● 1
● Aucun
Q35. Soit un réseau à 3 couches :
● Entrée : 4 neurones
● Cachée 1 : 6 neurones
● Cachée 2 : 3 neurones
● Sortie : 2 neurones
Calcul :
● 4×6 + 6 biais = 24 + 6 = 30
● 6×3 + 3 biais = 18 + 3 = 21
● 3×2 + 2 biais = 6 + 2 = 8
→ Total = 30 + 21 + 8 = 59 → Correction : la bonne réponse est 59
● 49
● 55
● 57
● 59