0% ont trouvé ce document utile (0 vote)
153 vues11 pages

Deep Learning

Le document présente un ensemble de questions à choix multiples sur le Deep Learning, couvrant des sujets tels que le perceptron simple, le perceptron multicouche, l'apprentissage et l'optimisation, ainsi que l'utilisation de Keras et TensorFlow. Il aborde également des concepts avancés comme le surapprentissage, la descente de gradient et le calcul du nombre de poids dans les modèles. Chaque section contient des questions spécifiques pour tester les connaissances sur ces thèmes.

Transféré par

chediezzine12
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
153 vues11 pages

Deep Learning

Le document présente un ensemble de questions à choix multiples sur le Deep Learning, couvrant des sujets tels que le perceptron simple, le perceptron multicouche, l'apprentissage et l'optimisation, ainsi que l'utilisation de Keras et TensorFlow. Il aborde également des concepts avancés comme le surapprentissage, la descente de gradient et le calcul du nombre de poids dans les modèles. Chaque section contient des questions spécifiques pour tester les connaissances sur ces thèmes.

Transféré par

chediezzine12
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

[Link]

com/share/68569c3b-23a4-800e-9906-0864b00b163e

🔹 1. Généralités sur le Deep Learning


Q1. Le Deep Learning est une sous-branche de :

● L’apprentissage non supervisé

● L’intelligence artificielle

● La vision par ordinateur

● L’algorithmique avancée

Q2. Quel est l’avantage principal du Deep Learning par rapport au Machine Learning
classique ?

● Il utilise moins de données

● Il automatise la détection des descripteurs

● Il ne nécessite pas de GPU

● Il est plus rapide à entraîner

Q3. Lequel des éléments suivants n’est pas un type d’apprentissage automatique ?

● Apprentissage supervisé

● Apprentissage autonome

● Apprentissage par renforcement

● Apprentissage semi-supervisé

🔹 2. Perceptron Simple
Q4. Le perceptron simple peut résoudre :

● Tous les problèmes de classification

● Le problème XOR
● Les problèmes linéairement séparables

● Les problèmes multi-classes

Q5. Quelle fonction d’activation est utilisée dans un perceptron simple classique ?

● Heaviside

● Sigmoïde

● ReLU

● Softmax

Q6. Dans l’apprentissage du perceptron simple, si la sortie est inférieure à la sortie désirée, le
poids :

● Augmente

● Reste inchangé

● Devient nul

● Diminue

🔹 3. Perceptron Multicouche (MLP)


Q7. Quel est l’objectif principal d’ajouter des couches cachées dans un MLP ?

● Réduire le nombre de paramètres

● Accélérer la convergence

● Apprendre des représentations non linéaires

● Supprimer le biais

Q8. Quelle fonction d’activation est la plus utilisée dans les couches cachées des réseaux
profonds ?

● Heaviside

● Sigmoïde
● ReLU

● Softmax

Q9. La fonction d’activation Softmax est utilisée pour :

● La classification binaire

● La classification multi-classes

● Les régressions

● La normalisation de données

🔹 4. Apprentissage et Optimisation
Q10. Lequel de ces algorithmes met à jour les poids après chaque observation ?

● Batch Gradient Descent

● Stochastic Gradient Descent

● Mini-batch Gradient Descent

● Adam

Q11. Quel est l’effet d’un taux d’apprentissage trop petit ?

● L’algorithme diverge

● La convergence est lente

● Le modèle surapprend

● Aucun poids n’est mis à jour

Q12. Le terme “epoch” désigne :

● Une observation

● Un neurone caché

● Un passage complet sur l’ensemble des données


● Un poids mis à jour

🔹 5. Keras et TensorFlow

Q13. Le rôle de la méthode .compile() dans Keras est de :

● Créer le modèle

● Définir l’optimiseur, la fonction de perte et les métriques

● Charger les données

● Prédire les classes

Q14. Quelle couche est utilisée pour transformer une matrice d’entrée en vecteur dans Keras ?

● Dense

● Flatten

● Dropout

● Activation

Q15. Dans Keras, quelle fonction de perte est utilisée pour la classification binaire ?

● Categorical Cross-Entropy

● Mean Squared Error

● Binary Cross-Entropy

● Hinge Loss

Souhaitez-vous un corrigé interactif, ou un format PDF prêt à imprimer pour vos étudiants ?

You said:
plus de question

ChatGPT said:
Parfait ! Voici une deuxième série de QCM approfondis, toujours basée sur vos cours de
Deep Learning. Cette fois, on couvrira plus de notions avancées : surapprentissage,
architectures, descente de gradient, TensorFlow, etc.

🔹 6. Surapprentissage et Sous-apprentissage
Q16. Le sur-apprentissage (overfitting) se produit lorsque :

● Le modèle ne converge pas

● Le modèle n’arrive pas à s’adapter aux données

● Le modèle performe bien sur l'entraînement mais mal sur le test

● Les poids deviennent tous nuls

Q17. Une technique pour détecter le sur-apprentissage est :

● La descente de gradient

● L’augmentation des couches

● Le suivi des erreurs de validation

● L’utilisation de ReLU

🔹 7. Problèmes du Perceptron et Résolutions


Q18. Quel est le principal problème du perceptron simple ?

● Il ne peut pas résoudre les problèmes non-linéaires

● Il nécessite trop de données

● Il prend trop de temps à s'entraîner

● Il génère des poids nuls

Q19. Le problème XOR est un exemple de :

● Problème supervisé résolu par SVM


● Problème non-linéaire non résolu par un perceptron simple

● Classification multi-classes

● Clustering non supervisé

🔹 8. Descente de Gradient
Q20. Quelle est la formule de mise à jour des poids en descente de gradient ?

● w←w−η∂E∂ww \leftarrow w - \eta \frac{\partial E}{\partial


w}w←w−η∂w∂E

● w←w+η∂E∂ww \leftarrow w + \eta \frac{\partial E}{\partial w}w←w+η∂w∂E

● w←w/ηw \leftarrow w / \etaw←w/η

● w←η⋅w⋅Ew \leftarrow \eta \cdot w \cdot Ew←η⋅w⋅E


Q21. L’un des risques d’un taux d’apprentissage trop élevé est :

● La lenteur de l’apprentissage

● Le fait de rater le minimum global

● Le sous-apprentissage

● Le blocage des gradients

Q22. La descente de gradient mini-batch permet :


● Une convergence plus stable

● Une mise à jour des poids après chaque observation

● Une absence de bruit

● Une exploration exhaustive de l’espace de poids

🔹 9. TensorFlow & Keras


Q23. Le framework Keras est :

● Une version allégée de TensorFlow

● Une API haut niveau de TensorFlow

● Développé par Facebook

● Exclusivement dédié à la régression

Q24. Quelle fonction d’activation est déconseillée dans les couches profondes ?

● ReLU

● Sigmoïde

● Tanh

● Softmax

Q25. Dans un modèle Keras, la couche Dense :

● Est entièrement connectée

● Sert à réduire la dimension

● Réalise la normalisation

● Est utilisée pour les images seulement

Q26. Le paramètre batch_size dans .fit() détermine :

● Le nombre de couches
● Le nombre de classes

● Le nombre d’exemples traités avant une mise à jour

● Le nombre d’itérations par époque

🔹 10. Réseaux Profonds & Hyperparamètres


Q27. Le terme "deep" dans Deep Learning fait référence à :

● La taille du dataset

● Le nombre de neurones de sortie

● Le nombre de couches cachées

● La profondeur du GPU

Q28. Le rôle de la validation croisée est :

● D’évaluer les poids

● De régler les hyperparamètres

● D'accélérer le GPU

● De détecter les classes déséquilibrées

Q29. Les hyperparamètres sont :

● Appris automatiquement

● Les poids internes

● Fixés manuellement avant entraînement

● Les sorties du modèle

Q30. Une méthode de recherche d’hyperparamètres exhaustive est :

● Adam

● Grid Search
● SGD

● Normalisation

Souhaitez-vous maintenant :

✅ un corrigé
✅ une version imprimable (PDF)
✅ des QCM interactifs (en HTML/JS)
✅ ou une exportation vers Moodle / Google Forms ?

You said:
question surle nombre de poids d'un model

ChatGPT said:

Excellente idée ! Le nombre de poids (paramètres) dans un réseau de neurones est un point
crucial, notamment pour analyser la complexité du modèle. Voici une série de QCM ciblés sur
le calcul du nombre de poids (et biais) dans différents types de modèles.

🔹 11. Nombre de paramètres dans un réseau de neurones


Q31. Un perceptron simple avec 3 entrées (features) possède combien de poids et biais ?

● 3 poids et 0 biais

● 3 poids et 1 biais

● 4 poids et 0 biais

● 1 seul poids

Q32. Un MLP possède une couche d’entrée avec 10 neurones, une couche cachée avec 5
neurones et une couche de sortie avec 1 neurone. Combien de poids et biais au total ?

Explication :

● Entre entrée (10) et cachée (5) → 10×5 = 50 poids + 5 biais

● Entre cachée (5) et sortie (1) → 5×1 = 5 poids + 1 biais

● Total = 50 + 5 + 5 + 1 = 61

● 60
● 63

● 61

● 66

Q33. Pour un réseau entièrement connecté entre une couche de 20 neurones et une autre de
15 neurones, combien y a-t-il de poids ?

● 35

● 300

● 20 × 15 = 300

● 20 + 15 = 35

Q34. Dans le même réseau que ci-dessus (20 → 15), combien y a-t-il de biais si
chaque neurone de la couche suivante possède un biais ?

● 20

● 15

● 1

● Aucun

Q35. Soit un réseau à 3 couches :

● Entrée : 4 neurones

● Cachée 1 : 6 neurones

● Cachée 2 : 3 neurones

● Sortie : 2 neurones

Calcul :

● 4×6 + 6 biais = 24 + 6 = 30
● 6×3 + 3 biais = 18 + 3 = 21

● 3×2 + 2 biais = 6 + 2 = 8
→ Total = 30 + 21 + 8 = 59 → Correction : la bonne réponse est 59

● 49

● 55

● 57

● 59

Vous aimerez peut-être aussi