Université de Sfax République Tunisienne
Ecole Nationale d’Electronique et des Ministre de l’enseignement supérieur et de
Télécommunications de Sfax la recherche scientifique
AU : 2022-2023
Numéro de Note /20
Nom et Prénom :…………………………………………………….
compostage
Section……………………………………………………………………
Devoir de Intelligence Artificielle
Filière : GT Niveau : 3 A TST Durée : 1h
Enseignants responsables : Sonia Ben Hassen Documents non autorisés
Date :02/11/2022 Le sujet de DS comporte 6 pages
Note /20
QCM : Entourez les bonnes réponses. Par défaut et sans indication, il existe une seule bonne
réponse.
1. Le Machine Learning (ML) comporte le deep Learning (DL)
a) Vrai
b) Faux
2. Le DL est le fondement de base de l’IA
a) Vrai
b) Faux
3. L’extraction des caractéristiques (feature extraction) peut s’effectuer d’une manière
automatique dans l’apprentissage profond, contrairement à un projet classique d’apprentissage
automatique.
a) Vrai
b) Faux
4. Une méthode d’apprentissage profond discriminative se caractérise par : (2 réponses)
a) Les entrées et les sorties des données d’entrainement sont fournies au modèle ;
b) Uniquement les entrées des données d’entrainement sont fournies au modèle ;
c) Fournit une fonction discriminante dans des applications supervisées ou de classification ;
d) Génère les propriétés ou les caractéristiques de corrélation d'ordre supérieur pour l'analyse
ou la synthèse de modèles.
5. Quelles sont parmi ces propositions celles qui représentent une méthode deep learning
discriminative ? (2 réponses)
a) CNN
b) GAN
c) RBM
d) RNN
e) AE
6. Pytorch et Keras supportent tous les deux l’accélération GPU
a) Vrai
b) Faux
1 /6
7. Dans tensorflow, quel est l’ordre de tenseurs qui représentent des scalaires ?
a) 0-D
b) 1-D
c) 2-D
d) 3-D
8. La fonction sigmoïde est (2 réponses)
a) Une fonction linéaire ;
b) Une fonction non linéaire ;
c) Utilisée dans la régression logistique ;
d) Une fonction d’activation pour un problème multi-classe.
9. Dans la propagation avant d’un réseau de neurone artificiel (ANN), les neurones d’une même
couche sont connectés entre eux.
a) Vrai
b) Faux
10. Un modèle souffrant de sous-ajustement aura très probablement un faible biais et une grande
variance.
a) Vrai
b) Faux
11. Un modèle est surajusté (overfitting) lorsque :
a) les erreurs d’entraînement et de validation sont élevées ;
b) l’erreur d’entraînement est faible mais l'erreur de validation est élevée ;
c) l'erreur d’entraînement est élevée mais l'erreur de validation est faible ;
d) les erreurs d’entraînement et de validation sont faibles.
12. La méthode de descente de gradient est une méthode de :
a) Régression
b) Classification
c) Optimisation
d) Métrique de performance
13. Lesquelles des propositions suivantes est une méthode d’optimisation ? (2 réponses)
a) Entropie croisée
b) Adam
c) SGD (Stochastic Gradient Descent)
d) Mean Square Error (MSE)
14. On considère un réseau de neurones avec la configuration ci-dessous. Si nous supprimons
les couches ReLU, nous pouvons toujours utiliser ce réseau de neurones pour modéliser des
fonctions non linéaires.
a) Vrai
b) Faux
2 /6
15. Lesquels des algorithmes suivants peut être utilisé pour prédire « si le client est satisfait ou
non » ? (2 réponses)
a) Régression logistique
b) Régression linéaire
c) ANN (réseau de neurones artificiel)
d) Clustering de type k-means
16. Pour tester le degré de satisfaction d’un client (non satisfait, peu satisfait, satisfait, très
satisfait), quelle est la fonction d’activation qu’on peut utiliser dans le neurone de la couche finale
?
a) ReLu
b) Echelon
c) Seuil
d) Sigmoide
17. Quelles sont parmi ces propositions celles qui sont fausses ? (2 réponses)
a) Le perceptron est le plus petit réseau neuronal inventé par McCulloch et Pitts en 1943.
b) La fonction d’activation dans le perceptron est la fonction ReLu.
c) Le perceptron ne peut pas résoudre des problèmes non linéaires.
d) Le perceptron est le premier algorithme d’apprentissage de l’histoire du DL.
18. Quelles sont parmi ces propositions celles qui sont vraies ? (2 réponses)
a) Le perceptron multicouches (MLP) est développé en 1986 par G. Hinton.
b) Le perceptron multicouches permet de résoudre des problèmes linéaires uniquement.
c) Le perceptron multicouches (MLP) ne subit pas de surajustement (overfitting).
d) Le perceptron multicouches (MLP) contient plusieurs couches cachées avec plusieurs
neurones dans chaque couche
e) Le perceptron multicouches (MLP) contient plusieurs couches cachées avec un seul neurone
dans chaque couche
19. Le problème de l'évanescence du gradient (vanishing gradient) est : (2 réponses)
a) Un problème qui apparaît pendant la rétro-propagation entraînant l'annulation du gradient et
l'arrêt de l'apprentissage.
b) Un problème qui peut être causé par un taux d’apprentissage trop grand.
c) Un problème qui peut être causé par la nature de la dérivée partielle de la fonction
d'activation utilisée.
d) Un problème pouvant être résolu par l’utilisation de la technique du dropout.
20. Quelle-est parmi ces propositions celle qui ne représente pas une méthode d’encodage des
variables catégoriques ?
a) LabelEncoder
b) StandardScaler
c) OneHotEncoder
d) get_dummies
21. Lors de l’entrainement d'un réseau de neurones pour une application de reconnaissance
d'image, nous traçons le graphique de l'erreur d’entrainement et celle de validation en fonction
du nombre d’époques (time dans la courbe) pour l’optimisation du modèle.
3 /6
Quel est le meilleur emplacement dans le graphique pour un arrêt précoce ?
a) A
b) B
c) C
d) D
22. L’optimiseur Adam dans TensorFlow est un optimiseur intégré dans le module Keras
a) Vrai
b) Faux
23. Lesquelles des affirmations suivantes sur le dropout sont incorrectes ? (3 réponses)
a) Le dropout est un hyper-paramètre.
b) Le dropout est un paramètre.
c) Le dropout peut être ajouté dans la couche d’entrée et les couches cachées.
d) Pendant l’entrainement, la couche à laquelle le dropout est ajouté désactive aléatoirement
quelques neurones selon le taux indiqué.
e) Le dropout est utilisé dans le modèle pendant la phase d’entrainement uniquement et ne peut
pas être ajouté pendant la phase de test.
24. Laquelle des affirmations suivantes sur le poids 𝑤 est correcte ?
a) 𝑤 est le poids qui relie le jème neurone de la lème couche au ième neurone de la (l-1)ème couche.
b) 𝑤 est le poids qui relie le ième neurone de la lème couche au jème neurone de la (l-1)ème couche.
c) 𝑤 est un hyper-paramètre à optimiser dans la phase d’entrainement.
25. La rétro-propagation est une technique utilisée dans les méthodes d’apprentissage profond
pour calculer les différentes dérivées du coût par rapport aux poids : (2 réponses)
a) Elle est utilisée dans la phase d’entrainement et la phase de test.
b) Elle est utilisée dans la phase d’entrainement uniquement.
c) Elle est utilisée dans la phase de test uniquement.
d) Elle se base sur la règle de dérivation par chaîne.
26. Lesquelles des affirmations suivantes sur 𝑎 sont correctes? (2 réponses)
a) C’est la valeur d’agrégation du ième neurone de la lème couche.
b) C’est la valeur définitive crachée par le ième neurone de la lème couche.
c) C’est la sortie du neurone i de la lème couche et l’entrée du neurone i de la (l+1)ème couche.
d) est égale à 𝜙 (𝑧 ) multipliée par 𝑎 .
e) est égale à 𝜙 (𝑧 ) multipliée par 𝑎 .
27. Lesquelles des affirmations suivantes sur la taille d’un lot sont correctes ? (2 réponses)
a) C’est le nombre de données d’entrainement utilisées dans une époque.
b) C’est le nombre de données d’entrainement utilisées dans une itération.
c) C’est un paramètre à optimiser durant la phase d’entrainement.
4 /6
d) Plus sa valeur est élevée, plus l’entrainement se fera vite.
e) Plus sa valeur est élevée, plus le nombre d’itérations dans une époque est important.
28. PyTorch est un framework de DL open-source développé par l’équipe Google Brain et basé
sur la bibliothèque Torch.
a) Vrai
b) Faux
29. La base de données CIFAR-10 contient 60000 (32x32) images en couleur de 10 classes
différentes, avec 6000 images dans chaque classe. La base est partagée en 50000 images
d’entrainement and 10000 images de test. Quelle-est l’architecture la plus appropriée pour traiter
ce type de problème ?
a) ANN
b) CNN
c) RNN
30. La taille du tenseur considéré à l’entrée du modèle DL choisi dans la question précédente est :
a) 2-D.
b) 3-D.
c) 4-D.
d) 5-D.
31. Quelle est la fonction d’activation dans la couche finale du réseau choisi dans la question 30 ?
a) Fonction ReLu.
b) Fonction sigmoide.
c) Fonction softmax.
d) Fonction seuil.
32. Lesquelles des propositions suivantes sur le modèle fonctionnel sont incorrectes ? (2
réponses)
a) Le Modèle fonctionnel est une pile de layers linéaire.
b) Le modèle fonctionnel de Keras est simple, mais limité en termes de topologie de modèle.
c) Le modèle fonctionnel permet de créer des modèles multi-input/multi-output, et des modèles
à layers partagées.
d) Dans un modèle fonctionnel, on définit d’abord les layers, puis on crée le Modèle, on le
compile et on l’entraîne.
33. Lors de l’entrainement du modèle, les valeurs de l’accuracy, validation accuracy, loss et
validation loss
a) Se calculent à la fin de la dernière époque.
b) Sont utilisées pour l’optimisation des paramètres.
c) Se calculent après chaque époque.
d) Evoluent dans le même sens en se diminuant
34. On considère une base de données qui contient 50000 images (32x32) en gris de 5 classes
différentes, avec 10000 images dans chaque classe. La base est partagée en 40000 images
d’entrainement and 10000 images de test. On désire utiliser le modèle ANN pour faire la
classification. Quelle est la commande correcte qu’on va utiliser pour redimensionner les
données d’entrainement ?
a) X_train = x_train.reshape(x_train.shape[0], 32, 32, 1)
b) X_train = x_train.reshape(x_train.shape[0], 32, 32)
c) X_train = x_train.reshape(x_train.shape[0], 1024)
d) X_train = x_train.reshape(40000, 1024, 1)
5 /6
35. Quelle est la commande correcte utilisée pour compiler le modèle ?
a) [Link](loss = ‘binary_crossentropy’, optimizer =’adam’ , metrics = ['accuracy'])
b) [Link](loss = ‘categorical_crossentropy’,optimizer =’SGD’ , metrics = ['MSE'])
c) [Link](loss = ‘categorical _crossentropy’,optimizer =’adam’ , metrics = ['accuracy']).
36. Quelles sont les propositions incorrectes à propos la commande [Link] ? (2 réponses)
a) Permet l’entrainement du modèle.
b) A pour entrées les données de test, le nombre d’époques et la taille du lot.
c) Permet la prédiction sur une nouvelle donnée.
d) S’exécute après [Link].
37. Citer trois méthodes de régularisation du problème de sur-apprentissage ?
a) …………………………………………………………………………………………………
b) …………………………………………………………………………………………………
c) …………………………………………………………………………………………………
38. Citer trois méthodes d’optimisation dans la construction d’un réseau de neurone ?
a) …………………………………………………………………………………………………
b) …………………………………………………………………………………………………
c) …………………………………………………………………………………………………
39. Choisir pour chaque cas pratique le modèle deep learning adéquat parmi cette liste (AE,
GAN, CNN, RNN)
Reconnaissance faciale ………………………………………………………………………
Reconnaissance d’une écriture en ligne …………………………………………………….
Compression d’images ……………………………………………………………………...
Génération d’images …………………………………………………………………………
40. Citer 4 frameworks de deep learning
a) ……………………………………………………………………………………………….
b) ……………………………………………………………………………………………….
c) ……………………………………………………………………………………………….
d) ……………………………………………………………………………………………….
6 /6