Résumé des Transformers et Réseaux de Neurones
Résumé des Transformers
Définition : Modèles conçus pour traiter des données séquentielles à l'aide de mécanismes d'attention.
Composants :
1. Encodeur : Analyse les données d'entrée (exemple : transformer une phrase en une représentation
contextuelle).
2. Décodeur : Génère la sortie à partir de ces représentations (exemple : traduction automatique).
Fonctionnalité clé : Mécanisme d'attention pour se concentrer sur les données importantes.
Apprentissage d'un Réseau de Neurones Profond
Rétropropagation du Gradient : Mise à jour des poids grâce à la fonction de perte.
Fonctions d'activation : Sigmoïde, Tangente hyperbolique, Softmax, ReLU.
Types de perte : Cross Entropy (multiclasse), Binary Cross Entropy (binaire), MSE (valeurs continues).
Relation époques, itérations, batch : Une époque = plusieurs itérations utilisant des batches.
Variantes : BGD, SGD, MBGD (convergence stable, rapide, adaptée).
Convolutional Neural Network (CNN)
Résumé des Transformers et Réseaux de Neurones
Pour le traitement d'images, avec couches convolutives capturant textures et formes.
Réseaux de Neurones Récurrents (RNN)
Pour les données séquentielles comme le texte ou les séries temporelles.
Utilisent des dépendances contextuelles passées et présentes.
LSTM (Long Short-Term Memory)
Variante de RNN gérant les dépendances longues grâce à des mécanismes spécifiques.
PyTorch : torch.nn.LSTM(input_size, hidden_size, ...)
Prétraitement et Embedding du Texte
Tokenisation, suppression des stop words, stemming, lemmatisation, tagging POS.
Méthodes d'embedding : BoW, TF-IDF, Word2Vec, GloVe, BERT.