### Résumé détaillé du chapitre 3 : *Deep Learning*
#### 1. **Introduction**
- **Positionnement** :
- Le *Deep Learning* (apprentissage profond) est un sous-domaine du *Machine
Learning*, lui-même inclus dans l'Intelligence Artificielle (IA).
- Il est aujourd'hui l'un des outils les plus performants pour l'apprentissage
automatique grâce à l'utilisation de réseaux de neurones.
- **Historique** :
- Les concepts de réseaux de neurones remontent aux débuts de l'informatique.
- L'approche moderne du Deep Learning a été popularisée par Geoffrey Hinton
dès 2006, après une période où d'autres méthodes avaient dominé.
- Un tournant majeur s'est produit en 2012 avec des résultats impressionnants
sur le concours ImageNet en reconnaissance d’images.
---
#### 2. **Définition**
- Le *Deep Learning* est une méthode d'intelligence artificielle où les machines
apprennent elles-mêmes à partir des données, sans se limiter à des règles
programmées.
- Contrairement au *Machine Learning* classique, le Deep Learning repose sur des
représentations apprises grâce aux *Deep Neural Networks* (DNN), réduisant le
besoin d’ingénierie manuelle des caractéristiques.
---
#### 3. **Réseaux de Neurones (DANN)**
- **Domain Adaptation (DA)** :
- Vise à améliorer la performance des modèles lorsque les distributions des
ensembles de données (source et cible) diffèrent.
- Objectifs :
- *Discrimination* : distinguer entre différentes classes.
- *Invariance de domaine* : mesurer la similarité entre classes dans des
domaines distincts.
- **Domain Adversarial Neural Network (DANN)** :
- Combine données étiquetées (source) et non étiquetées (cible).
- Objectif : prédire des données cibles en entraînant un modèle de manière
contradictoire pour réduire l'erreur sur la source tout en maximisant l’invariance
de domaine.
---
#### 4. **Perceptron Multicouche (Multilayer Perceptron - MLP)**
- **Historique** :
- Le perceptron, créé par Frank Rosenblatt en 1957, est le fondement des
premiers réseaux de neurones artificiels.
- **Caractéristiques** :
- Réseau constitué de couches entièrement connectées.
- Chaque neurone d'une couche est connecté à tous les neurones de la couche
suivante.
- Modèle populaire utilisé dans des bibliothèques comme TensorFlow, Scikit-
Learn, etc.
- **Architecture** :
- Comprend des couches d’entrée, cachées, et de sortie.
- Chaque connexion entre neurones est associée à un poids ajusté pendant
l’entraînement.
---
#### 5. **Exemples et Applications**
- Reconnaissance faciale (e.g., Facebook pour taguer des amis).
- Reconnaissance d’images, détection de fraudes, reconnaissance vocale, etc.