Introduction Générale
Les émotions jouent un rôle central dans la qualité de vie des personnes âgées, influençant
leur bien-être, leurs interactions sociales et même leur santé cognitive. Chez les seniors,
l’expression des émotions peut être altérée par des facteurs physiologiques (rides, diminution
de la mobilité faciale) Pourtant, une détection précise de ces émotions est cruciale pour
adapter les soins, améliorer la communication avec le personnel médical, ou encore
personnaliser l’accompagnement par des robots sociaux.
Dans les structures d’accueil pour personnes âgées, les soignants peinent souvent à percevoir
les états émotionnels subtils chez les résidents, surtout lorsque ceux-ci ont des difficultés à
verbaliser leurs sentiments. Un système automatisé de reconnaissance des émotions faciales
(FER) pourrait combler cette lacune en offrant :
Une analyse objective et continue des émotions (joie, tristesse, anxiété).
Des alertes précoces en cas de détresse émotionnelle.
Une personnalisation des interventions (activités thérapeutiques, soins).
Problématique
Les solutions de FER existantes, majoritairement entraînées sur des visages jeunes, présentent
une faible précision pour les seniors en raison :
Des spécificités anatomiques (texture cutanée, expressivité réduite).
Du manque de données labellisées pour cette population.
Des conditions réelles d’utilisation (éclairage variable, angles de vue).
Objectifs de ce projet :
Adapter les algorithmes de FER aux visages âgés via l’apprentissage profond (CNN,
Transformers).
Collecter/annoter un dataset dédié aux expressions faciales des seniors.
Questions de recherche :
Quelles émotions sont les plus révélatrices du bien-être chez les seniors ?
Comment contourner les biais des modèles traditionnels de FER ?
Quelles métriques utiliser pour évaluer la performance sur cette population ?
Recherche et sélection des publications
Dans le cadre de ce projet, plusieurs études récentes ont exploré l'utilisation de l’intelligence
artificielle (IA) et des réseaux neuronaux profonds pour analyser les émotions faciales des
personnes âgées, notamment en milieu médical et en EHPAD. Ces recherches mettent en
évidence des approches innovantes basées sur des bases de données d’expressions faciales
adaptées aux spécificités des seniors, telles que FACES (Aged) et Lifespan (LFW-Aging).
Contrairement aux jeux de données classiques (FER2013, AffectNet), ces bases incluent des
variations liées à l’âge (rides, mobilité faciale réduite)
Les publications sélectionnées soulignent les avancées réalisées grâce aux réseaux neuronaux
convolutionnels (CNN) et aux Vision Transformers (ViT), optimisés pour une meilleure
reconnaissance des émotions chez les personnes âgées. Ces modèles permettent notamment de
détecter des expressions atténuées (sourire moins marqué, regards neutres) ou des émotions
ambiguës (tristesse masquée, anxiété légère), essentielles pour une évaluation précise de leur
bien-être émotionnel.
Bases de données utilisées
Les bases de données les plus pertinentes pour ce projet incluent :
FACES (Aged) : Spécialisée dans les expressions faciales des seniors, avec des
annotations détaillées (âge moyen : 70 ans).
Lifespan (LFW-Aging) : Contient des visages de personnes âgées (60–85 ans) dans
des conditions naturelles.
FER2013/AffectNet : Utilisées en complément, mais nécessitent un réétiquetage pour
éviter les biais liés à l’âge.
Ces jeux de données permettent d’analyser :
Émotions de base (joie, tristesse, colère).
Émotions complexes (confusion, apathie, douleur), cruciales pour détecter des états
comme la dépression ou l’isolement social.