Navigation robotique multi-capteurs
Navigation robotique multi-capteurs
présentée devant
par
Viviane Cadenat
Docteur de l’UPS
Maître de conférences à l’UPS
préparée au LAAS-CNRS
Remerciements i
Acronymes iii
Préambule v
A Bilan d’activités 1
II Activités de recherche 7
II.1 Synthèse des travaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
II.1.1 Navigation d’un robot mobile par commande référencée multi-capteur . . . . . 7
II.1.2 Asservissement visuel de systèmes complexes . . . . . . . . . . . . . . . . . . . 10
II.2 Activités d’encadrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
II.2.1 Thèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
II.2.2 Stages de master et DEA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
II.2.3 Activités d’encadrement issues de l’enseignement . . . . . . . . . . . . . . . . . 12
II.3 Animation scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
II.3.1 Participation à des projets de recherche . . . . . . . . . . . . . . . . . . . . . . 13
II.3.2 Rayonnement scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
II.4 Liste des publications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
II.4.1 Publications réalisées depuis mon doctorat . . . . . . . . . . . . . . . . . . . . 17
II.4.2 Publications réalisées pendant mon doctorat . . . . . . . . . . . . . . . . . . . 20
B Projet scientifique 33
IV Problématique 37
IV.1 Approches globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
IV.2 Approches locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
IV.3 Analyse des deux types d’approches . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2 Table des matières
VI Prospective 101
VI.1 Extension des travaux « historiques » . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
VI.1.1 Vers la réalisation de tâches de navigation « au long cours » dans des environ-
nements « réalistes » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
VI.1.2 Vers un environnement « humain » évolutif . . . . . . . . . . . . . . . . . . . . 105
VI.2 Coordination de systèmes complexes par asservissement visuel . . . . . . . . . . . . . . 107
VI.2.1 Vers l’asservissement visuel coordonné d’un système à deux bras . . . . . . . . 107
VI.2.2 Vers l’automatisation des tâches de biomicromanipulation par asservissement
visuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
B Description des différents systèmes robotiques utilisés dans nos travaux 117
B.1 Super Scout II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
B.2 Rackham . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
B.3 Pekee II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
B.4 Modélisation de ces robots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Bibliographie 121
Les travaux présentés dans ce manuscrit constituent la synthèse de douze ans d’activités de re-
cherche menées au sein du Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS) du CNRS.
Je tiens à remercier les directeurs successifs du LAAS qui m’ont accueillie, d’abord pour mon doctorat
puis dans le cadre de mon recrutement en tant que maître de conférences à l’université Paul Sabatier :
Malik Ghallab, Raja Chatila, Jean-Louis Sanchez, Jean Arlat.
Mes remerciements vont aussi naturellement à Michel Devy, Directeur de Recherche au CNRS et
responsable de notre groupe de recherche, pour avoir accepté de présider ce jury. J’exprime également
ma gratitude aux examinateurs qui m’ont fait l’honneur et l’amitié de participer à ce jury : Seth
Hutchinson, Professeur à l’Université de l’Illinois (USA), qui a accepté de traverser l’Atlantique pour
seulement quelques jours en France ; et Philippe Souères, Directeur de Recherche au CNRS, qui a
guidé mes premiers pas dans le monde de la recherche et à qui je dois beaucoup. Je voudrais égale-
ment exprimer ma plus profonde reconnaissance à Michel Courdesses, Professeur à l’Université Paul
Sabatier, pour la confiance dont il a fait preuve en acceptant d’être le garant de ces travaux. Merci,
Michel, pour ton soutien, ton amitié et tes qualités d’enseignant dont j’ai bénéficié plus d’une fois.
Ce manuscrit n’aurait pu être écrit sans l’aide de mes stagiaires et doctorants successifs. Que David
Folio, Noureddine Ouadah et Adrien Durand Petiteville trouvent ici l’expression de ma reconnaissance
et de mon amitié à leur égard.
Je ne saurais conclure ces remerciements sans exprimer toute ma gratitude à tous ceux qui m’ont
accompagnée ou apporté leur aide sous quelque forme que ce soit sur cette route exaltante, exigeante
et parfois difficile qu’est la vie. Merci donc à François-Xavier et Daniel pour leur amitié, leurs conseils
« éclairés », et leur soutien fidèle. Merci aussi à Yves, Pierre et Emmanuel pour leur support et leurs
encouragements pendant la préparation de cette HDR. Un grand merci enfin à mes amis dont il est
impossible de dresser une liste exhaustive. Que tous trouvent ici un témoignage de ma reconnaissance.
Laboratoires et universités
Divers
ACI Action Concertée Incitative.
ECMS Electronics, Control, Measurement and Signals.
MINAS MIcro et NAno Systèmes.
MOCOSY Modélisation, Optimisation et Conduite des Systèmes.
PAST Professeur ASsocié Temporaire.
PGE Projet de Grande Envergure.
RIA Robotique et Intelligence Artificielle.
RAP Robotique, Action et Perception.
RIS Robotique et Interaction.
ROBEA ROBotique et Entités Artificielles.
TER Travaux d’Etudes et de Recherche.
Préambule
Ce mémoire décrit les activités que j’ai menées au sein du LAAS–CNRS et de l’université Paul
Sabatier ainsi que les différentes responsabilités que j’ai assumées depuis mon recrutement en tant
que maître de conférences en 2000. Il est organisé en deux parties distinctes. La première synthétise
l’ensemble de ces activités, balayant les volets recherche, enseignement et administration propres au
métier d’enseignant–chercheur. La seconde partie s’intéresse à mes activités de recherche centrées
autour de la navigation référencée multi-capteurs. Elle détaille mes contributions à cette thématique
et présente les prospectives envisagées. Nous revenons tout d’abord sur le rapport d’activités.
Première partie
Bilan d’activités
Chapitre I
Viviane CADENAT
Née le 4/11/1972 à Narbonne (Aude).
Nationalité française.
Adresse personnelle :
5, rue René Cassin - Appt D17
31320 Castanet Tolosan
Adresse professionnelle :
Laboratoire d’Analyse et d’Architecture des Systèmes du CNRS
Groupe Robotique, Action et Perception (RAP)
7, avenue du Colonel Roche
31077 Toulouse cedex 4
Téléphone : [Link].32 / Fax : [Link].55 E-mail : cadenat@[Link]
61ème section
Formation universitaire
1996 – 99 : Doctorat de l’Université Paul Sabatier de Toulouse spécialité : Robotique.
Mention Très Honorable.
Soutenu le 16 décembre 1999.
Thème : Commande référencée multi-capteurs pour la navigation d’un
robot mobile.
Activités de recherche
B Activité scientifique
– Laboratoire et équipe de rattachement : LAAS-CNRS, groupe Robotique, Action et Perception.
– Thématique : Développement de stratégies de commande référencées multi-capteurs pour ro-
bots mobiles et bras manipulateurs.
– Mots-clés : Robotique, asservissement visuel, commande référencée multi-capteur.
– Publications : 37 publications au total dont 1 chapitre de livre, 8 revues internationales, 20
conférences internationales avec actes et comité de lecture, 7 workshops internationaux, et 1
conférence nationale.
B Responsabilités d’encadrement (titulaire de la PES depuis 2009)
– 1 thèse soutenue en 2007, 2 thèses en cours qui seront soutenues en 2011, 13 stages de master
(M1 et M2).
– Suivi de stages en entreprise (environ trois par an) pour des étudiants de niveau master (M1
et M2). L’un de ces suivis s’est concrétisé par une publication [18].
– Encadrement de 7 TER (travaux d’études et de recherches) de niveau M1.
B Animation scientifique
– Implication dans les projets
Participation à l’Action Concertée Incitative (ACI) “De la perception à la commande” (2001
– 2005).
Participation au projet ROBEA EGOCENTRE (2003 – 2006).
Participation au projet européen COMMROB (2007 – 2010).
Participation au projet ANR ICARO : ce projet débute en juin 2011.
Coordinatrice du projet ANR BM2V soumis à l’appel à projet RPIB (Recherches Partena-
riales et Innovation Biomédicale) en 2011.
5
– Rayonnement scientifique
Mise en place de collaborations :
- au sein du LAAS, à la fois dans et en dehors du groupe RAP
- en France (avec l’institut PRISME de Bourges) et à l’étranger (avec le Beckman Institute
(Urbana Champaign university) et le CDTA d’Alger). Cette dernière collaboration vient
d’être formalisée avec l’acceptation d’un projet international de coopération.
Fonctions d’intérêt général
- Depuis 1999 : Membre du comité de programme du workshop ECMS (Electronics, Control,
Measurement and Signals). Ce workshop vient d’être labellisé IEEE.
- Depuis 2007 : Membre du conseil scientifique du pôle RIA du LAAS.
- En 2010 : Organisation du workshop du pôle RIA.
- Activités de relecture pour plusieurs revues et conférences.
- Modération de sessions pour plusieurs congrès et workshops.
Divers
- Participation à plusieurs journées thématiques du GDR robotique en tant qu’orateur.
- Distinction : L’article [19] a été finaliste du « TJ Tarn Best Paper in Robotics ». Il a ainsi
été retenu dans les 5 meilleurs papiers présentés lors de la conférence ROBIO à Kunming
(Chine) en 2006.
Activités d’enseignement
B UFR et département de rattachement : UFR Physique, Chimie, Automatique et dépar-
tement Electronique, Electrotechnique, Automatique.
B Volume horaire annuel moyen : environ 205h équivalent TD (depuis mon recrutement).
B Disciplines enseignées : Robotique, Automatique.
B Public : De la Licence 1 au Master 2. Le détail des formations dans lesquelles je suis intervenue
est donné dans le chapitre III.
B Responsabilités pédagogiques :
– Depuis septembre 2011 : Co-responsable du parcours Intelligence Artificielle, Reconnaissance
des formes et Robotique (IRR) du master 2 Ingénierie des Systèmes Temps Réel (ISTR) en
collaboration avec Régine André-Obrecht, professeur à l’université P. Sabatier (section 27).
– Depuis septembre 2001 : Co-responsable du master 1 de l’IUP Systèmes Intelligents (SI) avec
Isabelle Ferrané, maître de conférences à l’université P. Sabatier (section 27).
– Responsable des UE robotique et automatique en L3 et M1.
B Fonction d’intérêt général :
– Recrutement
2001 – 2004 Membre élu suppléant de la commission de spécialistes 61ème section de l’Uni-
versité Paul Sabatier.
2004 – 2008 Membre élu titulaire de la commission de spécialistes 61ème section de l’Uni-
versité Paul Sabatier.
2006 Membre titulaire d’un jury de recrutement pour un ingénieur de recherche pour l’ENSI
de Limoges.
2009 Membre extérieur d’un comité de sélection pour le recutement d’un maître de confé-
rences à l’université de Perpignan Via Domitia en section 61.
2010
- Membre extérieur d’un comité de sélection pour le recutement d’un maître de conférences
à l’université d’Evry Val d’Essonne en section 61.
6 Chapitre I. Bref curriculum vitæ
- Membre d’un jury de recrutement pour un assistant ingénieur pour l’Université P. Sabatier.
– Autres
En 2005 et 2006 : Responsabilité de la salle de TP automatique en collaboration avec F.
Gouaisbaut, maître de conférences à l’université P. Sabatier (section 61).
En 2009, 2010 et 2011 : Représentation de l’IUP SI au conseil de perfectionnement du
département GEII de l’IUT “A” Paul Sabatier en remplacement du directeur.
Chapitre II
Activités de recherche
Sommaire
II.1 Synthèse des travaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
II.1.1 Navigation d’un robot mobile par commande référencée multi-capteur . . . . . . . 7
II.1.2 Asservissement visuel de systèmes complexes . . . . . . . . . . . . . . . . . . . . . 10
II.2 Activités d’encadrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
II.2.1 Thèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
II.2.2 Stages de master et DEA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
II.2.3 Activités d’encadrement issues de l’enseignement . . . . . . . . . . . . . . . . . . . 12
II.3 Animation scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
II.3.1 Participation à des projets de recherche . . . . . . . . . . . . . . . . . . . . . . . . 13
II.3.2 Rayonnement scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
II.4 Liste des publications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
II.4.1 Publications réalisées depuis mon doctorat . . . . . . . . . . . . . . . . . . . . . . 17
II.4.2 Publications réalisées pendant mon doctorat . . . . . . . . . . . . . . . . . . . . . 20
le séquencement de tâches : en effet, une tâche complexe ne peut être réalisée « directement » mais
doit d’abord être divisée en tâches élémentaires qu’il faut ensuite enchaîner. Nous avons d’abord
proposé différentes techniques de séquencement [8] avant d’élaborer un formalisme d’enchaînement
1. Ce groupe a été scindé en 2006 en trois équipes : RIS, RAP et GEPETTO. J’appartiens aujourd’hui au groupe
RAP.
8 Chapitre II. Activités de recherche
de tâches dynamique [22]. Ce travail a été initié au sein de l’ACI De la perception à la commande :
une histoire de repères et du projet ROBEA EGOCENTRE. Dernièrement, en lien avec les résultats
obtenus dans le traitement de la perte des données visuelles (cf. deuxième item), nous avons comparé
ces différentes techniques d’enchainement lorsque l’on exécute une tâche de navigation référencée vision
en présence d’obstacles occultants. Les résultats obtenus et l’analyse effectuée ont été acceptés pour
publication dans une revue internationale [2]. Enfin, en complément à ces travaux, nous avons aussi
étudié le problème de l’enchainement de tâches hors du cadre de la commande référencée capteur. Nous
nous sommes focalisés sur une tâche consistant à suivre un chemin de référence en présence d’obstacles.
L’approche développée consiste à modifier continûment un paramètre de la loi de commande lorsque
l’évitement est nécessaire. Elle s’apparente donc à un enchainement dynamique. Elle a été validée
expérimentalement et publiée en revue [7].
la réalisation de longs déplacements par asservissement visuel : Cet aspect fait l’objet des
travaux menés dans le deuxième volet de la thèse d’A. Durand Petiteville. La méthode proposée a
été développée en collaboration avec Seth Hutchinson, professeur à l’université de l’Illinois (USA). Il
s’agit ici de réaliser de longs déplacements par asservissement visuel pour atteindre un amer non visible
depuis la position initiale du robot. La visibilité de l’amer d’intérêt dès le début de la mission étant
une condition nécessaire à la réalisation du mouvement, il est impossible d’utiliser des asservissements
visuels conventionnels. Afin d’étendre le rayon d’action de l’asservissement visuel, nous nous sommes
appuyés à la fois sur les solutions proposées dans la littérature ainsi que sur les travaux développés
dans les deux items précédents. Conformément à ce qui est classiquement proposé, nous avons modélisé
l’environnement par une carte topologique dont les nœuds sont définis par des amers d’intérêt présents
dans l’environnement. Il suffit ensuite d’extraire dans le graphe topologique correspondant un chemin
permettant d’atteindre le but. Ce chemin est défini par une séquence d’amers visuels à atteindre
successivement. Enfin, la navigation est réalisée en enchainant différents correcteurs permettant de (i)
converger vers l’amer courant (asservissement visuel basé sur données réelles si ce dernier est visible
ou estimées s’il y a occultation ), (ii) garantir la non collision, (iii) rechercher l’amer suivant, etc.
Nous avons ainsi proposé un superviseur permettant de sélectionner le bon correcteur à appliquer
en fonction des événements se produisant lors de la navigation. Les transitions entre les différents
correcteurs ainsi que la reconstruction des informations visuelles non disponibles sont gérées par les
méthodes mentionnées plus haut, démontrant l’inter-complémentarité de chaque point évoqué ici. La
faisabilité de l’approche proposée a été démontrée dans [10] où une première navigation au long cours
relativement ad-hoc a été réalisée. L’extension de ces travaux a conduit à l’algorithme de supervision
sus-mentionné. Celui-ci a été validé en simulation [9]. Des tests expérimentaux seront également menés
sur les robots du groupe. Un article décrivant ces aspects devrait également être soumis à une revue
internationale.
l’aspect dynamique d’un environnement « standard » : Ce problème peut être abordé en deux
parties. La première consiste à lier étroitement les techniques d’estimation à celles de l’asservissement
visuel. Plus précisément, il s’agit d’estimer le mouvement de la cible à suivre en utilisant les images
perçues par le robot suiveur. Des travaux ont déjà été initiés sur ce thème dans [Master-EC] et
[Master-SD]. Ils s’inscrivent dans le cadre d’une collaboration à l’intérieur même du groupe RAP avec
T. Sentenac et P. Danès, respectivement maître-assistant à l’EMAC et maître de conférences à l’UPS.
Les résultats obtenus sont prometteurs mais doivent encore gagner en maturité avant de pouvoir être
publiés. La seconde partie (non encore abordée) consistera à synthétiser, à partir des résultats obtenus,
des stratégies de commande adaptées à un environnement évolutif.
II.2.1 Thèses
Encadrements passés : Ayant sollicité et obtenu l’autorisation de diriger les recherches à titre
individuel auprès de l’école doctorale Systèmes, j’ai encadré à 100% les travaux de David Folio sur le
thème « Stratégies de commande référencées multi-capteur et gestion de la perte du signal visuel pour
la navigation d’un robot mobile » du 1/2/2004 au 11/7/2007. Ces travaux ont été concrétisés par dix
publications dont un chapitre de livre [1], une revue [5], et six conférences internationales avec actes
et comité de lecture [15][16][17][19][20][21]. D. Folio est aujourd’hui maître de conférences à l’ENSI de
Bourges.
Encadrements en cours : A l’heure actuelle, je suis impliquée dans l’encadrement de deux thèses
qui ont respectivement débuté en 2007 et 2008. Quelques précisions sur ces activités sont données
ci-après :
B Depuis le 1/9/07 : j’encadre à 50% la thèse de Noureddine Ouadah, financé par une bourse
algérienne, avec Mustapha Hamerlain, Directeur de recherche au Centre de Développement des
Technologies Avancées (CDTA) et Farès Boudjema, professeur à l’Ecole Nationale Polytech-
nique d’Alger. Cette thèse s’intéresse à la navigation référencée vision dans un environnement
« humain » et vise à adapter les techniques de l’asservissement visuel aux tâches où le robot se
trouve en interaction étroite avec l’homme. Ces travaux s’inscrivent au sein du projet Commrob
et ont été l’occasion d’une collaboration fructueuse avec F. Lerasle, Professeur à l’université P.
Sabatier. Ils ont en effet donné lieu à plusieurs publications dans des conférences [13][23][14] et
deux revues internationales [4][3]. N. Ouadah soutiendra sa thèse le 27/10/2011.
B Depuis le 1/10/08 : j’encadre à 50% la thèse d’Adrien Durand Petiteville, financé par une
bourse du ministère, avec Michel Courdesses, Professeur à l’université Paul Sabatier. Cette thèse
II.2. Activités d’encadrement 11
De plus, dans le cadre de mes activités à l’IUP SI, j’assure également l’encadrement de travaux
d’études et de recherche où il s’agit pour des étudiants du M1 d’effectuer un petit travail (biblio-
graphique ou appliqué) sur des thèmes liés à la robotique. Ces encadrements ont été l’occasion de
compléter les travaux de thèse de D. Folio, N. Ouadah et A. Durand Petiteville. Ils ont aussi permis
de débroussailler un travail de stage, de donner quelques éléments de réflexion sur des thèmes de
recherche spécifiques, ou de favoriser des collaborations avec un industriel. Ils ont ainsi contribué au
développement de mes activités de recherche.
II.3. Animation scientifique 13
L’objectif est ici de comprendre le lien entre perception et action en s’inspirant des fonc-
tions sensorimotrices chez le vivant et de la commande référencée capteurs en robotique. J’ai
contribué ici à la réflexion sur le choix d’un repère permettant d’exprimer au mieux la tâche
à réaliser et favorisant l’enchainement de tâches.
– Projets soumis
Projet BM2V (« BioMicroManipulation par asservissement Visuel ») : Ce projet dont je suis la
coordinatrice s’intéresse à l’élaboration de stratégies de commande référencées multicapteurs
pour la micromanipulation de cellules vivantes (ou biomicromanipulation). Il a été soumis
à l’appel à projet Recherches Partenariales et Innovation Biomédicale (RPIB) de l’ANR en
2011. D’une durée de trois ans, il associe cinq partenaires : trois laboratoires de recherche
(le LAAS-CNRS, le laboratoire PRISME de Bourges, l’INRIA Rennes Bretagne Atlantique),
une fondation privée (l’institut Curie de Paris) et un industriel, Leica Microsystems (situé à
Nanterre). Le budget global demandé est d’environ 930000 euros.
L’objectif de ce projet est d’offrir au monde de la santé une plateforme robotisée, totalement
instrumentée, permettant de réaliser des tâches de biomanipulation de manière automatisée.
Il s’agira de produire un premier prototype prêt à l’emploi, présentant des performances su-
périeures à l’existant, et susceptible de correspondre aux exigences industrielles potentielles
(coût, fiabilité, etc.). Les applications visées seront dans un premier temps ciblées sur l’isole-
ment de cellules particulières, les mélanocytes, dans le but de comprendre comment et pourquoi
ils se transforment en mélanomes.
Ce projet est l’opportunité pour moi d’élargir ma thématique de recherche vers des domaines
actuellement en pleine expansion et qui apparaissent comme un champ d’application très riche
pour l’asservissement visuel. De plus, c’est aussi une occasion de contribuer aux progrès de la
recherche médicale, ce qui donne un sens et un poids plus important à mes propres travaux.
Durant ces dernières années, j’ai noué différentes collaborations à la fois à l’intérieur du laboratoire
(chercheurs appartenant au groupe RAP ou à d’autres équipes de recherche) et à l’extérieur (France
et étranger). Ces collaborations, leurs contextes et objectifs, sont décrites ci-après.
Collaborations au sein du laboratoire : Compte tenu de mes thématiques de recherche (cf. sec-
tion II), j’ai été amenée à collaborer avec la plupart des chercheurs du groupe RAP, bénéficiant ainsi
de leurs compétences dans le domaine de la vision ou de l’estimation et leur apportant mes propres
connaissances dans l’élaboration de stratégies de commande référencées multi-capteurs. Ces collabo-
rations, toujours riches et fructueuses d’un point de vue humain et scientifique, se sont concrétisées
sous différentes formes, principalement par le biais de co-encadrements ou de projets. Elles ont pour
la plupart donné lieu à des publications communes comme l’atteste la liste présentée dans la partie
II.4.
L’une des collaborations les plus anciennes est celle entretenue avec M. Courdesses, professeur
à l’université P. Sabatier, dont le domaine de recherche est centré autour de la commande et de
l’estimation. En effet, déjà effective pendant mon doctorat, elle n’a cessé de se développer après mon
II.3. Animation scientifique 15
recrutement prenant d’abord la forme de discussions scientifiques avant de se formaliser par le biais
de co-encadrements. Nous avons ainsi suivi ensemble les travaux menés dans le stage de L. Hedjazi
consacré à l’estimation des indices visuels en contexte bruité. Nous co-encadrons également la thèse
d’Adrien Durand Petiteville dont la première partie se situe directement dans le prologement de ces
travaux. Depuis qu’elle a été initiée, cette collaboration a donné lieu à 10 publications communes.
Sur les aspects liés à l’estimation et au filtrage, j’ai également collaboré avec P. Danès et T.
Sentenac, respectivement maitre de conférences à l’UPS et maître assistant à l’EMAC. Ce travail
commun concerne la réalisation de tâches de navigation référencées vision dans un environnement
dynamique au sens où la cible d’intérêt et les obstacles sont mobiles. Pour mener à bien cet objectif,
il est nécessaire de s’intéresser à l’estimation de mouvement, d’où l’émergence de cette collaboration.
Celle-ci s’est concrétisée par le suivi des stages d’E. Comment et de S. Dessus. Elle devrait également
se traduire par un co-encadrement de thèse et des publications dans un futur proche.
Enfin, j’ai collaboré avec F. Lerasle, professeur à l’UPS dont la spécialité est la vision sur l’homme.
Il s’agissait ici de réaliser des tâches de navigation référencées vision non plus vis à vis d’un amer mais
relativement à l’homme. Cette collaboration a été initiée dans le cadre du projet Commrob évoqué
plus haut. Elle s’est traduite par l’implication de N. Ouadah dans ce projet et s’est concrétisée par
plusieurs publications dans des conférences et revues internationales. Cette collaboration a permis de
développer un asservissement visuel sur l’homme ; elle se poursuit maintenant par l’intégration d’une
fonctionnalité d’évitement de personnes basées sur les informations fournies par le laser embarqué. Ce
dernier travail a été mené conjointement par A. Mekkonen, doctorant encadré par F. Lerasle, chargé
de la perception et A. Durand Petiteville, doctorant sous ma responsabilité en charge de la commande.
Les collaborations précédentes sont liées à mes activités autour de la navigation référencée vision
dans des environnements peu connus. Récemment, j’ai souhaité élargir mes thématiques de recherche
à l’asservissement visuel de systèmes complexes, en particulier un système robotique constitué de deux
bras manipulateurs. La réalisation de tâches de manipulation typiquement humaines apparait comme
un challenge qui peut être relevé à l’aide de stratégies de commande évoluées basées sur la vision
(et éventuellement sur d’autres informations sensorielles pertinentes telles que les forces exercées par
exemple). C’est dans cette optique que j’ai sollicité D. Sidobre, maître de conférences à l’UPS, pour
débuter un travail commun sur ce thème. Cette collaboration s’est traduite par deux co-encadrements
de stage de master (D. Boissinot en 2008 et S. Khalfaoui en 2009) et un sujet de thèse commun.
A l’extérieur du laboratoire :
Organisation du workshop du pôle RIA : En 2010, j’ai organisé le workshop du pôle Robotique
et Intelligence Artificielle (RIA) en collaboration avec N. Ouwanssi, secrétaire du pôle et N. Mansard,
chargé de recherche au CNRS. Il s’agit d’un séminaire annuel regroupant tous les membres permanents
et non permanents du pôle (environ 80 personnes). Ce séminaire se déroule généralement sur deux
journées et est l’occasion pour tous les chercheurs d’échanges scientifiques et humains dans un cadre
convivial à l’extérieur de Toulouse.
Il est prévu à terme de le lier plus étroitement aux écoles doctorales. Ce workshop a également donné
naissance en 2010 à un master international autour des systèmes intelligents dans lequel j’assure
des cours de robotique. Il a été labellisé IEEE en 2011. J’ai participé au comité d’organisation de
ce workshop en 2001 et 2005, lorsqu’il s’est tenu à Toulouse. Je suis également membre du comité
scientifique de programme de ce workshop depuis 1999.
Activités de relecture
Conférences : IEEE International Conference on Robots and Systems (IROS), IEEE Inter-
national Conference on Robotics and Automation (ICRA), European Conference on Mobile Robots
(ECMR), IEEE Conference on Decision and Control (CDC), IEEE International Conference on Me-
thods and Models in Automation and Robotics (MMAR), IEEE workshop on Electronics, Control,
Measurement and Signals (ECMS).
II.3.2.3 Divers
Distinction particulière : L’article [19] a été retenu parmi les cinq meilleurs papiers présentés
lors de la conférence ROBIO en 2006. A ce titre, il a été finaliste du « TJ Tarn Best Paper in
robotics » décerné lors de cette conférence.
4. Vision and RFID Data Fusion for Tracking People in Crowds by a Mobile Robot, T. Germa, F.
Lerasle, N. Ouadah, V. Cadenat, Computer Vision and Image Understanding, Elsevier Science
Inc., Vol. 114, N˚6, pp 641–651, Juin 2010.
5. Dealing with visual features loss during a vision-based task for a mobile robot, D. Folio, V.
Cadenat, International Journal of Optomechatronics, special issue on visual servoing, Vol.2,
N˚3, pp.185-204, Juillet 2008.
6. A general approach for sensibility analysis in visual servoing, M. Courdesses, V. Cadenat, Vol.21,
N˚7, pp.820-842, Avril 2007.
7. A reactive path-following controller to guarantee obstacle avoidance during the transient phase,
V. Cadenat, P. Souères, T. Hamel, International Journal of Robotics and Automation, Vol.21,
N˚4, pp.256-265, 2006.
8. Using system redundancy to perform a sensor-based navigation task amidst obstacles, V. Cadenat,
P. Souères and M. Courdesses, International Journal of Robotics & Automation, Vol.16, N˚2,
pp.61-73, 2001.
18. Incremental on-line topological map learning for a visual homing application, E. Motard, B.
Raducanu, V. Cadenat, J. Vitria, Int. Conf. on Robotics and Automation (ICRA 2007), Mai
2007, Rome, Italie.
19. A redundancy-based scheme to perform safe vision-based tasks amidst obstacles, D. Folio and V.
Cadenat, IEEE International Conference on Robotics and Biominetics (ROBIO’2006), Kunming,
Chine, 17-20 Décembre 2006.
Papier finaliste pour le prix “T.J. Tarn Best Paper in Robotics”.
20. A controller to avoid both occlusions and obstacles during a vision-based navigation task in a
cluttered environment, D. Folio and V. Cadenat, 44th IEEE Conference on Decision and Control
and European Control Conference (CDC-ECC’05), Décembre 2005, Séville, Espagne.
21. Using redundancy to avoid simultaneously occlusions and collisions while performing a vision-
based task amidst obstacles, D. Folio and V. Cadenat, European Conference on Mobile Robots
(ECMR’05), Ancône, Italie, Septembre 2005.
22. Dynamical sequence of multi-sensor based tasks for mobile robots navigation, P. Souères, V.
Cadenat, and M. Djeddou, 7th Symposium on Robot Control (SYROCO’03), Wroclaw, Pologne,
Septembre 2003.
Activités d’enseignement
Sommaire
III.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
III.1.1 Activités menées avant mon recrutement . . . . . . . . . . . . . . . . . . . . . . . . 21
III.1.2 Activités menées après mon recrutement . . . . . . . . . . . . . . . . . . . . . . . . 22
III.2 Contenu des enseignements dispensés . . . . . . . . . . . . . . . . . . . . . . . . 23
III.2.1 A l’UPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
III.2.2 Hors de l’UPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
III.2.3 Bilan : Contributions pédagogiques spécifiques . . . . . . . . . . . . . . . . . . . . 28
III.3 Activités administratives au sein de l’université . . . . . . . . . . . . . . . . . . 28
III.3.1 Responsabilités pédagogiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
III.3.2 Fonctions d’intérêt général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Ce chapitre résume mes activités d’enseignement depuis le début de ma thèse. Quelques éléments
d’ordre factuel sont d’abord proposés afin de présenter le contexte et de montrer comment mon service a
évolué au fil des années et de mes implications dans la vie de l’université. Le contenu des enseignements
dispensés est ensuite présenté avant de décrire les responsabilités administratives que j’ai été amenée
à assumer.
III.1 Généralités
Depuis le début de ma thèse en 1996, j’interviens dans la section 61, section regroupant les domaines
de l’automatique, l’informatique industrielle et le traitement du signal. J’ai dispensé ces enseignements
en tant que vacataire (3 ans), ATER (1 an), puis maître de conférences (11 ans). Ces activités sont
décrites et analysées ci-dessous.
le contenu de mes interventions, seul le cours dédié à la commande référencée vision (environ 30h par
an) s’inscrit totalement dans le cadre de mes activités de recherche. Différentes raisons peuvent être
avancées. Tout d’abord, il s’agit de techniques très spécifiques qui ne peuvent être enseignées qu’à
des étudiants ayant déjà des acquis solides en robotique et automatique. Ensuite, ayant atteint leur
maturité dans les années 2000, leur enseignement dans les universités ou les écoles d’ingénieur est
relativement récent. Quoi qu’il en soit, ce cours est l’occasion pour moi d’apprécier la dualité entre
l’enseignement et la recherche, dualité qui est l’une des caractéristiques propres du métier d’enseignant-
chercheur. Ainsi, le cours de commande référencée vision s’enrichit chaque année des résultats acquis
dans le cadre de mes activités de recherche et des études bibliographiques effectuées. Réciproquement,
la préparation, la réactualisation et la transmission de ce cours à un public « novice » nécessite de
soigner l’aspect didactique et pédagogique, ce qui permet de mieux appréhender ces connaissances et
d’acquérir de nouveaux points de vue sur ses propres travaux.
Un autre aspect important concernant mes activités d’enseignement réside dans l’évolution de mes
interventions au fil des ans que l’on peut visualiser sur le diagramme III.2. Celui-ci montre que, dans
les années qui ont immédiatement suivi mon recrutement, mon service était réparti équitablement
entre l’IUP SI et les filières « classiques » de l’UPS (licence et maîtrise EEA, DESS IRR, . . . ). Cepen-
dant, j’ai progressivement abandonné ces filières au profit de l’IUP où j’effectue maintenant près des
trois quarts de mon service. En effet, ayant pris la co-responsabilité du M1 SI (cf. section III.3), j’ai
été amenée à m’impliquer de plus en plus fortement au sein de cette formation, à la fois en termes
administratifs mais également en termes pédagogiques. J’ai ainsi par exemple pris en charge les ensei-
gnements d’automatique effectués en L2 et M1, ainsi qu’une partie des cours et BE de robotique du
L3 et du M1. Naturellement, cet investissement ne pouvait se faire qu’en réduisant mes interventions
dans les autres filières.
III.2.1 A l’UPS
Cette partie est consacrée aux enseignements effectués au sein de l’université P. Sabatier. Leur
contenu est plus ou moins détaillé en fonction de mon implication.
à l’université P. Sabatier. Nous avons ainsi monté ensemble trois manipulations consacrées respective-
ment à l’identification d’un système linéaire continu, à la localisation d’un robot mobile à l’arrêt dans
un environnement et aux moindres carrés discrets.
III.2.1.2 IUP SI
Cette partie regroupe mes interventions au sein de l’IUP SI où je suis particulièrement impliquée
puisque j’assume une co-responsabilité d’année.
dans cette optique que j’ai modifié les sujets d’origine en proposant des exercices liant plus étroitement
la robotique et l’automatique.
Cours, TD de robotique : Je suis intervenue dès mon recrutement dans les enseignements de
robotique dispensés en L3 que je partage avec M. Taix, maître de conférences à l’université P. Sabatier.
Pour ma part, j’assure (ou ai assuré) des cours portant sur les modèles géométriques et cinématiques
des bras manipulateurs. Le contenu de ces enseignements est donc relativement proche de celui proposé
au sein du cours commun M2 IRR et PISI. La différence majeure réside dans l’approche pédagogique
qui ne saurait être la même pour des étudiants de L3 et de M2. En particulier, un volant d’heures
de TD supplémentaires permet de traiter quelques exemples et d’illustrer les aspects théoriques de
manière détaillée.
Enfin, en tant que responsable d’année, je suis en charge de l’organisation des enseignements
d’automatique du M1 SI et de l’UE associée. A ce titre, je gère le déroulement des séances de TP, la
répartition des groupes, le planning et les modalités des examens.
Cours, TD, TP d’espace d’état : Je suis en charge de ces enseignements depuis 2007. Il s’agit
ici de donner aux étudiants de M1 SI un aperçu de l’analyse et la commande des systèmes linéaires à
temps continu et discret dans l’espace d’état. J’ai élaboré les sujets de TD et de TP à partir de sujets
existants que je fais évoluer progressivement pour les adapter au mieux à la finalité de la formation.
Ainsi, à terme, il est prévu d’établir un lien plus étroit entre les enseignements d’espace d’état et le
cours de robotique mobile. En effet, ce dernier aborde (entre autres) les problèmes de suivi de chemin
ou de trajectoire qui peuvent se poser en termes de régulation à zéro d’une représentation d’état
linéarisée. Enfin, j’ai conçu une fiche récapitulant l’essentiel du cours que je distribue aux étudiants.
Cours, TD, TP de commande référencée capteur : Ce cours est dispensé aux étudiants
de M1 depuis 2007. Le contenu étant très similaire à celui du M2 IRR, je ne détaillerai pas davantage.
collaboration avec M.L. Sitbon qui assure le secrétariat de la formation. Il doit s’acquitter de tâches
diverses et variées concernant le déroulement de l’année, les TER, les stages et les intervenants. En
complément à ces activités, le responsable doit également s’impliquer activement à la vie de l’IUP,
depuis le recrutement jusqu’à la définition des grandes orientations (habilitations, participation au
conseil de perfectionnement, etc.)
Je partage donc la responsabilité du M1 SI avec Isabelle Ferrané depuis une dizaine d’années
maintenant. Je suis plus particulièrement en charge des enseignements relevant de la section 61, Isabelle
gérant ceux qui sont liés à la section 27. Cependant, nous intervenons ensemble sur l’organisation
pédagogique de l’année, ce qui présente l’avantage de ne jamais laisser la direction du M1 vacante.
de Perpignan (en 2009) et d’Evry Val d’Essonne (en 2010). J’ai également fait partie d’un jury de
recrutement d’un ingénieur de recherche pour l’Ecole Nationale Supérieure d’Ingénieur de Limoges en
2006 (concours externe). De même, j’ai été sollicitée en 2010 pour être membre d’un jury de recrutement
pour un poste d’assistant ingénieur (BAP C) à l’université P. Sabatier (concours interne).
Projet scientifique
Avant-propos
Mes activités de recherche ont débuté au sein du groupe RIA du LAAS-CNRS durant la préparation
de mon doctorat [Cadenat 1999] (1996 – 1999) sous la direction de Philippe Souères, aujourd’hui
directeur de recherches au CNRS. En 2006, le groupe RIA a été scindé en trois équipes distinctes :
RIS (Robotique, Interaction et Systèmes), RAP (Robotique, Action et Perception) et GEPETTO :
le mouvement humanoïde. J’appartiens aujourd’hui au groupe RAP dont les activités de recherche
sont orientées autour de quatre axes : la perception visio-auditive pour la reconnaissance d’activités
humaines, la perception pour l’exécution de tâches sur un robot, la modélisation et la commande de
systèmes robotiques complexes, et enfin les capteurs intégrés communicants. Mes travaux de recherche
s’inscrivent au sein du troisième axe et s’intéressent à l’utilisation de l’asservissement visuel pour la
réalisation de tâches de navigation complexes de manière autonome. Nous présentons tout d’abord la
problématique abordée puis détaillons nos contributions. Enfin, nous terminons en proposant quelques
pistes de recherche qui nous semblent pertinentes.
Chapitre IV
Problématique
Sommaire
IV.1 Approches globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
IV.2 Approches locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
IV.3 Analyse des deux types d’approches . . . . . . . . . . . . . . . . . . . . . . . . . 41
ver que la trajectoire calculée ne soit pas valide et que le robot ne puisse atteindre son objectif à cause
d’une erreur de trajectoire [Mansard 2006]. Une bonne synthèse de cette problématique est proposée
dans [Lamiraux et al. 2004]. De même, les lois de commande développées seront de type retour d’état 1 .
Cela signifie que l’asservissement du robot est effectué sur les informations de position et d’orientation
du robot. Il est donc nécessaire de localiser le robot par rapport à un repère global lié à la scène à
chaque instant afin de pouvoir calculer la loi de commande. Les mêmes inconvénients d’imprécision et
d’incertitude évoqués plus haut pour la planification peuvent donc apparaitre au niveau du contrôle
du mouvement.
Dans le cas d’une représentation topologique de l’environnement, la planification s’appuie géné-
ralement sur des algorithmes issus de la théorie des graphes tels que le A∗ [Hart et al. 1968] ou bien
l’algorithme de Dijkstra [Dijkstra 1971]. On extrait alors un chemin donnant la séquence de nœuds
reliant les points de départ et d’arrivée, ceux-ci pouvant s’exprimer en termes métriques (dans ce cas,
nous sommes ramenés au cas précédent) ou bien de données sensorielles caractéristiques. Selon le cas,
les lois de commande permettant au robot de suivre le chemin spécifié seront soit de type retour d’état,
soit de type retour de sortie, c’est-à-dire référencées capteur 2 . Ce type de représentation permet donc
de travailler directement dans l’espace capteur et de bénéficier des propriétés de simplicité, de robus-
tesse vis-à-vis des bruits de mesure et des différentes erreurs, ainsi que de réactivité propres à ce type
d’approche [Chesi & Hashimoto 2003, Mansard 2006]. De plus, dans ce cas, une localisation métrique
du robot dans la carte n’est plus nécessaire ; une localisation « topologique », dite qualitative dans
[Remazeilles 2004, Victorino & Rives 2004], suffit. Il s’agit alors, non plus de calculer à chaque instant
la position précise du robot par rapport à un repère donné, mais plutôt de déterminer son avancement
le long du chemin planifié. Ainsi, par exemple, dans le cas où le chemin est exprimé comme une série
d’images à atteindre successivement, la localisation est généralement effectuée en calculant un score de
similarité entre l’image courante et les différentes images du chemin [Remazeilles & Chaumette 2007].
L’intérêt majeur de l’approche globale se situe dans la capacité à pouvoir réaliser de grands dépla-
cements. De par la quantité importante d’informations disponibles sur l’environnement, les processus
de décision et d’action apparaissent découplés : planification d’une part et exécution d’autre part. Si
ce type d’approche permet de prendre en compte de nombreuses contraintes et d’avoir une vue « glo-
bale » de la tâche, elle souffre néanmoins d’une lourdeur plus ou moins grande au niveau de la mise en
œuvre et offre difficilement au robot la réactivité nécessaire vis-à-vis d’éventuels événements imprévus
(présence d’obstacles inattendus, modification de l’environnement (e.g., fermeture d’une porte, etc.)).
De plus, si l’on utilise des cartes métriques, ce type d’approche apparait sensible aux différentes erreurs
et incertitudes inhérentes à la représentation du monde adoptée. Enfin, un grand nombre d’informa-
tion sur l’environnement est nécessaire à sa mise en place. Il est néanmoins possible de s’affranchir
d’une partie de ces inconvénients en considérant des cartes topologiques qui, capturant la propriété
d’adjacence de l’environnement, apparaissent plus légères en termes de réalisation et offrent davantage
de possibilité d’adaptation.
du but à atteindre et des données sensorielles perçues au fur et à mesure qu’il évolue dans la scène
[Bonin-Font et al. 2008]. Seules les informations sur l’environnement proche du robot sont utilisées
dans les processus de décision et de contrôle. La tâche à réaliser peut être exprimée soit en termes
géométriques (par exemple, avancer d’une distance donnée à partir d’une position initiale), soit direc-
tement dans l’espace capteur (aller vers une cible donnée repérable visuellement, rester à telle distance
d’un mur, etc.). Selon le cas, la loi de commande synthétisée pour répondre au problème sera de type
retour d’état ou bien retour de sortie (i.e., référencée capteur). La première classe de loi de commande
nécessite une localisation relative du robot, source d’erreur et d’imprécision. L’asservissement visuel
3D peut être vu comme un exemple de ce type de loi. En effet, comme nous le rappelons dans le pano-
rama proposé dans l’annexe A, cette structure de commande est basée sur des informations de position
(ou de situation) extraites de l’image, et est connue pour sa grande sensibilité aux erreurs de modèle
et de calibration [Chaumette & Hutchinson 2006, Gans et al. 2003]. Le second type de loi s’exprime
directement en termes des données sensorielles pertinentes pour sa réalisation. Indépendantes de la
configuration ou de la position du robot, elles permettent de s’affranchir de l’étape de localisation et
donc de gagner en temps de calcul, en robustesse et en précision. De la même manière que précédem-
ment, l’asservissement visuel 2D peut relever de ce type d’approche, puisqu’il ne repose que sur les
indices visuels directement extraits de l’image [Chaumette & Hutchinson 2006, Gans et al. 2003].
La plupart des techniques d’évitement d’obstacles telles que celles mentionnées dans
[Siegwart & Nourbakhsh 2004] ont un caractère intrinsèquement local. On peut également citer
la méthode des champs de potentiel [Khatib 1986] qui est l’une des méthodes les plus cou-
rantes pour effectuer des tâches de navigation. Elle consiste à créer un champ de potentiel
dans lequel le robot va évoluer : le but sera modélisé par un potentiel attractif, les obstacles
par des potentiels répulsifs. Le champ de potentiel peut être exprimé dans l’espace des confi-
gurations [Khatib 1986, Siegwart & Nourbakhsh 2004, Shimoda et al. 2005] ou bien dans l’espace
capteur [Khatib 1996, Cadenat 1999, Mezouar & Chaumette 2002, Cowan et al. 2002, Folio 2007,
Cherubini & Chaumette 2009, Cherubini & Chaumette 2010].
La grande force des approches locales réside dans la flexibilité qu’elles offrent au robot. Celui-
ci n’étant pas contraint à suivre un chemin ou une trajectoire pré-planifiée, il est plus simple
de prendre en compte les événements imprévus susceptibles de remettre en cause la réalisation
de la tâche. Cependant, elles souffrent de différents inconvénients. Tout d’abord, elles sont répu-
tées pour être sensibles aux minima locaux, remettant en cause la complétude. La convergence
vers le but n’est donc jamais totalement garantie. Les méthodes de navigation reposant sur les
champs de potentiel sont ainsi réputées pour leur sensibilité plus ou moins grande à ce phéno-
mène [Koditschek 1987, Siegwart & Nourbakhsh 2004]. De même, l’asservissement visuel 2D souffre
d’une limitation similaire [Gans et al. 2003] et ne dispose que d’un domaine de convergence local
[Chaumette 1998, Mansard 2006]. De plus, ces techniques étant généralement basées sur des mesures,
elles se trouvent limitées par la portée du ou des capteur(s) considéré(s). Celui-ci ne peut fournir
des données sensorielles exploitables que jusqu’à une distance donnée. Lorsque l’on souhaite réaliser
une tâche de navigation nécessitant un grand déplacement, les positions initiales et finales du robot
sont très différentes. Il se peut donc que les données sensorielles permettant de caractériser le point
d’arrivée ne soient pas disponibles dès le début de la tâche. Le robot n’a alors aucune information
lui permettant de décider quel mouvement effectuer pour réaliser la tâche. Ainsi, en est-il des tech-
niques d’asservissement visuel basiques qui nécessitent de percevoir l’amer d’intérêt à chaque instant
[Chaumette & Hutchinson 2006, Folio 2007]. De plus, toujours en considérant une tâche définie en
termes de données capteurs plutôt que de données géométriques, les informations sensorielles seront
forcément très différentes entre les points de départ et d’arrivée. Il sera donc complexe de les mettre
directement en relation [Remazeilles 2004].
IV.3. Analyse des deux types d’approches 41
3. Dans ce manuscrit, nous entendons par « tâche de navigation au long cours » toute tâche nécessitant de grands
déplacements.
Chapitre V
Sommaire
V.1 Approche retenue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
V.1.1 Objectifs et contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
V.1.2 Modélisation du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
V.1.3 Principe générique des stratégies de commande synthétisées . . . . . . . . . . . . . 49
V.2 Premiers travaux : des obstacles non occultants aux obstacles occultants . . . 54
V.2.1 Navigation par asservissement visuel en présence d’obstacles statiques non occultants 54
V.2.2 Navigation par asservissement visuel en présence d’obstacles statiques occultants . 67
V.2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
V.3 Travaux actuels : vers la réalisation de grands déplacements dans des envi-
ronnements « humains » peu connus . . . . . . . . . . . . . . . . . . . . . . . . . 83
V.3.1 Extension des algorithmes en présence d’incertitudes . . . . . . . . . . . . . . . . . 83
V.3.2 Réalisation de longs déplacements . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
V.3.3 Navigation par asservissement visuel en présence de l’homme . . . . . . . . . . . . 93
V.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Avant de détailler nos contributions, nous présentons tout d’abord les objectifs et les contraintes
que nous avons considérés afin de justifier le bien-fondé de l’approche adoptée. Dans un second temps,
nous rentrons dans des aspects plus techniques et nous intéressons à la modélisation du problème.
Sur cette base, nous revenons sur les techniques d’asservissement visuel et montrons comment leur
domaine d’application peut être étendu du local vers le global.
Les tâches de navigation considérées ici consistent essentiellement à atteindre un but donné. Ce
but sera défini soit par un amer artificiel, soit par une personne d’intérêt. Leur position dans la
scène est inconnue, mais ils peuvent être détectés par la vision (lorsqu’ils sont dans le champ de vue
naturellement !). Nous reviendrons sur ce point dans la partie V.1.2.
La description des tâches de navigation envisagées et des contraintes sur l’environnement évoquées
montre bien qu’il est nécessaire de donner au robot des compétences relevant à la fois des approches
globales et locales. En effet, le but à atteindre étant exprimé en termes de données visuelles, il semble
intéressant d’exploiter les techniques d’asservissement visuel pour réaliser la tâche souhaitée (du moins
tant que le but peut être perçu depuis la position initiale). En effet, aller vers le but par asservissement
visuel va permettre de bénéficier de la robustesse, de la simplicité et de la flexibilité propres à ce type
d’approche. Cette flexibilité permettra d’ailleurs de prendre en compte plus facilement les obstacles
et les occultations, phénomènes qui ne peuvent être prévus à l’avance. Par contre, il apparait tout
aussi clairement que, si le but n’est pas visible depuis la position initiale du robot, ces techniques ne
permettront plus de réaliser la tâche. Il faudra donc les compléter en introduisant des informations
globales. Nous exploiterons ici une carte topologique qui permettra de raisonner assez facilement dans
l’espace capteur tout en respectant les contraintes sur la quantité d’informations à disposition.
En gardant à l’esprit ce raisonnement, nous rentrons maintenant dans des aspects plus techniques
consacrés à la modélisation du problème.
Systèmes robotiques considérés Les robots considérés ici sont des véhicules non holonomes équi-
pés d’une caméra commandable en lacet et de capteurs de proximité permettant respectivement de
percevoir le ou les amers d’intérêt et de détecter les obstacles rencontrés. Plusieurs robots utilisés ac-
tuellement ou par le passé au LAAS correspondent à cette description : le super-scout II, Rackham et
Pekee II (cf. figure V.1). Ces robots ont été utilisés pour la validation expérimentale de nos travaux. Ils
ont été équipés de différents modèles de caméras couleur ainsi que de dispositifs permettant de détecter
les obstacles. Ainsi, le super scout II est doté d’une caméra Sony DFW-VL 500 [Sony 2001], numérique
couleur supportant la norme IEEE 1394, ainsi que d’une ceinture de seize capteurs ultrasonores. Le
Pekee II est quant à lui muni d’une caméra réseau Axis 214 PTZ mobile en pan et tilt 1 et offrant des
fonctionnalités de zoom [Axis 2008]. Il est de plus équipé d’un laser Hokuyo URG-04LX permettant
de mesurer des distances comprises entre 2 cm et 5.6 m avec un débattement angulaire de 240 degrés.
Enfin, Rakham est doté de plusieurs dispositifs de vision dont une caméra digitale montée sur une
platine pan/tilt développée par Directed Perception. Il est aussi muni de capteurs ultrasonores, d’un
laser ainsi que de capteurs RFID qui seront utilisés dans le cadre de nos activités en relation avec la
perception de l’homme. De plus amples informations sur ces systèmes sont disponibles dans l’annexe
B.
Ces robots peuvent être contrôlés à l’aide de trois vitesses : les vitesses linéaire et angulaire de
la base notées (v, ω), ainsi que la vitesse angulaire de la platine $. Afin de pouvoir commander nos
robots, il est nécessaire de déterminer leur modèle cinématique. Ces robots ayant la même structure,
1. Seul le degré de liberté en lacet a été utilisé dans nos travaux.
V.1. Approche retenue 45
Caméra zP Ethernet
Sony wifi 802.11a
DFW VL500
zC yC
xP xC Platine (pan)
yP
zM portable
Base mobile
Super Scout
ceinture
ultrasons
xM yM
ils partagent le même modèle. Celui-ci peut être établi en exploitant les principes de la mécanique du
solide. Pour cela, nous introduisons trois repères (cf. figure V.1(b)) :
– le repère R0 lié à la scène,
– le repère RM lié à la base mobile,
– le repère RP lié à la platine,
– le repère RC lié à la caméra.
Ainsi, le mouvement de la caméra par rapport au repère de la scène peut s’exprimer comme suit
[Pissard-Gibollet 1993, Cadenat 1999] :
RC
TC/R0
= Tc = J q̇ (V.1)
2. Son expression est disponible dans l’annexe B, les calculs étant détaillés dans [Pissard-Gibollet 1993, Cadenat 1999].
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
46 multicapteurs
toujours inversible. De plus amples détails sur la modélisation de ce type de robot sont disponibles
dans l’annexe B et dans [Pissard-Gibollet 1993, Cadenat 1999].
Ainsi, suite à cette brève description de nos robots, nous pouvons noter que :
– Deux types d’informations sensorielles sont à disposition pour la réalisation de la tâche de navi-
gation souhaitée : les informations visuelles d’une part et les données de proximité 3 d’autre part.
Elles permettront de caractériser respectivement l’amer d’intérêt et les obstacles rencontrés. Ces
informations seront utilisées à la fois au niveau perception et au niveau commande pour détecter
les événements imprévus et réagir en conséquence. Nous serons donc amenés à développer des
stratégies de commande référencées multi-capteurs.
– La caméra dispose de peu de degrés de liberté (trois seulement, comme nous l’avons montré plus
haut). Il sera donc délicat de pouvoir bénéficier de redondance dans la réalisation des tâches.
Dispositifs de vision considérés Les caméras embarquées sur ces robots peuvent être caractérisées
par le modèle dit sténopé ou « trou d’épingle », présenté sur la figure V.2. Ce modèle est le plus
couramment utilisé en vision par ordinateur, car il permet de modéliser finement la plupart des capteurs
projectifs et de simplifier les équations mises en jeu [Horaud & Monga 1995]. D’autant plus acceptable
que l’on utilise des focales de faible dimension, le modèle sténopé prend pour hypothèse que tous les
rayons passent par un seul point : le centre optique C. De ce fait, les points sont projetés sur le plan
image par une projection perspective. Ainsi, un point p de la scène, de coordonnées xp = (x y z)T ,
exprimé dans le repère caméra RC , est projeté sur le plan image en un point P, de coordonnées
métriques XP = (X, Y )T , selon la relation suivante :
f
XP = x (V.2)
z p
Caractérisation des amers d’intérêt Rappelons que notre objectif est de positionner le robot
relativement à un amer artificiel ou une personne d’intérêt. Leur position dans la scène est inconnue,
mais il est possible de les détecter à l’aide de la vision. Afin de faciliter le processus d’extraction, l’amer
considéré est constitué d’une cible composée de N points généralement d’une couleur particulière
(cf. figure V.3(a)). La personne d’intérêt quant à elle est repérée par un tracker dédié développé au
LAAS par F. Lerasle et T. Germa [Germa et al. 2010a]. Ce tracker retourne les sommets du rectangle
englobant sa tête (cf. figure V.3(b)). Les indices visuels utilisés dans nos travaux seront essentiellement
de type point.
Interaction caméra/environnement Comme nous l’avons mentionné dans la partie V.1.1, nous
cherchons à rejoindre le but par asservissement visuel. Afin de pouvoir commander un robot à partir
de ce que la caméra perçoit, il est nécessaire de déterminer la manière dont l’information visuelle
évolue lorsque la caméra se déplace. Pour cela, nous introduisons la notion de matrice d’interaction
[Samson et al. 1991, Espiau et al. 1992]. Celle-ci relie la variation du signal capteur, noté ici s(q(t), t),
au torseur cinématique de la caméra Tc exprimé dans son propre repère. Les informations visuelles
caractérisent les mesures effectuées au moyen de la caméra et dépendent dans le cas général de la
configuration q(t) du robot et du temps t pris en tant que paramètre explicite [Chaumette 2002].
Ainsi, nous considérons que seul le mouvement de la caméra, et éventuellement celui de l’amer d’intérêt
(homme ou cible), sont susceptibles de faire varier la valeur du signal sensoriel. En différentiant s(q, t)
par rapport au temps, il vient [Chaumette 2002] :
∂s ∂s
ṡ(q, t) = L(s, z) Tc + = L(s, z) J q̇ + (V.4)
∂t ∂t
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
48 multicapteurs
∂s
où L(s, z) représente la matrice d’interaction et le terme ∂t est dû au mouvement propre de l’amer ou
de la personne d’intérêt.
Remarque 1 Ce terme est nul si l’environnement considéré est statique, ce qui sera notre cas dans
la suite de ce manuscrit (sauf mention contraire explicite de notre part). Les solutions que nous avons
proposées jusqu’ici restent donc restreintes à des scènes fixes. Bien que nous ayons déjà commencé à
travailler sur la prise en compte des mouvements des amers et/ou des obstacles, les résultats obtenus
sont encore trop partiels pour être présentés comme des contributions. Nous reviendrons en détail sur
ce point dans le chapitre suivant consacré aux travaux à venir.
La matrice d’interaction L dépend non seulement des indices visuels considérés (points, droites,
moments, . . . ) mais aussi de l’information de profondeur. Le calcul de cette matrice peut se faire hors
ligne par des techniques d’apprentissage ou bien en ligne lors de l’asservissement [Chaumette 2002].
Il est aussi possible de déterminer analytiquement cette matrice. C’est l’approche proposée dans
[Chaumette 1990, Chaumette 2004, Collewet & Marchand 2011] où le lecteur intéressé trouvera l’ex-
pression des matrices d’interaction associées respectivement à des primitives géométriques classiques
(points, droites, cylindres, sphères, etc.), aux moments de l’image et à l’intensité d’un pixel.
Comme nous l’avons vu dans le paragraphe précédent, nous considèrerons essentiellement dans
ces travaux des indices visuels de type point. Dans le cas d’un point 3D p de coordonnées dans RC
(xp yp zp )T qui se projette sur le plan image en un point P, de coordonnées métriques (XP , YP )T , la
matrice d’interaction est donnée par [Chaumette 1990, Espiau et al. 1992] :
XP 2
− zfp 0 XP
zp
XP YP
f −(f + z ) YP
Y2
pour une caméra à six degrés de liberté.
− zfp YP
− XPfYP
0 f + zPp −XP
zp
LP =
XP XP YP
0
zp f
Y2
pour notre système robotique.
− zfp YP
zp f + zPp
(V.5)
Remarque 2 Traditionnellement, la matrice d’interaction est de dimension (k, 6), k étant le nombre
d’indices visuels considérés et 6 le nombre de mouvements possibles pour la caméra dans le cas général.
Or, ici, compte tenu de la géométrie du robot sur lequel elle est embarquée, elle ne dispose que de trois
degrés de liberté. Son torseur cinématique est donc de dimension (3, 1). Afin que les dimensions des
différents termes soient compatibles, la matrice ne comporte alors que les trois colonnes correspondant
aux trois mouvements permis.
Le résultat proposé dans la relation (V.5) peut naturellement être généralisé au cas
de N points. Le vecteur des indices visuels correspondant est alors donné par s =
T
XP1 , YP1 , . . . , XPj , YPj , . . . XPN , YPN où les couples (XPj , YPj ) représentent les coordonnées mé-
triques du jème
point Pj de l’amer projeté dans le plan image de la caméra. La matrice d’interaction
résultante Ls s’obtient alors en concaténant les matrices d’interaction LPj associées à chaque point
Pj . Nous avons donc au final :
T
Ls = LTP1 . . . LTPN (V.6)
où les lignes LTPj sont obtenues en appliquant la relation (V.5) à chaque point Pj .
Ayant posé notre problème et établi les modèles nécessaires aux développements ultérieurs, nous
nous intéressons aux aspects liés à la commande.
V.1. Approche retenue 49
Formalisme des fonctions de tâche Le formalisme des fonctions de tâche a été initialement
développé dans [Samson et al. 1991] pour définir un cadre global à la commande des robots manipula-
teurs holonomes. Il a ensuite été exploité pour asservir visuellement des bases mobiles non holonomes
[Pissard-Gibollet 1993]. Cette approche consiste à modéliser la tâche considérée sous la forme d’une
fonction de tâche telle que sa régulation à zéro conduit à l’exécution correcte de la mission. La fonc-
tion de tâche est une fonction de sortie particulière, généralement notée e(q(t), t), dépendant de la
configuration q(t) du robot et éventuellement du temps t pris en tant que paramètre explicite. Elle
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
50 multicapteurs
prend ses valeurs dans IRn où n représente la dimension du vecteur q. Elle peut s’exprimer en termes de
données proprioceptives ou extéroceptives selon l’application considérée et les capteurs disponibles sur
le robot. Dans le cadre de nos travaux, seules des fonctions de tâche dépendant de q seront considérées
puisque, dans la plupart des cas, nous avons travaillé dans des environnements statiques. Elles seront
exprimées directement en fonction des informations visuelles renvoyées par la caméra.
L’exploitation de ce formalisme requiert deux étapes : d’abord, il est nécessaire de définir une fonc-
tion de tâche e telle que si e = 0 alors la mission est correctement réalisée ; ensuite, il faut synthétiser
une loi de commande permettant de réguler e à 0. Ainsi, le problème de commande correspondant à
la réalisation d’une application robotique peut généralement être ramené à la régulation à zéro d’une
fonction de tâche sur un certain intervalle de temps [0, T ]. De ce fait, le robot est contrôlé par une loi
de commande exprimée non plus dans l’espace d’état, mais dans l’espace de sortie (ou encore l’espace
du capteur). D’où le terme de commande référencée capteur. Néanmoins, pour que ce problème de
commande soit bien posé, on comprend qu’il est nécessaire d’assurer un lien régulier entre l’espace
d’état et l’espace de sortie de telle sorte qu’une petite variation autour de la trajectoire de référence
dans le premier se traduise par une petite variation autour de zéro dans le second. Une condition suf-
fisante pour garantir cette propriété est que la fonction de tâche soit admissible [Samson et al. 1991].
Cette notion étant relativement bien connue, nous ne la détaillons pas : nous rappelons simplement que
l’admissibilité de la fonction de tâche repose essentiellement sur la régularité de sa matrice jacobienne
∂e
Je = ∂q , bien que d’autres conditions moins restrictives soient aussi nécessaires. Nous renvoyons
le lecteur intéressé à [Cadenat 1999] pour une synthèse plus détaillée que dans ce document et à
[Samson et al. 1991] pour la description complète de cette notion. Afin d’assurer l’admissibilité de la
fonction de tâche, il suffit donc de la choisir de manière à contraindre autant de degrés de liberté que
d’actionneurs disponibles. L’obtention de cette propriété est purement un problème de modélisation de
la tâche à réaliser. Cependant, certaines applications ne nécessitent pas l’utilisation de tous les degrés
de liberté disponibles, et donc toute tâche robotique ne satisfait pas la propriété d’admissibilité. La
fonction de tâche est alors dans ce cas redondante.
Formalisme des tâches redondantes Une tâche redondante est une tâche qui ne contraint pas
tous les degrés de liberté du robot. La jacobienne de la fonction de tâche n’est donc pas carrée et
cette dernière n’est pas admissible. Dans un tel cas, le problème est sous-contraint et il existe une
infinité de solutions pour réaliser la tâche considérée. Aussi, est-il nécessaire de la modifier de telle
sorte qu’elle satisfasse cette propriété. Pour cela, il suffit d’introduire l’information manquante sous
la forme d’une tâche supplémentaire à exécuter. Une première solution peut consister à modéliser
cette deuxième tâche sous la forme d’une fonction de tâche contraignant les degrés de liberté restants.
Il suffit alors de la concaténer à la première pour définir une fonction de tâche bien conditionnée.
Cependant, une telle solution suppose l’indépendance et la compatibilité des deux tâches considérées,
celles-ci devant pouvoir être parfaitement réalisées simultanément. Il n’est donc pas toujours simple de
définir une fonction de tâche admissible avec une telle méthode. Le formalisme des tâches redondantes
permet de satisfaire ces deux propriétés « par construction ». L’idée est d’exploiter la redondance pour
effectuer au mieux des objectifs secondaires. Dans le formalisme des tâches redondantes, ces objectifs
secondaires sont modélisés sous la forme d’un critère h à minimiser sous la contrainte que la tâche
principale e1 soit parfaitement réalisée. Ce problème d’optimisation est ramené à la régulation à zéro
de la fonction de tâche suivante [Samson et al. 1991] :
e = W + e1 + β(I − W + W )g (V.7)
où J1 = ∂e +
∂q est la jacobienne de la tâche e1 . Le terme (I − W W ) représente alors l’opérateur
1
de projection sur le noyau de J1 qui caractérise l’espace des mouvements laissés libres par la réali-
sation de la tâche e1 . Ainsi, un déplacement sur cet espace laisse e1 invariante et égale à zéro, et
permet donc de réaliser une tâche secondaire tout en garantissant la parfaite exécution de e1 . On
comprend dès lors que la tâche secondaire caractérisée par le critère h ne pourra être réalisée qu’au
mieux, compte tenu des degrés de liberté laissés vacants par la tâche primaire e1 . Des approches simi-
laires basées sur la redondance permettent de réaliser plusieurs tâches simultanément [Nakamura 1990,
Siciliano & Slotine 1991, Mansard 2006, Marey & Chaumette 2010a, Kanoun et al. 2011].
Remarque 3 Si, en plus des conditions évoquées plus haut, le rang de J1 est plein, la matrice W
vérifie J1 W T > 0, le hessien du critère est défini positif et β > 0 est choisi suffisamment petit au sens
défini dans [Samson et al. 1991], alors on peut montrer que Je est définie positive. L’admissibilité de
la fonction de tâche e peut alors être établie.
Appliquons maintenant ce résultat pour réaliser une tâche de positionnement par asservissement visuel
2D. L’amer ou la personne d’intérêt étant caractérisée par N points, le vecteur des indices visuels
courants s s’écrit s = (X1 , Y1 , . . . , Xj , Yj , . . . XN , YN )T . La fonction de tâche permettant de réaliser ce
type de mission s’écrit généralement sous la forme suivante [Chaumette & Hutchinson 2006] :
epos (q(t)) = C(s(q(t)) − s∗ ) (V.10)
où s∗ désigne le vecteur des indices visuels de référence. La matrice C est appelée matrice de combi-
naison et permet de considérer un nombre d’informations capteur supérieur au nombre de degrés de
liberté disponibles. Afin que la propriété d’admissibilité soit garantie, elle doit être de rang plein et
telle que CLs J soit de rang plein également. Cette matrice est souvent définie par la pseudo-inverse
à gauche de Ls . De plus amples détails sur le choix et le calcul de C peuvent être trouvés dans
[Chaumette & Hutchinson 2006]. En appliquant le résultat obtenu dans (V.8), la loi de commande
permettant de réaliser un asservissement visuel 2D s’écrit :
q̇ = q̇av = −(CLs J)−1 λav epos = −J −1 λav epos si C = L+
s (V.11)
Ce correcteur sera à la base de la plupart des déplacements du robot vers l’amer ou la personne
d’intérêt. Cependant, il ne peut conduire à la réalisation de la tâche que si :
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
52 multicapteurs
situation rencontrée par le robot et – in fine – réaliser la tâche souhaitée. Un processus garantissant
la continuité de la loi de commande globale appliquée au robot doit généralement être mis en place.
Afin de pouvoir appliquer ce principe, il est tout de même nécessaire de garder une « trace » du but à
atteindre 5 à chaque fois que l’on modifie la loi de commande, sous peine de ne pouvoir revenir à l’exécu-
tion de la tâche principale. Ces approches sont généralement mises en œuvre en enchainant différentes
tâches ou correcteurs [Pissard-Gibollet 1993, Swain 1999, Cadenat 1999, Souères & Cadenat 2003,
Chesi et al. 2004, Deng et al. 2005, Mansard 2006, Folio 2007, Marey & Chaumette 2010b] ou bien
encore en s’appuyant sur la théorie des systèmes hybrides [Gans et al. 2003, Gans & Hutchinson 2007].
Ces approches présentent l’avantage de donner au robot une certaine flexibilité, la commutation pou-
vant être réalisée en ligne. Cependant, dans la plupart des cas, il est difficile de prouver la sta-
bilité globale [Cadenat 1999, Gans & Hutchinson 2007]. Une autre difficulté consistera en le choix
des paramètres gérant le basculement. Nous reviendrons sur ces différents points en présentant
nos propres contributions. Ces approches « commutatives » ont été utilisées dans divers cadres.
Elles ont notamment permis d’élargir le domaine de convergence des asservissements visuels 2D et
3D en basculant entre ces deux types d’asservissement visuel en fonction de différents paramètres
[Gans et al. 2003, Deng et al. 2005, Gans & Hutchinson 2007]. Elles ont aussi été exploitées pour
prendre en compte les contraintes de visibilité en commutant entre des asservissements visuels 2D
et différents correcteurs destinés à conserver les indices visuels dans l’image [Chesi et al. 2004]. Elles
ont de plus été utilisées pour gérer la proximité aux butées articulaires [Marey & Chaumette 2010b]
ainsi que pour réaliser des tâches complexes [Pissard-Gibollet 1993, Swain 1999, Cadenat 1999,
Souères & Cadenat 2003, Mansard 2006, Folio 2007, Cadenat et al. 2012]. Il est aussi possible de com-
biner ces approches avec la redondance [Mansard 2006, Marey & Chaumette 2010b].
Pour notre part, compte tenu du faible nombre de degrés de liberté à disposition (cf. partie V.1.2),
la redondance est très limitée et ne peut être que difficilement exploitée. C’est pourquoi, nos solutions
se sont focalisées sur les techniques à base d’enchainement. La démarche que nous avons suivie s’inspire
directement des résultats obtenus dans nos travaux de doctorat [Cadenat 1999]. En effet, à l’issue de
ces travaux, nous avions montré qu’une tâche de navigation complexe ne pouvait être réalisée par la
régulation à zéro d’une seule fonction de tâche définissant un difféomorphisme global entre l’espace
des configurations et l’espace capteur. En effet, la propriété d’admissibilité ne peut être obtenue
que localement et le domaine de validité de la tâche est caractérisé par l’inversibilité de la jacobienne
[Cadenat 1999]. De plus, toutes les informations perçues par le robot ne sont pas forcément pertinentes
au même moment. La définition de la tâche à réaliser dépend donc de la position du robot dans
l’environnement (présence d’obstacle ou pas, risque d’occultation ou pas, etc.). Il semblait donc assez
naturel de définir une application robotique évoluée comme la successsion de tâches élémentaires
nécessaires à sa réalisation. Chacune d’entre elles peut alors être caractérisée par une fonction de
tâche admissible, un difféomorphisme local et un domaine de validité correspondant [Cadenat 1999].
En suivant ce raisonnement, nous avons divisé la tâche de navigation considérée en trois grandes
sous-tâches 6 :
– la tâche de navigation référencée vision nominale, i.e., dans l’espace libre,
– la gestion des collisions afin de garantir la sécurité des biens et des personnes,
– la gestion de la perte temporaire du signal visuel due à la présence d’obstacles occultants dans
la scène.
Il s’agit ensuite de synthétiser un correcteur permettant de réaliser chaque sous-tâche de manière
5. La méthode de conservation diffère selon la méthode considérée. Dans notre cas, il s’agira de conserver la caméra
orientée vers le but. Nous reviendrons sur ce point plus loin.
6. Ce découpage sera ensuite complété pour pouvoir prendre en compte les aspects globaux liés à la réalisation de
navigation au long cours.
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
54 multicapteurs
indépendante puis de basculer continûment entre ces différents correcteurs en fonction des événements.
Le correcteur concernant la première sous-tâche est directement obtenu par asservissement visuel 2D. Il
est donc donné par l’équation (V.11). Il reste à définir les méthodes permettant de traiter les problèmes
d’occultation et de collision liés à la présence des obstacles. C’est précisément à ces problèmes que
nous nous intéressons dans la section suivante.
que sur les méthodes considérées pour réaliser l’évitement d’obstacles. Enfin, nous terminons par
quelques résultats de simulation et expérimentaux.
Remarque 4 Il est à noter ici que la détermination de dcoll et α peut s’avérer délicate lorsque les
capteurs utilisés manquent de précision. Ainsi, par exemple, dans le cas du super-scout II qui était
équipé d’une ceinture de seize capteurs ultrasonores répartis régulièrement autour de sa circonférence,
le calcul de ces données était entâché d’une erreur assez importante. Cependant, ces erreurs n’ont pas
remis en cause les expérimentations de nos stratégies réalisées sur ce robot. Une analyse de ce problème
et de ses conséquences est présentée dans [Cadenat et al. 2006].
Afin de déterminer le risque de collision, nous introduisons l’enveloppe ξ+ . Cette enveloppe, située à
une distance d+ de l’obstacle, représente la zone à partir de laquelle l’obstacle est pris en considération
et correspond à la limite de sa zone d’influence. Il devient ainsi possible de définir mathématiquement
la notion de « près d’un obstacle » et « loin d’un obstacle », c’est-à-dire le risque de collision. Celui-ci
peut dès lors être caractérisé par un paramètre µcoll variant entre 0 et 1 en fonction de la distance
dcoll . Ainsi, lorsqu’il n’y a pas de risque de collision (i.e., le robot est hors de la zone d’influence ξ+
de l’obstacle), µcoll est fixé à 0. Inversement, si le robot est à proximité d’un obstacle, µcoll passe à
1 de manière à garantir la non collision. En suivant ce raisonnement, la stratégie adoptée apparait
clairement. Elle consiste à réaliser la tâche référencée vision tant que µcoll = 0 et à basculer sur
l’évitement d’obstacle dès que la valeur de ce paramètre évolue. Cela conduit à la loi de commande
référencée multi-capteurs suivante [Cadenat 1999] :
q̇ = (1 − µcoll )q̇av + µcoll q̇coll (V.12)
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
56 multicapteurs
où q̇ = (v ω $)T représente la commande envoyée au robot. q̇av = (vav ωav $av )T désigne la
commande permettant de réaliser la tâche de navigation référencée vision désirée. Elle est donnée
par l’asservissement visuel 2D (V.11). q̇coll = (vcoll ωcoll $coll )T correspond à la commande assurant
l’évitement d’obstacles. Nous proposerons dans la partie V.2.1.3 quelques lois de commande possibles.
Comme nous l’avons vu, µcoll permet de basculer d’un correcteur à l’autre en fonction du risque de
collision. Différents choix sont envisageables pour définir la manière dont ce paramètre évolue. Il est
ainsi possible de considérer une variation continue [Pissard-Gibollet 1993, Cadenat 1999, Folio 2007] ou
bien binaire [Souères & Cadenat 2003, Durand Petiteville et al. 2011b] selon le type d’enchainement
considéré. Nous abordons ce point important dans le paragraphe ci-après.
Enchainement par combinaison convexe Dans ce cas, les correcteurs q̇av et q̇coll sont synthétisés
indépendamment et fusionnés en utilisant une simple combinaison convexe. Le paramètre µcoll va
donc évoluer continûment entre 0 et 1. Il est possible d’effectuer cette évolution en fonction du temps
comme dans [Pissard-Gibollet 1993, Pissard-Gibollet & Rives 1995]. Cependant, cela implique que l’on
choisisse l’instant de basculement (soit en ligne, soit a priori). Or, pour notre application, il apparait
clairement que changer de correcteur explicitement en fonction du temps n’est pas judicieux, puisque la
condition de commutation est liée à la présence (ou l’absence) d’obstacles dans l’environnement proche
du robot. C’est pourquoi, comme nous l’avons mentionné plus haut, le paramètre µcoll caractérisant le
risque de collision est exprimé directement en fonction de la distance à l’obstacle dcoll . Il évolue pour
l’instant de manière binaire puisque ce paramètre est fixé à 0 si d > d+ et à 1 sinon. Il est clair que
cette définition ne permet pas de définir une combinaison convexe. Afin de l’enrichir, nous introduisons
deux nouvelles enveloppes ξ− et ξ0 situées respectivement à des distances d− et d0 de l’obstacle (cf.
figure V.5). La première définit la région où celui-ci est considéré comme réellement dangereux ; la
seconde représente l’enveloppe de sécurité que le robot doit emprunter pour contourner l’obstacle.
Afin que la stratégie fonctionne, µcoll doit vérifier les propriétés suivantes :
– µcoll = 0 loin des obstacles (notamment au-delà de ξ+ ),
– µcoll = 1 près des obstacles (notamment en-deçà de ξ− ),
– µcoll ∈]0, 1[ entre ξ+ et ξ− ,
– µcoll doit être maintenu à 1 jusqu’à ce que tout danger soit écarté. Cet événement se pro-
duit lorsque les tâches de navigation référencée vision et d’évitement deviennent compatibles
[Cadenat 1999]. Il peut être caractérisé de différentes manières. Dans [Cadenat 1999], la phase
de contournement prend fin lorsque les directions de la base mobile et de la platine deviennent
parallèles à l’obstacle. Dans [Folio 2007], la condition de sortie est vérifiée dès que les correcteurs
cessent d’être antagonistes, i.e., dès que sign(q̇av ) = sign(q̇coll ).
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 57
Toute expression de µcoll satisfaisant les conditions précédentes est acceptable. Une solution consiste à
imposer une variation linéaire à ce paramètre [Cadenat 1999, Folio 2007]. Le lecteur intéressé trouvera
d’autres pistes de choix dans [Cadenat 1999].
Enchainement dynamique Dans ce cas, la synthèse de la loi de commande est réalisée de manière
à ce que la continuité soit garantie à l’instant de basculement tb . Les deux correcteurs q̇av et q̇coll à
enchainer doivent alors être déterminés de manière à ce qu’ils aient la même valeur à cet instant. Il
est donc impossible de les calculer indépendamment l’un de l’autre. Par contre, la continuité étant
maintenant assurée au niveau de la synthèse de la loi de commande, elle n’a plus à être gérée par le
biais du paramètre µcoll . Une définition binaire suffit donc ici.
Cette approche, développée initialement dans [Souères & Cadenat 2003], s’inscrit dans le prolon-
gement de notre doctorat et s’appuie sur le formalisme des fonctions de tâche [Samson et al. 1991].
Comme nous l’avons rappelé plus haut, nos travaux de thèse ont montré qu’une application robotique
évoluée pouvait être vue comme une successsion de tâches élémentaires. Chacune de ces tâches peut
être caractérisée par une fonction de tâche admissible, un difféomorphisme local et un domaine de vali-
dité correspondant [Cadenat 1999]. Afin que le basculement entre deux tâches successives soit possible,
les domaines de validité correspondants doivent être en intersection, de telle sorte que les domaines de
validité successifs recouvrent une composante connexe de l’espace libre contenant les configurations
initiale et finale du robot. Ce recouvrement de l’espace libre peut être interprété comme un atlas diffé-
rentiable si l’on considère que le difféomorphisme existant sur chacun des domaines définit en fait une
carte locale à l’intérieur de laquelle la régulation de chaque fonction de tâche élémentaire est réalisée.
Il semble donc que l’idée de conférer à l’espace libre une structure de variété différentielle puisse aider
à modéliser le problème de navigation d’un robot mobile par enchainement de tâches élémentaires
référencées multi-capteurs. Le basculement entre ces différentes tâches peut alors être géré par les
transformations différentielles existant entre chaque carte. C’est sur ce principe que s’appuie l’enchai-
nement dynamique. Nous ne décrivons ici que les aspects « pratiques » de ce type d’enchainement, la
théorie étant détaillée dans [Souères & Cadenat 2003].
Considérons deux tâches qui doivent être enchainées. Ces deux tâches sont modélisées par deux
fonctions de tâche supposées admissibles e1 (q(t)) et e2 (q(t)). Leurs matrices jacobiennes sont données
par J1 = J1 (q(t)) = ∂e ∂e2
∂q et J2 = J2 (q(t)) = ∂q . Ces deux matrices sont naturellement inversibles. Les
1
correcteurs permettant de réguler e1 et e2 à zéro sont donnés par [Souères & Cadenat 2003] :
où ė∗1 et ė∗2 représentent respectivement les dynamiques choisies pour e1 et e2 . Donc, exécuter e1 puis
e2 nécessitera de basculer entre les correcteurs (V.13a) et (V.13b). Comme la dynamique de e1 a
généralement été imposée au préalable, le seul paramètre sur lequel nous pouvons agir pour garantir
la continuité est ė∗2 . L’idée centrale est alors de choisir ce dernier de manière à prendre en compte
l’effet de l’exécution de la tâche e1 sur la dynamique de e2 à l’instant tb . Celui-ci est donné par
[Souères & Cadenat 2003] :
κ = ė2 (q(tb )) + λdyn e2 (q(tb )) = J2 (q(tb )) J1−1 (q(tb )) ė∗1 (q(tb )) + λdyn e2 (q(tb )) (V.17)
λdyn > 0 et τdyn > 0 représentent deux gains qui permettent de fixer indépendamment la vitesse de
décroissance de l’erreur et le temps de basculement 7 . Il est important de noter que les deux dynamiques
(V.15) et (V.16) sont strictement équivalentes si l’on choisit k1 = λdyn + τdyn and k2 = λdyn τdyn .
Remarque 5 Il est possible d’utiliser d’autres dynamiques que les deux solutions mentionnées. Il suffit
en effet que les deux conditions évoquées plus haut soient vérifiées. Nous pouvons citer par exemple
les travaux de B. Gao où une dynamique du troisième ordre a été définie [Gao 2006].
Appliquons maintenant ce formalisme à notre cas. Comme nous l’avons vu, une commutation binaire
suffit puisque la continuité est traitée au niveau de la synthèse de la loi de commande. Cependant,
cette fois, les correcteurs q̇av et q̇coll ne peuvent plus être synthétisés indépendamment. Au contraire,
leur détermination doit s’appuyer sur le formalisme des fonctions de tâche et plus précisément sur la
définition d’une fonction de tâche admissible. Nous avons vu que la tâche epos qui définit l’asservis-
sement visuel vérifie cette propriété. Cependant, le correcteur (V.11) synthétisé plus haut ne permet
7. Afin d’assurer un temps de basculement faible devant le temps de décroissance de l’erreur, il suffit d’imposer
τdyn > λdyn [Mansard & Chaumette 2007].
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 59
pas d’imposer une dynamique vérifiant les deux conditions mentionnées plus haut. C’est pourquoi,
dans les cas où la tâche sera réalisée par enchainement dynamique, il sera remplacé par le correcteur
suivant :
q̇ = q̇avdyn = −(CLs J)−1 ė∗pos = −J −1 ė∗pos si C = L+
s (V.18)
où ė∗pos est la dynamique permettant de réguler la fonction de tâche epos à zéro. Elle vérifiera donc
l’une des deux relations précédentes (V.15) ou (V.16).
Le même problème se posera pour l’évitement d’obstacles. Il faudra être capable de le caractériser
par une fonction de tâche admissible. Le correcteur q̇coll sera alors déterminé en respectant l’une des
deux dynamiques proposées plus haut.
Brève analyse comparative des deux méthodes d’enchainement Dans cette partie, nous
proposons une analyse comparative des deux techniques de séquencement présentées plus haut. Cette
analyse figure dans [Cadenat et al. 2012] dans le cas où trois correcteurs sont enchainés.
Le séquencement par combinaison convexe présente l’avantage de la simplicité puisque l’on peut ra-
pidement et aisément prototyper une stratégie de commande à base de correcteurs élémentaires. Ces
correcteurs peuvent être synthétisés indépendamment en exploitant des techniques adaptées à chacun
d’entre eux. Il suffit ensuite de définir correctement le paramètre µcoll pour que l’enchainement soit
effectué dans de bonnes conditions. Cette technique donne de plus une certaine flexibilité au robot
dans ses réactions vis-à-vis des événements qui interviennent pendant l’exécution de la tâche. Cette ap-
proche souffre néanmoins de plusieurs inconvénients. Tout d’abord, elle peut être sensible aux minima
locaux, même si leur occurrence est réduite en limitant la période pendant laquelle plusieurs correc-
teurs antagonistes agissent sur le robot simultanément. Ensuite, la qualité de l’enchainement dépend
de plusieurs paramètres (valeurs des distances, seuils de déclenchement des indicateurs, type d’évolu-
tion retenue pour µcoll (linéaire, autre, . . . ) qui sont fortement couplés. Ces paramètres influencent à
la fois l’instant de basculement et la manière dont la loi de commande va varier à cet instant. Leur
valeur est très souvent liée à la tâche à réaliser et à l’environnement (positions des obstacles et du
but, configuration initiale du robot, etc.) Il est donc difficile de fixer ces paramètres a priori. Une
petite expertise est nécessaire. Enfin, la mise en œuvre est d’autant plus complexe que le nombre de
correcteurs à enchainer est important.
Au contraire, le séquencement dynamique repose sur des fondements mathématiques plus solides
mais nécessite d’exprimer toutes les tâches à exécuter sous la forme d’une fonction de tâche admissible,
ce qui n’est pas forcément un problème simple. Il présente néanmoins plusieurs avantages. Il permet de
garantir la continuité de la loi de commande de manière naturelle à l’instant de basculement 8 . En outre,
sa mise en œuvre apparait plus simple pour différentes raisons. Tout d’abord, la stratégie de commande
dépend uniquement d’indicateurs binaires déclenchés en fonction des événements intervenant dans
l’exécution de la tâche. S’ils sont correctement définis, seul le correcteur le plus pertinent est appliqué
au robot, ce qui permet de supprimer les problèmes de minima locaux dus à l’enchainement. Ensuite,
cette technique repose sur un nombre de paramètres plus petit que la précédente, ces paramètres étant
découplés. En effet, les indicateurs définissent l’instant de basculement tb et les gains la dynamique
du basculement. Le choix est donc facilité. En général, la dynamique est choisie en fonction des
possibilités du robot. Il reste ensuite à imposer des distances respectant ces contraintes. Aucune
expertise particulière n’est donc requise ici.
La table suivante résume les forces et faiblesses de chacune des approches mentionnées
[Cadenat et al. 2012] :
8. La continuité est seulement garantie au premier ordre. Il faut donc choisir les gains (k1 , k2 ) ou (λdyn , τdyn ) de
manière à éviter que les actionneurs saturent en accélération.
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
60 multicapteurs
Notre propos est ici de déterminer la commande q̇coll à appliquer au robot pendant l’évitement.
Celle-ci aura deux objectifs : tout d’abord, il s’agira de garantir la non collision avec l’obstacle détecté ;
ensuite, il faudra assurer la conservation du but (amer ou personne d’intérêt) dans le champ de vision
de la caméra. En effet, si la seconde condition n’était pas satisfaite, il serait impossible d’exécuter à
nouveau l’asservissement visuel, une fois l’obstacle contourné car la cible aurait été perdue.
Nous rappelons ici que nous considérons pour l’instant des obstacles non occultants. Compte tenu
de la géométrie des robots considérés, cela signifie que la hauteur des objets de l’environnement est
inférieure à celle de la caméra embarquée [Cadenat 1999]. Nous supposerons de plus que la distance
entre deux obstacles reste supérieure à 2d+ , ce qui permet de considérer à tout instant uniquement
l’obstacle le plus proche [Cadenat 1999]. De plus, nous admettons qu’il n’y a pas d’obstacle dans le
voisinage de la cible qui empêcherait la finalisation de la mission.
Les stratégies de commande dédiées à l’évitement que nous avons élaborées peuvent se décliner
en deux grandes familles, selon que la platine et la base mobile sont commandées séparément ou bien
conjointement. La première relevant de nos travaux de thèse [Cadenat 1999], nous ne la rappelons que
très brièvement. Par contre, nous insisterons davantage sur la seconde qui est plus récente et qui peut
être utilisée indifféremment avec l’une ou l’autre des techniques d’enchainement évoquées ci-dessus.
Commande de la base mobile Il s’agit ici de contraindre le robot mobile à suivre l’enveloppe
de sécurité ξ0 afin de garantir la non collision. Pour cela, dans [Cadenat 1999], nous avons synthétisé
deux stratégies d’évitement dont le principe est représenté sur la figure V.6.
La première est basée sur la définition d’un champ de potentiel répulsif rotatif (cf. figure V.6(a))
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 61
Figure V.6 – Evitement d’obstacle par potentiel répulsif rotatif et suivi de chemin.
offrant l’avantage de limiter les problèmes de minima locaux [Cadenat 1999]. La loi de commande
correspondante est donnée par [Cadenat 1999, Cadenat et al. 1999b] :
F
ωcoll = kωcoll sin β (V.19b)
Dx
où kvcoll et kωcoll sont des gains positifs permettant de fixer la dynamique du contournement, F désigne
le module de la force répulsive calculé à partir du champ de potentiel répulsif Ucoll (dcoll ), β représentant
la direction de cette force.
La seconde stratégie d’évitement exploite le formalisme du suivi de chemin développé dans
[Samson 1992] pour contraindre le robot à suivre l’enveloppe de sécurité ξ0 . Dans ce cas, il s’agit de
stabiliser à zéro un système dynamique caractérisant l’évolution des erreurs de position δ = dcoll − d0
et d’orientation α du robot par rapport au repère de Frenet (M 0 , T~ , N ~ ) (cf. figure V.6). Une loi de
commande permettant d’atteindre cet objectif est donnée par [Cadenat 1999, Cadenat et al. 1999a] :
vcoll = v0 6= 0 (V.20a)
ωcoll = −vcoll (kωcoll δ + α + 2kωcoll sin α − χ̄ cos α) (V.20b)
σ
où kωcoll est un gain positif, χ̄ = R représente la courbure de l’obstacle et R son rayon de courbure. σ
est le sens de contournement. La vitesse linéaire vcoll est fixée constante et égale à une valeur v0 6= 0
afin de garantir la commandabilité du système susmentionné. Une preuve de stabilité ainsi qu’une
méthode permettant de choisir le gain kωcoll est proposée dans [Cadenat 1999].
base notés Jbase de ceux relatifs à la platine notés Jpl (soit J = [Jbase Jpl ]), on peut montrer que la
commande de la platine $coll s’écrit [Cadenat 1999] :
−1
$coll = (λpl epl + LY Jbase q̇base ) (V.21)
LY Jpl
où LY est donné par la deuxième ligne de LP (cf. relation (V.5)) et q̇base = (vcoll ωcoll )T est calculé à
l’aide des lois de commande (V.19) ou (V.20) selon que le robot évite l’obstacle à l’aide du potentiel
rotatif ou du suivi de chemin. Ainsi, la commande de la platine comprend deux termes : le premier
garantit le suivi de la cible et le deuxième compense le mouvement de contournement du robot. De
cette manière, l’amer d’intérêt ne sera jamais perdu pendant la phase d’évitement, permettant de
reprendre la tâche référencée vision une fois l’obstacle dépassé.
Dans cette approche, la loi de commande d’évitement q̇coll est obtenue en concaténant les cor-
recteurs q̇base et $coll obtenus précédemment. Cette structure ne pourra donc être utilisée que dans
le cadre de l’enchainement par combinaison convexe. Notons que, par construction, q̇coll permet de
séparer les effets attractif (dus à l’asservissement visuel) et répulsifs (crées par l’évitement) et donc de
supprimer les minima locaux susceptibles de se produire pendant sa seule application. Seuls restent
ceux induits par l’application simultanée de q̇av et q̇coll lorsque µcoll ∈ ]0, 1[. Cependant, l’expérience
montre que si les différentes enveloppes sont correctement choisies, ce problème est très limité (nous
ne l’avons que très rarement rencontré en pratique).
où eY = epl = Ycdg permet de piloter la platine pour garder la cible dans le champ de vision de
la caméra. ech est quant à elle déterminée pour assurer le contournement de l’obstacle par suivi de
chemin. Sa détermination s’appuie sur les résultats obtenus dans [Souères et al. 1998]. Le suivi de
chemin était alors réalisé par la régulation à zéro d’une variable de glissement γ = δ + κα où κ est
un gain scalaire non nul permettant de déterminer la vitesse relative de convergence des erreurs de
position et d’orientation. Celle-ci ne permettant que de définir la vitesse angulaire ωcoll , nous avons de
plus imposé que le robot suive l’enveloppe avec une vitesse linéaire constante v0 6= 0 prédéfinie, ce qui
nécessite de réguler à zéro ev = l − v0 t où l est l’abscisse curviligne du centre M du robot et t le temps.
Ce raisonnement conduit à la fonction de tâche suivante [Souères & Cadenat 2003, Folio 2007] :
! !
ev l − v0 t
ech = = (V.23)
γ δ + κα
La fonction de tâche (V.22) permet donc d’assurer la non collision tout en préservant la visibilité de
l’amer d’intérêt. Elle dépend à la fois des indices visuels nécessaires au tracking du but et des données de
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 63
proximité requises pour le contournement. Il s’agit donc d’une vraie tâche référencée multi-capteurs.
De plus, les trois objectifs sont indépendants et compatibles puisqu’ils agissent séparément sur les
trois commandes. Sa régulation à zéro conduira donc à un mouvement cohérent du robot. Enfin, il
est possible de montrer que cette fonction de tâche est admissible, son jacobien Jcoll étant toujours
inversible [Souères & Cadenat 2003]. Les techniques d’enchainement dynamique pourront donc être
exploitées. Un correcteur permettant de réguler ecoll à zéro (et donc de réaliser la tâche d’évitement
complète) est donné par [Souères & Cadenat 2003, Folio 2007] :
−1
q̇coll = Jcoll (ė∗coll − B) (V.24)
où B = (−v0 0 0)T et ė∗coll désigne la dynamique souhaitée pour faire décroître ecoll à zéro. Cette
dynamique dépendra de la technique d’enchainement utilisée. Si le séquencement est basé sur la
combinaison convexe, une décroissance exponentielle classique de la forme ė∗coll = −λcoll ecoll suffit.
S’il s’agit d’un enchainement dynamique alors ė∗coll doit être donnée par les équations (V.15) ou (V.16)
(ou toute autre dynamique vérifiant les conditions mentionnées dans V.2.1.2).
Dans cette partie, nous présentons quelques résultats de simulation et d’expérimentation démon-
trant l’efficacité des stratégies de commande présentées plus haut. Nous nous sommes focalisés sur les
travaux les plus récents concernant la définition de la tâche référencée multicapteurs (V.22) car ils
offrent la possibilité d’utiliser aussi bien l’enchainement dynamique que le séquencement par combinai-
son convexe. Nous proposons donc d’abord des simulations couvrant ces deux types d’enchainement
puis quelques résultats expérimentaux.
Initialement, le robot se trouve loin du muret. Il n’y pas de risque de collision (le paramètre µcoll
est fixé à zéro) et seul l’asservissement visuel est appliqué au véhicule. Lorsque le risque de collision
devient plus élevé, le paramètre µcoll augmente progressivement et une combinaison convexe des deux
correcteurs q̇av et q̇coll est appliquée au robot (cf. figure V.8). Celle-ci étant suffisante pour contourner
l’obstacle, µcoll n’atteint jamais la valeur 1. Une fois que le muret ne présente plus de danger, µcoll
diminue et l’asservissement visuel reprend à nouveau la main jusqu’au prochain obstacle rencontré ou
jusqu’à ce que la tâche ait été correctement exécutée. Dans le cas de l’enchainement dynamique, le
raisonnement est très similaire, excepté que µcoll varie de manière binaire, la continuité étant gérée
directement au niveau du calcul de la commande suivante à appliquer. Les basculements entre les
différents correcteurs peuvent facilement être visualisés sur la figure V.9.
Figure V.8 – Evolution des commandes appliquées au robot et du risque de collision – Enchainement
par combinaison convexe.
Figure V.9 – Evolution des vitesses angulaires de la base mobile et de la platine – Enchainement
dynamique.
Expérimentation Nous avons expérimenté une tâche de navigation référencée vision sur le robot
Super Scout II [Folio 2003, Folio 2007]. L’objectif est de positionner la caméra face à une cible dans un
environnement encombré d’un obstacle. Cet obstacle est de forme cylindrique de 25 cm de diamètre.
Nous avons choisi ici d’effectuer le contournement à l’aide de la méthode des potentiels rotatifs. Le
séquencement est effectué par combinaison convexe. La figure V.10 représente les trajectoires obtenues
pour le robot et les indices visuels. Comme nous pouvons le constater, la tâche de navigation est
correctement exécutée. De plus, l’évolution de la commande globale reste toujours continue en dépit
des différents basculements effectués (cf. figure V.11). Enfin, les contraintes physiques du robot sont
respectées [Folio 2007].
V.2.1.5 Conclusion
Dans cette partie, nous avons développé des lois de commande référencées multi-capteurs permet-
tant de réaliser une tâche de navigation référencée vision dans un environnement encombré d’obstacles
non occultants. Ces stratégies reposent sur le basculement entre deux correcteurs, l’un basé sur l’as-
servissement visuel 2D, l’autre sur des techniques de contournement d’obstacles. Nous avons proposé
et brièvement comparé deux techniques garantissant la continuité des vitesses appliquées au robot au
moment du basculement. Enfin, nous avons présenté des résultats de simulation et d’expérimentation
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
66 multicapteurs
(a) Trajectoire effectuée par le robot. (b) Evolution des indices visuels dans l’image.
Figure V.10 – Asservissement visuel et évitement de collision par la méthode des potentiels rotatifs.
nement de correcteur pour éviter à la fois les collisions et les pertes du signal visuel. Ces stratégies
s’avérant trop limitées dans certains environnements hautement encombrés, nous avons proposé un
algorithme de reconstruction des indices visuels. Nous avons ensuite couplé ce dernier avec les straté-
gies de commande déjà synthétisées. Enfin, nous avons validé ces différentes solutions en simulation
et expérimentalement sur nos robots. Nous présentons l’ensemble de ces points ci-après.
(a) Projection d’un obstacle sur le plan image. (b) Les distances relatives à l’objet occultant.
+
Nous proposons de bâtir la détection du risque d’occultation sur les mesures des quantités Yobs
−
et Yobs qui caractérisent les ordonnées des bords gauche et droit de l’objet occultant Oocc . Ce choix
peut apparaitre dans un premier temps conservatif. Cependant, il permet d’interdire au motif visuel
de passer au-dessus ou en-dessous de Oocc et donc de créer des situations de blocage similaires à
des minima locaux pendant la mission [Folio 2007]. De plus, ce choix correspond bien à la structure
mécanique de notre robot qui contraint la caméra à effectuer seulement des mouvements plans.
Considérons maintenant la figure V.12(b). Nous définissons par Yocc le bord de l’objet occultant
+ 9
le plus proche du motif visuel d’intérêt (ici, Yocc = Yobs ) . Afin d’évaluer le risque d’occultation, nous
suivons un raisonnement similaire à celui que nous avons mené pour la caractérisation de la collision.
Nous introduisons trois enveloppes : Ξ+ , Ξ0 et Ξ− . La première, située à une distance D+ de l’objet
occultant, définit la zone d’influence de ce dernier. Les deux suivantes, positionnées respectivement
à des distances D0 et D− de ce même objet, caractérisent les zones où le risque d’occultation est
important. Nous définissons de plus la distance avant occultation notée docc = |Yocc − Ys | où Ys est
l’ordonnée de la composante du motif visuel s la plus proche de l’objet occultant. Enfin, nous prenons
aussi en compte la distance dbord = |Yocc − Ybord | qui sépare l’objet occultant du bord de l’image. A
partir de ces différentes distances, il est possible de caractériser le risque d’occultation qui est d’autant
− +
9. S’il n’y a pas d’objet occultant dans l’image, alors Yocc est fixé par rapport à l’ordonnée Yobs ou Yobs du bord de
l’image le plus proche de s. De cette manière, la perte du motif visuel peut également être traitée comme une occultation.
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 69
plus élevé que la distance docc est faible. Comme pour la collision, ce risque sera défini par un paramètre
µocc dépendant de cette distance et variant entre 0 (risque nul : Oocc se situe hors de l’enveloppe Ξ0 )
et 1 (risque élevé : Oocc a franchi Ξ0 ). Nous revenons sur ce point ci-dessous.
Nous avons développé différentes stratégies de commande. La première approche proposée dans
[Folio & Cadenat 2005b] consistait à basculer entre deux correcteurs, l’un réalisant l’asservissement
visuel et l’autre gérant simultanément les problèmes de collision et d’occultation. Ce dernier a été
bâti en exploitant la redondance, bien que peu de degrés de liberté soient disponibles sur notre système
robotique. L’évitement d’occultation a ainsi été défini comme une tâche principale et le contournement
des obstacles comme une tâche secondaire. Cependant, avec cette solution, il est clair que la non
collision ne peut être réalisée qu’au mieux, ce qui n’est pas acceptable d’un point de vue sécurité. De
plus, elle ne permet de traiter qu’un risque d’occultation survenant pendant une phase d’évitement,
alors que ce n’est pas forcément toujours le cas. En effet, deux possibilités existent [Folio 2007] :
B Un risque d’occultation peut se produire seul : en effet, un obstacle peut être détecté dans
l’image bien avant de devenir dangereux pour la base mobile. La présence d’un objet occultant
dans l’image n’implique donc pas forcément qu’un risque de collision se présente (cf. figure
V.13(c)).
B Un risque d’occultation peut survenir en même temps qu’un danger de collision. Cependant,
le robot peut rencontrer deux situations différentes :
– soit le même obstacle génère un danger de collision et d’occultation (cf. figure V.13(a)) ;
– soit les risques de collision et d’occultation sont générés par deux obstacles distincts. Le
phénomène d’occultation n’est par conséquent pas forcément lié à l’obstacle que le robot est
en train de contourner (cf. figure V.13(b))
(a) Risque de collision et d’occultation (b) Risque de collision et d’occultation (c) Risque d’occultation seul.
simultané – Cas 1. simultané – Cas 2.
Dans ces conditions, il est clair que la première stratégie mentionnée ne répond que partiel-
lement au problème posé. Nous avons donc proposé une seconde stratégie basée sur l’enchaine-
ment de trois correcteurs dédiés respectivement à l’asservissement visuel seul q̇av , à l’évitement
conjoint d’obstacle et d’occultation q̇co et à l’évitement d’occultation seul q̇occ [Folio & Cadenat 2005a,
Folio & Cadenat 2006, Folio 2007]. Cette stratégie est ainsi capable de gérer les problèmes de collision
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
70 multicapteurs
et d’occultation qui se produisent de manière simultanée ou bien indépendante. Elle a de plus été
conçue pour donner la priorité à l’évitement de collision devant l’évitement d’occultation afin de ga-
rantir la sécurité des biens et des personnes. Ce raisonnement a conduit à la loi de commande suivante
[Folio & Cadenat 2005a, Folio & Cadenat 2006, Folio 2007] :
q̇ = (1 − µcoll ) ((1 − µocc )q̇av + µocc q̇occ ) + µcoll q̇co (V.25)
où µcoll et µocc évoluent entre 0 et 1 soit de manière binaire, soit de manière continue selon la technique
d’enchainement considérée. Le lecteur intéressé trouvera dans [Folio 2007] différents choix possibles
pour définir l’évolution de ce paramètre dans le second cas. Nous rappelons qu’une analyse compa-
rative de ces deux méthodes de basculement a été réalisée précisément pour cette application dans
[Cadenat et al. 2012]. Le lecteur intéressé est invité à se référer à la table V.1 pour un bref rappel des
résultats de cette dernière.
Il reste maintenant à synthétiser les correcteurs q̇occ et q̇co . Pour cela, nous avons exploité le forma-
lisme des tâches redondantes [Samson et al. 1991] et défini deux fonctions de tâches eco et eocc . La pre-
mière assure la gestion conjointe des occultations et des collisions dans le voisinage des obstacles, avec
comme impératif de garantir la sécurité du robot. Le rôle de la seconde est de contrôler la non occulta-
tion du motif visuel lorsqu’il n’y a pas de risque de collision. Le lecteur intéressé trouvera les expressions
de ces deux fonctions de tâche dans [Folio & Cadenat 2005a, Folio & Cadenat 2006, Folio 2007]. Afin
de les annuler, nous avons proposé les lois de commande suivantes [Folio 2007, Cadenat et al. 2012] :
q̇co = ė∗co (V.26a)
q̇occ = ė∗occ (V.26b)
où ė∗co
et ė∗occ
sont les dynamiques choisies pour les réguler à zéro. Elles sont respectivement données
par −λco eco et −λocc eocc pour un enchainement par combinaison convexe. Pour un séquencement
dynamique, elles sont déterminées par les relations (V.15) ou (V.16).
Nous présentons maintenant quelques résultats de simulation et d’expérimentation afin de valider
l’approche proposée. Nous mettrons ensuite en évidence ses limites.
Résultats expérimentaux Nous avons expérimenté la stratégie de commande (V.25) sur le robot
Super-Scout II [Folio & Cadenat 2006]. L’objectif de la mission est de positionner la caméra face à une
cible constituée de points. L’environnement est encombré de deux obstacles cylindriques : le premier
n’occasionne qu’un danger de collision, le second générant essentiellement un risque d’occultation. Les
résultats obtenus sont présentés sur les figures V.16 et V.17.
10. Afin de ne pas surcharger les résultats, nous nous contentons de proposer ici la trajectoire effectuée par le robot et
l’évolution des vitesses linéaire et angulaire de la base mobile.
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 71
3.5
1
Vitesse linéaire v
3
0.6
2
y (m)
1.5 0.4
vav
1
0.2
0
vocc
-0.2
-0.5 0 50 100 150 200 250 300 350 400 450 500
-1 0 1 2 3 4 5 6 7 8 Itérations
x (m)
2
1
µocc 1.5 wvs
Vitesses angulaires (deg/s)
wco
1
0.8
0.5
0.6
wocc
0
-0.5
0.4
-1 Vitesse angulaire w
envoyée au robot
µcoll
-1.5
0.2
-2
0 -2.5
0 50 100 150 200 250 300 350 400 450 500 0 50 100 150 200 250 300 350 400 450 500
Itérations Itérations
(b) Evolution des risques de collision et occultation. (d) Vitesse angulaire de la base mobile (deg/s).
Comme nous pouvons le constater, la tâche est correctement réalisée en dépit des deux obstacles
présents dans l’environnement. La position de ces derniers a été choisie de telle sorte que deux risques
d’occultation successifs soient générés : l’un qui se produit pendant que le robot contourne l’obstacle,
l’autre intervenant alors que tout danger de collision est écarté (cf. figures V.17(a) et V.17(b)). Il est
ainsi possible de tester les trois correcteurs q̇av , q̇co et q̇occ et de vérifier que les basculements sont
réalisés correctement.
Conclusion Dans cette partie, nous avons proposé une stratégie de commande référencée multi-
capteurs permettant d’éviter les collisions et les occultations. Elle est basée sur la définition de trois
correcteurs dédiés respectivement à l’asservissement visuel, la gestion simultanée de la perte du si-
gnal visuel et des obstacles et l’évitement d’occultation seul. Elle repose de plus sur deux techniques
qui permettent d’enchainer ces correcteurs en préservant la continuité de la commande appliquée au
robot. Nous avons analysé et comparé ces deux techniques, mettant en évidence leurs avantages et
inconvénients respectifs.
Cependant, quelle que soit la technique d’enchainement adoptée, il apparait clairement que chercher
à éviter à tout prix les occultations et les collisions n’est pas forcément la stratégie la plus pertinente.
En effet, l’ajout de l’évitement des occultations en plus des contraintes de sécurité sur-contraint la
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
72 multicapteurs
3.5
Amer
2.5 Obstacle non occultant
y (m)
1.5
-0.5
-1 0 1 2 3 4 5 6 7 8
x (m)
1.2 2
1 wco
Vitesses angulaires (deg/s)
1
Vitesses linéaires (m/s)
0.8 wocc
0
0.6
-1
Vitesse angulaire w
0.4 Vitesse linéaire v envoyée robot
vvs envoyée au robot
-2
0.2
wvs
vco -3
0 vocc
-0.2 -4
0 50 100 150 200 250 300 350 400 450 500 0 50 100 150 200 250 300 350 400 450 500
Itérations Itérations
(b) Vitesse linéaire de la base mobile (m/s). (c) Vitesse angulaire de la base mobile (deg/s).
tâche robotique et réduit le nombre de trajectoires permettant d’atteindre le but. Ce phénomène est
d’autant plus marqué que l’environnement est encombré ou que les positions de l’amer de référence,
des obstacles occultants et non occultants limitent les solutions de navigation possibles. Considérons
par exemple le cas représenté sur la figure V.18. Seuls deux obstacles sont présents dans la scène
considérée, un muret de hauteur inférieure à celle de la caméra et un cylindre susceptible d’occulter
le motif visuel. Bien que l’environnement ne soit pas excessivement contraint, nous pouvons constater
que le robot ne parvient pas réaliser la tâche de navigation. En effet, le contournement par le haut
étant interdit, il n’existe pas de trajectoire évitant à la fois les collisions et les occultations. C’est
ainsi que le véhicule s’arrête lorsque l’amer de référence est masqué par l’obstacle cylindrique. Ce type
de stratégie apparait donc clairement limité. Afin d’aller plus loin et d’élargir la gamme de missions
réalisables, il est nécessaire de tolérer la perte de tout ou partie du motif visuel d’intérêt.
V.2.2.3 Une solution pour la tolérance des occultations pendant la tâche référencée
vision
Comme nous venons de le montrer, certaines tâches robotiques ne peuvent être réalisées qu’au prix
d’une perte temporaire du signal visuel. C’est pourquoi, nous cherchons ici à développer des méthodes
permettant de reconstruire les indices visuels lorsque ceux-ci sont indisponibles puis à les coupler avec
nos stratégies de commande. De cette manière, il sera possible de réaliser une tâche de navigation
référencée vision en tolérant les pertes partielles ou totales du motif d’intérêt.
Nous présentons d’abord les algorithmes de reconstruction que nous avons développés avant de
montrer comment nous les avons couplés à nos stratégies de commande. Ensuite, nous proposons
quelques résultats obtenus en simulation et lors d’expérimentations menées sur le Super Scout II.
Algorithmes de reconstruction des indices visuels Comme nous l’avons vu plus haut, nous
cherchons à traiter des pertes partielles ou totales du motif visuel. Cela signifie donc que nous sup-
posons qu’à un moment donné, l’image entière peut devenir temporairement inaccessible suite à une
occultation ou toute autre raison (déficience du système de vision, utilisation de la caméra pour une
autre tâche, etc.). Notre objectif sera ici de proposer un algorithme permettant de reconstruire les
indices visuels manquants suffisamment rapidement pour pouvoir les utiliser dans la boucle de com-
mande. Cette contrainte de temps étant forte, elle guidera les choix que nous avons effectués pour
construire notre algorithme.
La littérature propose différentes approches. Il est possible d’utiliser des solutions issues du tracking
qui cherchent à suivre un motif de manière robuste aux occultations totales [Favaro & Soatto 2003,
Lepetit & Fua 2006]. Cependant, elles nécessitent des mesures prélevées dans l’image qui est consi-
dérée indisponible ici. Il est aussi envisageable d’utiliser un modèle 2D ou 3D de l’objet d’intérêt et
d’exploiter la géométrie projective pour retrouver les données manquantes. Ce choix conduit cependant
à localiser le robot par rapport à l’amer et requiert une connaissance a priori forte sur l’environnement,
ce que nous ne souhaitons pas. C’est pourquoi, nous nous sommes orientés vers des solutions issues
de l’automatique et plus particulièrement vers les approches permettant de reconstruire l’état d’un
système. La littérature les classe généralement en deux grandes catégories orientées respectivement
vers l’utilisation du modèle d’état si des conditions initiales sont disponibles, ou bien vers l’utilisa-
tion d’un observateur ou d’un filtre (Kalman, filtrage particulaire, etc.) dans le cas contraire. Pour
notre part, nous avons opté pour la première solution : nous proposons ainsi d’intégrer le « lien vi-
sion/mouvement » défini par la matrice d’interaction L à partir d’un historique des indices visuels et
des mouvements de la caméra définis par son torseur cinématique. Ainsi, nous utiliserons la dernière
image obtenue avant occultation comme une condition initiale pour notre algorithme.
Avant de détailler notre approche, nous rappelons quelques hypothèses. Tout d’abord, nous consi-
dérons un amer fixe caractérisé par des indices visuels s de profondeur z. Ensuite, nous supposons
que la caméra est embarquée sur le robot et que seul un mouvement de cette dernière Tc peut faire
évoluer s. L’évolution des indices visuels peut alors être modélisée à l’aide du système dynamique
ṡ = L(s, z)Tc . Afin que notre algorithme puisse être utilisé, il est nécessaire de disposer de conditions
initiales. Pour cela, l’image doit pouvoir être extraite au moins une fois au début de la tâche. Enfin,
nous supposons dans cette partie que nous travaillons en contexte non bruité. Nous relâcherons cette
hypothèse dans la partie V.3.1.
La modélisation du problème de reconstruction dans un cas général n’est pas aisée. En effet,
elle dépend du type d’indice visuel considéré et du système robotique portant la caméra. Afin de
proposer des solutions génériques à ce problème, nous nous sommes placés dans le cas d’indices visuels
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 75
quelconques et d’une caméra disposant de six degrés de liberté 11 . Nous avons basé notre réflexion sur
le lien vision/mouvement défini par la relation ṡ = L(s, z)Tc . S’il est bien connu que le mouvement des
indices visuels dans l’image est caractérisé par cette relation, l’intégration de ce système dynamique
requiert de pouvoir calculer tous les paramètres intervenant dans la matrice d’interaction L(s, z) et
en particulier la profondeur z des indices visuels. Différents cas peuvent se produire [Folio 2007] :
1. la profondeur z intervient explicitement dans L et il est possible d’exprimer ż en fonction de Tc
et des indices visuels considérés, soit une relation de la forme : ż = Lz (s, z)Tc . Il suffit dès lors
d’intégrer conjointement ṡ et ż. C’est le cas des primitives de type point. En effet, pour un point
3D fixe p de coordonnées (xp , yp , zp ) dans RC projeté dans l’image en un point 2D P (XP , YP ),
il est facile de montrer que Lz s’écrit [Chaumette 1990, Folio 2007] :
z Y zp XP
0 0 −1 − pf P f 0 pour une caméra à six degrés de liberté
Lz = Lz (P, zp ) =
z Y
0 −1 − p P f pour notre système robotique
(V.27)
Ainsi, reconstruire les coordonnées d’un point reviendra à intégrer le système suivant
[Folio 2007] :
!
LP
Ψ̇P = Tc = LΨP Tc (V.28)
Lz
où l’expression de χ dépend du cas considéré. t0 et tfin désignent les instants initial et final de la
tâche considérée, χ0 représentant les conditions initiales nécessaires à l’intégration. Cependant, la
résolution directe de ce système entre t0 et tf in s’avère difficile dans un cas général. C’est pourquoi,
nous avons choisi d’intégrer ces équations sur la période d’échantillonnage de l’asservissement Te . Il
s’agit donc pour nous de résoudre le système (V.29) pour tout t appartenant à l’intervalle [tk , tk+1 ] avec
11. Le torseur cinématique Tc sera donc défini jusqu’à mention contraire par un vecteur de dimension 6.
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
76 multicapteurs
tk = t0 + kTe , en prenant comme conditions initiales χk = χ(tk ). Nous considérons donc finalement le
problème suivant : (
χ̇(t) = Lχ Tc = F (χ, t) avec tk ≤ t ≤ tk+1
(V.30)
χk = χ(tk )
Le vecteur χk est défini par le motif visuel sk = s(tk ) complété par les données nécessaires (la pro-
fondeur zk ou les paramètres Apq selon le cas considéré). Ces informations devront être disponibles à
l’instant tk afin que l’intégration puisse être réalisée. Le vecteur sk sera ainsi extrait de l’image fournie
par la caméra à tk . La profondeur quant à elle est pour l’instant supposée connue. Nous relâcherons
cette hypothèse dans la partie V.3.1.
Remarque 6 Il est important de noter ici que la précision des conditions initiales aura une influence
significative sur la qualité de la reconstruction du signal visuel. En effet, le processus de détermination
des indices étant basé sur une intégration à partir d’un modèle et d’un historique de données, une erreur
commise sur les conditions initiales ne pourra pas être compensée (du moins tant qu’aucune image
ne sera disponible). Elle risque de se propager et de remettre en cause la qualité de la reconstruction.
Il est donc important de fournir à nos algorithmes des conditions initiales correctes. De plus, pour
cette même raison, les solutions proposées sont bien adaptées à des occultations de durée limitée, ce
qui correspond bien à notre cas.
Nous nous intéressons maintenant à la résolution du système dynamique (V.30). Ce système dé-
pend de la nature des primitives visuelles considérées, des matrices d’interaction associées et de la
structure mécanique du robot. Afin de conserver ce cadre général, nous avons dans un premier temps
proposé de résoudre le problème à l’aide de différentes techniques d’intégration numérique. En ef-
fet, l’emploi de ces techniques est envisageable, dès lors qu’une formulation analytique de F (χ, t) et
qu’un historique des valeurs successives de χ sont disponibles. Il est alors possible de résoudre notre
système dynamique quelles que soient les primitives visuelles et l’architecture du système
robotique portant la caméra. La difficulté majeure réside donc plutôt dans la modélisation du
problème que dans sa résolution qui peut être effectuée par des algorithmes numériques classiques. En
effet, nous avons exploité uniquement des schémas bien connus de la littérature dédiée à la résolution
numérique d’équations différentielles ordinaires. Nous nous sommes plus particulièrement focalisés sur
deux algorithmes à pas simple (schémas d’Euler et de Runge-Kutta (4ème ordre)) et deux méthodes à
pas multiples (algorithme d’Adams-Bashforth-Moulton (ABM) et formule de Gear (ou Backward Dif-
ferential Formulas (BDF))) dont les principes sont rappelés dans [Folio 2007]. Ces schémas fournissent
une estimation χk+1 à partir d’un historique de valeurs précédentes de χ et en supposant le torseur
cinématique Tc constant ou variable sur [tk , tk+1 ]. Dans le premier cas, une seule évaluation de Tc à
l’instant tk intervient dans le calcul de F (χ, t) ; dans le second, il est nécessaire de sous-échantillonner
l’intervalle précédent en n sous-intervalles [tn , tn+1 ] sur lesquels Tc est considéré constant. Le torseur
doit alors être déterminé à chaque instant tn , ce qui passe par la prise en compte explicite de la jaco-
bienne du robot J(q(tn )) à cet instant. Ainsi, le premier cas fait totalement abstraction de la structure
mécanique du robot. Cependant, le résultat obtenu repose sur l’hypothèse que le torseur cinématique
est constant sur [tk , tk+1 ]. Cette première approximation n’est réellement satisfaisante que pour de
faibles valeurs de Te , et dans les situations où la dynamique du système porteur de la caméra n’est
pas trop importante. La seconde approche proposée permet de s’affranchir de cet inconvénient en
prenant en compte la variabilité de Tc sur [tk , tk+1 ]. Elle conduira donc généralement à de meilleurs
résultats que la première. De plus, elle reste valable quelle que soit l’architecture du système robotique
porteur puisque le système dynamique à résoudre reste exprimé en fonction du torseur cinématique
[Folio 2007].
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 77
Nous proposons ci-après quelques résultats expérimentaux montrant l’efficacité de ces schémas
et permettant de les comparer. Ceux-ci ont été obtenus sur le super-scout II. Pour chaque schéma
numérique, le robot effectue la même tâche référencée vision consistant à se positionner vis-à-vis
d’une cible composée de quatre points. La tâche est tout d’abord réalisée de manière classique, puis,
après 10 itérations, une personne vient occulter l’amer d’intérêt. Malgré la perte du signal visuel, la
caméra parvient à atteindre un voisinage de la situation finale désirée (cf. figure V.19). La tâche est
correctement réalisée, démontrant la validité de notre approche dans des conditions expérimentales
réelles. La table V.2 récapitule les erreurs obtenues pour chaque algorithme. Ces erreurs sont assez
Figure V.19 – Reconstruction des indices visuels : trajectoire effectuée par le robot.
faibles quelle que soit la méthode considérée, ce qui signifie que le système n’a été que peu perturbé
pendant l’exécution de la mission.
Le schéma ABM apparait comme la technique la plus efficace pour la tâche considérée, l’algorithme
de Runge Kutta (RK4) et la formule de Gear (ou BDF) offrant tous deux de bonnes performances.
Comme l’on pouvait s’y attendre, de par son principe, le schéma d’Euler est le moins précis. On notera
néanmoins que la formule de Gear convient bien aux problèmes dits « raides » où la dynamique du
système à intégrer varie rapidement. Il sera donc particulièrement bien adapté lorsque des évitements
d’obstacles occultants seront à réaliser comme nous le verrons par la suite. Des résultats complémen-
taires montrant la reconstruction d’autres types d’indices visuels sont proposés dans [Folio 2007].
Les solutions proposées plus haut présentent l’avantage de la généricité puisqu’elles sont adaptables
à tout type d’indice visuel et de systèmes robotiques. C’est d’ailleurs leur grande force. Par contre,
elles ne permettent d’obtenir qu’une solution numérique approchée au problème, la qualité de la re-
construction dépendant essentiellement du schéma utilisé. Nous avons donc voulu étudier la possibilité
de résoudre exactement le système (V.30). Pour cela, il est nécessaire de produire une solution analy-
tique, ce qui ne peut se faire sans se focaliser sur un type de primitive visuelle. Nous avons alors choisi
de nous intéresser au cas des points car, comme nous l’avons vu plus haut, ces derniers permettent
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
78 multicapteurs
d’aider à la reconstruction de primitives plus complexes. Dans le cas d’un point, χ devient égal à ΨP
et le système différentiel (V.30) se ré-écrit sous la forme (V.28). Notre objectif est donc ici de résoudre
analytiquement ce système sur l’intervalle [tk , tk+1 ]. Trois grandes méthodes ont été élaborées selon
que l’on considère [Folio 2007] :
– le torseur Tc constant sur [tk , tk+1 ] : nous retrouvons ici le cas où l’on néglige toute variation
de Tc sur cet intervalle, approximation qui ne peut être valide que si Te est faible et si la dy-
namique de mouvement de la caméra n’est pas trop élevée. L’intégration analytique du système
(V.28) conduit à quatre solutions dépendant des vitesses de la caméra à l’instant tk dont les ex-
pressions sont données dans [Folio 2007, Folio & Cadenat 2008c]. Il est ainsi possible de déduire
la position et la profondeur du point P pour tout t ∈ [tk , tk+1 ], et ceci quel que soit le système
robotique portant la caméra. On bénéficie ainsi de la précision de la solution analytique alliée à
la généralité.
– le torseur Tc variable par morceaux sur [tk , tk+1 ] : dans ce cas, comme précédemment, on
sous-échantillonne l’intervalle [tk , tk+1 ] en n sous-intervalles [tn , tn+1 ] de largeur Tn . La résolution
du système dynamique est alors réalisée en supposant que le torseur est constant sur chacun
de ces sous-intervalles. Celui-ci doit pouvoir être évalué à chaque instant tn , ce qui nécessite
de calculer la jacobienne du robot J(q) et donc la configuration q à chacun de ces instants.
Pour cela, nous avons simplement intégré la relation q̇(t) = q̇k entre tk et t, ce qui conduit
à q(t) = (t − tk )q̇k + qk . Les valeurs qk = q(tk ) étant généralement fournies par les capteurs
proprioceptifs, il est possible de déterminer la configuration et donc la jacobienne à tout instant
tn . Il suffit alors d’utiliser les expressions ci-dessus pour chaque instant tn ∈ [tk , tk+1 ] pour
obtenir la valeur de ΨP (tk+1 ). Cette méthode présente l’avantage de rester indépendante du
robot porteur tout en permettant une première prise en compte de sa variation sur l’intervalle
de commande. Elle apparait donc plus proche de la réalité et permet d’améliorer la précision de
la reconstruction tout en préservant la généricité.
– le torseur Tc pleinement variable sur [tk , tk+1 ] : ici, nous considérons pleinement l’évolution
de Tc sur cet intervalle. Nous devons donc prendre en compte explicitement l’architecture mé-
canique du robot porteur dans la détermination de ΨP . Pour cela, nous ré-écrivons le système
(V.28) comme suit :
Ψ̇P = LΨP Tc = LΨP J q̇ (V.31)
où J est la jacobienne de notre ensemble robotique et q̇ = (v ω $)T (cf. équation (V.1)). Comme
précédemment, la résolution analytique de ce système conduit à quatre cas dépendant cette fois
des vitesses q̇ à l’instant tk [Folio 2007]. Là encore, le lecteur intéressé trouvera leurs expressions
dans [Folio 2007, Folio & Cadenat 2008c]. Cette dernière approche fournit la solution exacte du
problème. Elle est certes limitée à un type d’indice visuel particulier (le point) et au système
robotique à trois degrés de liberté considéré ici.
Pour conclure cette partie, nous proposons un résultat de simulation permettant de comparer
les méthodes analytiques et numériques. Pour chaque algorithme testé, la même tâche de naviga-
tion consistant à positionner la caméra face à un amer constitué de 10 points est réalisée. Comme
dans le cas de nos expérimentations, nous avons ici simulé une perte du signal visuel au bout de
10 itérations. Nous avons proposé des résultats pour deux périodes d’échantillonnage : Te = 50 ms
et Te = 100 ms. La première correspond grossièrement à la valeur utilisée dans nos expérimenta-
tions, la seconde permettant de travailler dans un contexte plus dégradé. Nous proposons seulement
les résultats obtenus dans le second cas, et renvoyons le lecteur intéressé à [Folio 2007] pour de plus
amples détails. Nous avons cherché à étudier le comportement de ces techniques en fonction de la
valeur du pas d’intégration Tn . Pour cela, nous avons évalué la valeur maximale des erreurs ||s − ŝ||
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 79
et ||z − ẑ|| où s = (XP1 YP1 . . . XP10 YP10 )T est défini par les coordonnées des 10 points considérés et
z = (zp1 . . . zp10 )T par leur profondeur. L’évolution de ces erreurs en fonction de Tn est présentée sur
la figure V.20.
Comme nous pouvons le constater, les erreurs restent faibles et diminuent avec le pas d’intégration
Tn , validant ainsi les différentes approches proposées. La solution analytique à torseur variable conduit
logiquement aux meilleurs résultats. En ce qui concerne les techniques de résolution approchée, l’al-
gorithme ABM apparait le plus précis (résultats proches de ceux obtenus par résolution analytique
avec torseur constant par morceaux), tandis que les schémas d’Euler et de Runge Kutta sont les moins
efficaces. Encore une fois, la formule de Gear (BDF) ne montre pas toute l’étendue de ses capacités
car les variations de dynamique restent faibles compte tenu de la tâche effectuée.
où q̇av (s, ŝ) et q̇coll (dcoll , α, s, ŝ) sont les correcteurs permettant respectivement de réaliser la tâche
de positionnement et de garantir la non collision. Ces deux correcteurs font intervenir la vision, l’un
pour converger vers l’amer de référence, l’autre pour garder la caméra pointée vers la cible pendant le
contournement. Ils seront calculés à partir de s si l’amer visuel est visible et à partir de ŝ dans le cas
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
80 multicapteurs
où q̇av (s) et q̇av (ŝ) sont donnés par l’équation (V.11), en remplaçant s par ŝ lorsqu’une occultation
se produit. q̇coll est un correcteur référencé multi-capteur puisqu’il dépend à la fois des informations
proximétriques et des indices visuels. Cependant, la base étant commandée pour assurer l’évitement
d’obstacles, seule la commande de la platine sera affectée si l’amer de référence vient à être perdu. Nous
proposons de définir q̇coll de la manière suivante [Folio & Cadenat 2008a, Folio & Cadenat 2008b] :
! !
q̇base (dcoll , α) q̇base (dcoll , α)
q̇coll (dcoll , α, s) = q̇coll (dcoll , α, ŝ) = (V.34)
$coll (dcoll , α, s) $coll (dcoll , α, ŝ)
où q̇base représente le correcteur chargé de piloter la base mobile. Il sera défini par les équations (V.19)
et (V.20) de manière à contourner l’obstacle soit à l’aide des potentiels rotatifs, soit par suivi de
chemin. La commande de la platine sera donnée par l’équation (V.21) en remplaçant s par ŝ selon que
le motif visuel peut être extrait ou non de l’image.
Notre approche permet donc de continuer à exécuter la tâche référencée vision en dépit de la
totale indisponibilité de l’image, ce qui présente un intérêt certain. Cette propriété a notamment été
exploitée avec profit pour réaliser de longs déplacements (cf. partie V.3.2). Cependant, les algorithmes
de reconstruction supposant le mouvement de la caméra Tc connu, ils ne permettent de définir des
schémas de commande en boucle fermée sur les mesures sensorielles que lorsque le torseur est déterminé
indépendamment des indices visuels. Lorsqu’il est calculé à partir des données reconstruites ŝ, le schéma
de commande devient une boucle ouverte comme le montre la figure V.21. Le robot évolue alors sur
la base d’informations prédites qui ne peuvent être remises à jour tant qu’une image n’est pas à
nouveau disponible. Ainsi, notre approche apparait bien adaptée pour traiter des pertes du signal
visuel de durée limitée, et dans la mesure où le mouvement du robot (et celui de la caméra) n’est que
peu perturbé. Ces conditions sont a priori réunies dans les tâches de navigation considérées ici, les
obstacles n’occultant l’amer d’intérêt que pour peu de temps.
V.2. Premiers travaux : des obstacles non occultants aux obstacles occultants 81
Remarque 7 La stratégie proposée plus haut suppose que les enchainements ont été réalisés par com-
binaison convexe puisque les correcteurs ont été synthétisés séparément. Il apparait envisageable de
réaliser un enchainement dynamique en redéfinissant la fonction de tâche dédiée à l’évitement ecoll
(cf. équation (V.22)) de manière à prendre en compte le risque d’occultation sur la troisième compo-
sante eY .
q̇ = (1 − µcoll ) ((1 − µocc )q̇av (s, ŝ) + µocc q̇occ (s)) + µcoll q̇coll (dcoll , α, s, ŝ) (V.35)
où q̇av (s, ŝ) et q̇coll (dcoll , α, s, ŝ) sont définis comme indiqués ci-dessus, q̇occ étant donné par la relation
(V.26b).
(a) Trajectoire du robot. (b) Evolution de la valeur maximale de ||s − ŝ|| en fonc-
tion de Tn .
Comme nous pouvons le constater, la tâche est maintenant parfaitement réalisée (cf. figure V.22(a))
malgré les obstacles et les occultations. Nos algorithmes permettent de reconstruire efficacement les
indices visuels de sorte que la perte temporaire totale de l’image puisse être tolérée lorsque cela s’avère
nécessaire pour le succès de la tâche. Nous noterons cette fois que, si la solution analytique avec torseur
variable reste la plus précise (ce qui est logique !), la formule de Gear (BDF) est maintenant le schéma
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
82 multicapteurs
numérique le mieux adapté du fait des variations importantes dans la dynamique du système (cf. figure
V.22(b)). Les méthodes à pas multiples sont dans ce cas plus efficaces que celles à pas simple.
V.2.2.4 Conclusion
Nous nous sommes intéressés ici aux problèmes des occultations et des collisions susceptibles de
se produire pendant l’exécution d’une tâche de navigation référencée vision. Nous avons tout d’abord
proposé des stratégies de commande permettant d’éviter ces deux phénomènes. Malheureusement, très
rapidement, ces solutions se sont trouvées limitées car la plupart des tâches robotiques nécessitent de
pouvoir tolérer les occultations. C’est pourquoi, nous avons développé différents algorithmes permet-
tant de reconstruire les indices visuels. Nous nous sommes appuyés sur le lien vision/mouvement défini
par la matrice d’interaction et avons montré que le problème de reconstruction pouvait se ramener à
l’intégration d’un système dynamique. Nous avons proposé plusieurs solutions analytiques ou numé-
riques. Les premières présentent l’avantage de la précision mais sont restreintes à une primitive visuelle
particulière, le point. Les secondes offrent la généricité puisqu’elles permettent de déterminer une so-
lution approchée quels que soient les indices considérés et l’architecture du robot porteur. Nous avons
ensuite couplé ces algorithmes à nos stratégies de commande afin de réaliser des tâches référencées
vision en environnement encombré en dépit des collisions et des occultations. Les résultats obtenus
valident les approches proposées et montrent leur efficacité. Il est cependant nécessaire de garder à
l’esprit que nos algorithmes de reconstruction sont particulièrement bien adaptés aux occultations de
courte durée et que le risque d’une accumulation de l’erreur n’est pas à exclure lorsque la perte du
signal visuel se prolonge. En outre, tous les résultats de simulation présentés plus haut ont été obtenus
dans un contexte non bruité et en supposant que les conditions initiales sur les indices visuels et leur
profondeur sont disponibles et correctes, ce qui n’est pas toujours le cas (notamment pour le second
paramètre). Nous lèverons ces deux hypothèses dans la partie V.3.1.
V.2.3 Conclusion
Cette section a été consacrée à la gestion de la présence des obstacles pendant l’exécution d’une
tâche de navigation référencée vision. Nous nous sommes d’abord intéressés à l’évitement de collision
seul, avant d’étendre les stratégies de commande développées dans ce cadre pour contourner les obs-
tacles tout en gérant le problème des occultations. Nous avons ainsi montré que chercher à éviter à tout
prix la perte des indices visuels n’est pas toujours la solution la plus pertinente. Cela nous a conduit
à reconstruire les indices visuels et à piloter le robot sur la base de ces derniers lorsque la caméra
n’est plus en mesure de fournir les données nécessaires à la commande. Nous avons ainsi significative-
ment amélioré l’efficacité de nos stratégies et le robot est maintenant capable de naviguer – pendant
une courte durée – en l’absence de données visuelles, élargissant ainsi considérablement la gamme de
tâches réalisables. Les stratégies de commande développées reposent sur le basculement entre diffé-
rents correcteurs permettant de réaliser la tâche de navigation nominale, d’éviter les obstacles et de
prendre en compte la perte temporaire du signal visuel. Deux techniques de séquencement permettant
de garantir la continuité des vitesses envoyées au robot ont également été proposées et comparées. Il
est aussi important de noter que l’ordre d’activation des différents correcteurs n’est jamais connu a
priori mais est décidé en ligne, en fonction des risques de collision et d’occultation évalués à partir
des informations visuelles et proximétriques. Les méthodes proposées sont donc typiquement locales
et semblent bien adaptées aux problèmes occasionnés par les obstacles statiques présents dans l’envi-
ronnement. Elles constituent donc un premier pas vers la réalisation de notre objectif à long terme :
la réalisation de tâches de navigation référencées vision au long cours dans des environnements dyna-
miques encombrés où l’homme peut éventuellement être présent. Afin d’aller plus loin, il est nécessaire
V.3. Travaux actuels : vers la réalisation de grands déplacements dans des
environnements « humains » peu connus 83
12. Le terme « humain » est ici à comprendre dans le sens « où l’homme peut être présent ».
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
84 multicapteurs
adjustment » [Triggs et al. 2000] partagent ce même défaut et nécessitent des images obtenues pour
des points de vue éloignés, ce qui n’est pas notre cas. Dans la communauté automatique, différentes
approches permettent de reconstruire zp . Il est ainsi possible d’utiliser un filtre de Kalman comme dans
[Matthies et al. 1989], mais cette méthode interdisant certains mouvements n’est pas applicable dans
notre contexte. Dans [Bellot 2002], l’estimation de pose de la cible est vue comme un dual du problème
de commande. Cependant, cette solution nécessite une connaissance a priori importante sur l’environ-
nement, ce que nous ne souhaitons pas. Enfin, d’autres auteurs ont proposé d’exploiter des observateurs
non linéaires minimaux [Morbidi & Prattichizzo 2009] et non minimaux [De Luca et al. 2008]. Toute-
fois, ces observateurs dépendent de paramètres difficilement réglables a priori et ne conduisent pas à
un temps de convergence répondant à nos attentes [Durand Petiteville et al. 2011a]. Pour notre part,
nous avons étendu nos propres travaux et avons élaboré une technique consistant à estimer zp en
développant une paire prédicteur/correcteur à partir des solutions analytiques obtenues.
Notre objectif est ici de construire une paire prédicteur/correcteur permettant de reconstruire
la profondeur à l’instant tk notée zp (k) en fonction des données XP (k − 1), YP (k − 1), XP (k) et
YP (k) extraites des images aux instants tk−1 et tk . Nous avons obtenu les prédicteurs XP (k|k − 1),
YP (k|k − 1), et zp (k|k − 1) à partir des équations d’évolution des indices visuels proposées dans
[Folio 2007, Folio & Cadenat 2008c]. Leurs expressions ainsi que la démarche permettant de les cal-
culer est décrite dans [Durand Petiteville et al. 2009]. Les prédicteurs étant calculés, il reste à dé-
terminer l’estimateur. Pour cela, nous cherchons la valeur de zp qui minimise le critère suivant
[Durand Petiteville et al. 2009] :
où X̃P (k) et ỸP (k) sont les mesures à l’instant tk . Ce critère compare les prédicteurs basés sur les
mesures à l’instant tk−1 avec les mesures obtenues à l’instant tk . En dérivant ce critère par rap-
port à ẑP (k|k − 1), nous obtenons l’estimateur. Le lecteur intéressé trouvera son expression dans
[Durand Petiteville et al. 2009].
Nous avons simulé le comportement de cet estimateur pendant la réalisation d’une tâche de na-
vigation référencée vision. Ces simulations ont été effectuées d’abord en contexte non bruité puis
en introduisant une erreur de ±1 pixel sur l’image et de ±3% sur la commande calculée. Les résul-
tats sont présentés sur la figure V.23. Comme nous pouvons le voir, dans un cas idéal, les profon-
Profondeur réelle et estimée pour l indice visuel #1 Profondeur réelle et estimée pour l indice visuel #1
8 8
Prondeur réelle Prondeur réelle
Profondeur Estimée Profondeur Estimée
7 7
6 6
Profondeur (m)
Profondeur (m)
5 5
4 4
3 3
2 2
1 1
0 0
0 5 10 15 20 25 30 0 5 10 15 20 25 30
Temps (s) Temps (s)
Figure V.23 – Evolution de la profondeur réelle et reconstruite en contexte bruité et non bruité.
V.3. Travaux actuels : vers la réalisation de grands déplacements dans des
environnements « humains » peu connus 85
deurs réelle et reconstruite se superposent parfaitement, validant notre approche. Par contre, dans
un contexte plus réaliste où des bruits sont introduits, cet estimateur ne fonctionne plus. Les images
utilisées pour la reconstruction étant consécutives, elles sont trop proches pour fournir un rapport
signal/bruit suffisant et conduire à de bons résultats. Il est donc nécessaire de modifier la structure
du prédicteur/correcteur. Pour cela, nous proposons d’utiliser n images obtenues pour des configura-
tions du robot significativement différentes. Dans cette optique, nous définissons un nouveau critère
[Durand Petiteville et al. 2010b] :
n
C∗ =
X
(X̂P (k|k − j) − X̃P (k))2 + (ŶP (k|k − j) − ỸP (k))2 (V.37)
j=1
Ce critère compare les mesures faites à l’instant tk avec les prédicteurs X̂P (k|k − j) et ŶP (k|k − j)
construits à partir des mesures prélevées aux instants tk−j , pour j ∈ [1, n]. L’estimation de ẑP (k|k)
est maintenant basée sur n images significativement différentes, ce qui permet d’accroître le rap-
port signal/bruit. Or, l’utilisation de ce critère nécessite de disposer des prédicteurs X̂P (k|k − j) et
ŶP (k|k − j). Pour cela, une première solution consiste à utiliser la récurrence des équations d’évolu-
tion des indices visuels. Cependant, cela conduit à des calculs complexes et lourds. C’est pourquoi,
nous avons cherché à déterminer comment l’image Ik−j obtenue à l’instant tk−j se transforme en
l’image Ik mesurée à l’instant tk . Pour cela, nous avons proposé de calculer la plus courte séquence de
commandes reliant l’état de la base mobile 13 ηk−j = η(tk−j ) à l’état ηk = η(tk ). Cette séquence
de commandes existe si et seulement si le système non linéaire discret ηk+1 = f (ηk , q̇k ) modéli-
sant l’ensemble robotique est commandable. Nous avons montré que ce système est commandable
en deux coups [Durand Petiteville et al. 2010b]. Cela signifie qu’une séquence de deux commandes
{q̇e1 , q̇e2 } dites « commandes équivalentes » suffit pour relier les états ηk−j et ηk et donc les images
Ik−j et Ik . Leur expression est donnée dans [Durand Petiteville et al. 2010b]. Il est à noter que ces
commandes ne seront jamais utilisées pour piloter réellement le robot ; d’ailleurs, la trajectoire effec-
tuée sous l’action de q̇e1 et q̇e2 est différente de celle obtenue lorsque le véhicule est contrôlé par la
séquence {q̇(tk−j ) . . . q̇(tk )} [Durand Petiteville et al. 2010b]. Les commandes équivalentes seront sim-
plement exploitées pour déterminer les prédicteurs nécessaires. Leurs expressions sont disponibles dans
[Durand Petiteville et al. 2010b]. Une fois les prédicteurs connus, le critère (V.37) peut être minimisé
et l’estimateur déterminé [Durand Petiteville et al. 2010b].
Nous avons donc obtenu un estimateur s’appuyant sur plusieurs images significativement diffé-
rentes, ce qui devrait permettre d’accroître le rapport signal/bruit et améliorer la reconstruction de la
profondeur en contexte bruité. Afin de vérifier l’efficacité de la méthode, nous l’avons d’abord simulée
dans les mêmes conditions que précédemment. La figure V.24 montre les résultats obtenus en pré-
sence de bruit. Dans un contexte parfait, nous retrouvons des courbes très similaires au cas précédent
[Durand Petiteville et al. 2010b]. Nous ne les présentons donc pas à nouveau.
La figure V.24 permet d’évaluer l’influence du nombre d’images n utilisé pour calculer les prédic-
teurs. Comme nous pouvons le voir, dans chaque cas, l’estimateur converge vers la valeur réelle de la
profondeur, ce qui valide notre approche. Lorsque n est faible, nous observons des oscillations en fin
de simulation. Dans ce cas, la tâche référencée vision étant quasiment réalisée, les vitesses appliquées
sont très faibles, conduisant à des images très semblables. Le rapport signal/bruit est alors réduit et la
qualité de la reconstruction s’en ressent. Il est possible de lutter contre ce phénomène en augmentant
le nombre d’images utilisé. L’historique devient alors plus important, ce qui permet en outre de di-
minuer le temps de convergence. Naturellement, un compromis est nécessaire dans le choix de n. Une
13. Dans notre cas, η = (x y θ ϑ)T où (x, y) sont les coordonnées du centre M de la base mobile, θ et ϑ désignant
les orientations de la base et de la platine (cf. annexe B).
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
86 multicapteurs
Profondeur réelle et estimée pour l indice visuel #1 Profondeur réelle et estimée pour l indice visuel #1 Profondeur réelle et estimée pour l indice visuel #1
8 8 8
Prondeur réelle Prondeur réelle Prondeur réelle
Profondeur Estimée Profondeur Estimée Profondeur Estimée
7 7 7
6 6 6
Profondeur (m)
Profondeur (m)
Profondeur (m)
5 5 5
4 4 4
3 3 3
2 2 2
1 1 1
0 0 0
0 5 10 15 20 25 30 0 5 10 15 20 25 30 0 5 10 15 20 25 30
Temps (s) Temps (s) Temps (s)
(a) Données bruitées et n = 5. (b) Données bruitées et n = 50. (c) Données bruitées et n = 100.
valeur trop importante conduirait en effet à des temps de calcul trop élevés pour notre application.
Compte tenu de ces bons résultats, nous avons expérimenté notre approche sur le robot Pekee II. La
cible considérée est constituée de quatre cercles rouges d’un diamètre de 16 cm (cf. figure V.3(a)). Les
points sont obtenus en extrayant les centres de ces cercles. Nous avons utilisé ici un nombre d’images
n = 30. Les résultats sont présentés sur la figure V.25. Ne disposant pas de capteur permettant de
mesurer la profondeur, il est difficile de conclure avec certitude sur la précision de l’estimation pendant
la navigation. Cependant, la valeur reconstruite finale de 0.75 m est cohérente avec la mesure effectuée.
De plus, la mission nécessitant que la caméra soit orientée face à la cible à la fin du mouvement, il est
logique que la profondeur reconstruite pour chaque point converge vers la même valeur.
3
Amer 1
Amer 2
Amer 3
2.5
Amer 4
Profondeur (m)
1.5
0.5
0
0 1 2 3 4 5 6 7 8 9
Temps (s)
Le prédicteur/estimateur proposé plus haut est basé sur le calcul de commandes équivalentes per-
mettant de relier les états ηk−j et ηk . Les expressions obtenues pour ces dernières sont spécifiques à cha-
cun des quatre cas d’évolution des indices visuels présentés dans [Folio 2007, Folio & Cadenat 2008c].
Ainsi, il peut arriver que le calcul de q̇e1 et de q̇e2 utilise les équations obtenues dans deux cas diffé-
rents. Il existe donc seize expressions analytiques possibles pour les prédicteurs avec le critère (V.37),
alors qu’il n’en existait que quatre pour le critère (V.36). Cela pouvant s’avérer un peu fastidieux,
nous avons cherché à raccourcir la séquence des vitesses équivalentes. En effet, si un système com-
mandable en un coup pouvait être exhibé, l’estimateur ne s’exprimerait plus que de quatre manières
différentes. Dans cette optique, nous avons considéré le système décrivant l’évolution de la caméra
plutôt que celle de la base mobile comme nous l’avions fait plus haut. Nous définissons l’état de ce
dans le chapitre METTRE UNE REF, afin réaliser une navigation grâce à
apitre
eut êtreMETTRE
étendre UNE REF,
l’idée...), la cible afin réaliser doit une navigation grâce
par laà caméra
V.3. Travaux actuels : versconsidérée
la réalisation de être perçue
grands déplacements dans destout
endre
si il estl’idée...),
possible ladecible
environnements considérée
connaitre
« humains doit
à chaque
» peu être perçue
période
connus par la caméra tout
d’échantillonnage les coordonnées 87
ssible de connaitre à chaque période d’échantillonnage
la projection dans l’image des points Pi caractéristiques constituants les coordonnées la cible.
nouveau système de la manière suivante : ηC (tk ) = (Cx (tk ) Cy (tk ) θC (tk ))T où θC (tk ) = θ(tk )+$(tk ),
on dans l’image
pour but ledecouple des
faire(C points
converger P
les caractéristiques
i indices visuels courants s constituants la cible.
x , Cy ) représentant la position de la caméra. IlPest i versalorsles indices
possible visuelsque le sys-
de montrer
de faire
e commande converger les
tèmefonction
indices
représenté depardeux
visuels courants
derniers s
paramètres,vers les indices visuels
k + 1) une
= g(ηméconnaissance de sPi (t)en un coup
ηCP(t
i
l’équation dynamique C (tk ), q̇(tk )) est commandable
de fonction de
[Duranddeux derniers
Petiteville paramètres,
gation. Cette méconnaissance peut être due à une occultation
2012]. Une seule une
commandeméconnaissance
équivalente q̇ e1
de
est s P
alors
i (t)
partielle ou totale
nécessaire pour transformer
ettetraitement
méconnaissance ηC (tk−jpeut
l’étatd’images, ηêtre
) enune ) due
C (tkpanne àde
et donc une la occultation
l’image Ik−j et ou
caméra Ik . partielle
En suivant
bien encore ou totale
le même
uneraisonnement
utilisationquede précédem-
nt
éra.d’images, uneil panne
ment, de la
est possible caméra
d’établir ou bien deencore
l’expression une utilisation
l’estimateur zp (k|k). Le lecteurde intéressé est renvoyé à
[Durand Petiteville 2012] pour une description détaillée de la démarche et des résultats.
de commande avec coupure sur le retour de sortie
nde avec coupure sur le
Nous disposons retour
à présent deprédicteur/estimateur
d’un sortie permettant de fournir une condition initiale
fiable sur la
OGRAPIQUE SI NECESSAIREprofondeur (même en contexte bruité). Les algorithmes de reconstruction des indices
QUE SI NECESSAIRE
visuels développés plus haut seront donc nourris avec des valeurs plus précises, ce qui permettra de
réduire la propagation des erreurs. Il faut néanmoins remarquer que ces résultats sont pour l’ins-
tant restreints au cas de primitives visuelles de type point et à l’ensemble robotique considéré dans
lution
es des indices
indices visuels visuels
ces travaux. Le premier point n’est pas un gros inconvénient, puisque nous avons montré que la
plupart des primitives peuvent être reconstruites à partir de ce type d’indice visuel. Le second est
par contre plus limitant et il sera nécessaire d’étudier de nouvelles approches permettant de lever
nal visuel,
nous proposons nous
cette proposons
contrainte.
d’utiliser Enles d’utiliser
termes lesd’évolution
équations
de performances,
équations d’évolution
les résultats
des des
obtenusvisuels
indices indices et
en simulation visuels
expérimentation
08}. Ces récursives
quations équations
montrent récursives
l’efficacité
fonction de des
notrefonction
solutiondes
paramètres paramètres
: la géométriques
condition initialegéométriques
duest robot
produite du un
etdans robot
tempsetcompatible
système peuvent
obotique, robotique,
avec la
êtrepeuvent
période
utiliséesêtre
lorsutilisées
d’échantillonnage de lors d’unepartielle
l’asservissement
d’une occultation occultation
et suffisamment partielle ou totale
ou totale
rapidement pour permettre de
gérer les occultations dans de bonnes conditions. De plus, peu d’hypothèses sur l’amer d’intérêt ont
évolution
es indices des indices
visuels. Dans visuels. Dans un
un premier tempspremier
nous temps présenter
nous allons présenter dans
été formulées (en particulier, aucun modèle n’estallons dans
nécessaire). Afin d’affiner notre analyse, nous avons
ésenter lesaussi
calculs ayant calculs
permis ayant permis
d’obtenir cesd’obtenir
équations. ces équations.
comparé notre méthode aux techniques basées sur les observateurs non linéaires mentionnées en
introduction [De Luca et al. 2008, Morbidi & Prattichizzo 2009]. Ceux-ci sont également utilisés pour
nté dans cite)est
e) considéré considéré
un robot est un robot non-holonome
non-holonome munit d’une caméra embarquée
des primitives de type point et pour munit d’une
une caméra camérade
disposant embarquée
six degrés de liberté. Nous avons mon-
en lacet.
L’axe L’axe
de rotation
tré de
que les rotation
la platinede
deobservateurs la platine
n’est
proposés pas n’est pas
sontconfondu
difficilementavecconfondu avec
celuietduqu’ils
réglables celui
robot.
ne du robot.
conduisent pas à un temps
ppelons que
e le torseur le torseur suffisamment
de cinématique
convergence cinématique
réduit de courtla réduit
pour de
caméra la donné
est
répondrecaméra
à nosparestladonné
relation
attentes. par laintéressé
Le lecteur relationtrouvera de
plus amples détails sur ces aspects dans [Durand Petiteville et al. 2011a]. Enfin, nous avons intégré ce
prédicteur/estimateur dans la structure de commande proposée sur la figure V.21, conduisant à une
nouvelle architecture représentée sur le schéma V.26.
υ sin(ϑ(t))−υ
+ sin(ϑ(t))
ω(Cx + D+x cos(ϑ(t)))
ω(Cx + D+ x cos(ϑ(t)))
Cx � + Cx �
=
cos(ϑ(t)) υ+cos(ϑ(t))
ω(−Cy ++ Dω(−C y + D−
x sin(ϑ(t))) Cy �
x sin(ϑ(t))) =−JrC(ϑ) = Jr (ϑ)q̇(t)
y �q̇(t) (1.1) (1.1)
s* +
−(ω + �) −(ω + �) Bloc de commande Robot Caméra
-
tériser la cible dans
n de caractériser la le plandans
cible image, sont image,
le plan des points.
sont Dans ce cas, Dans
des points. nous ce cas, nous
(X P (t), YP
eraction (t),PzP(t),
L(X (t))
YPreliant
(t), zPla variation
(t)) ŝ
2reliant d’un indicedes
la variation
Prédicteur visuel P , projection
d’un indice visuel P , projection
indices visuels
ène, aux mouvements de la caméra
dans la scène, aux mouvements de la caméraest donnée
ẑ par l’équation 1.2. ẑ
est donnée par l’équation 1.2.
Estimateur de z
4 3
s
(ŝ, ẑ ) (s, ẑ )
s
Page 1 Page 1 1
s
1 : Image disponible
2 : Occultation
3 : Première boucle avec occultation
4 : Seconde boucle avec occultation et suivante
Grâce à ces travaux, nous sommes maintenant en mesure de traiter correctement le problème de la
perte du signal visuel, quelle qu’en soit son origine (occultation, panne de la caméra ou du traitement
d’images, utilisation temporaire de la caméra pour une autre tâche, etc.). En d’autres termes, le robot
est capable d’évoluer sur la base d’indices visuels virtuels pendant un laps de temps donné. Cette
propriété est extrêmement importante. Elle sera en effet la pierre angulaire du superviseur développé
pour la réalisation de tâches de navigation « au long cours ». Nous nous focalisons maintenant sur ce
dernier point qui fait l’objet de nos contributions les plus récentes.
sur des primitives permettant de passer d’un nœud à l’autre et elle est vérifiée par des procédures de
localisation « qualitative » [Vassalo et al. 2000, Gaspar et al. 2000].
Le second problème évoqué concerne la prise en compte des événements imprévus tels que les
obstacles. En effet, à notre connaissance, peu de travaux s’inscrivant dans ce contexte se sont intéressés
à ce problème, à l’exception des solutions récentes proposées dans [Cherubini & Chaumette 2010,
Cherubini et al. 2011]. Celles-ci ont consisté à modifier la loi de commande assurant la progression
dans la carte de manière à garantir la non collision. Un correcteur spécifique a donc été synthétisé.
Pour notre part, nous nous sommes intéressés à ces deux problèmes. Nous avons d’abord cherché
à définir notre carte topologique de manière à réduire la quantité d’informations nécessaires en nous
inspirant de [Vassalo et al. 2000]. Nous avons ensuite couplé cette carte avec un superviseur permettant
d’organiser les différentes tâches élémentaires nécessaires à la réalisation de la mission. Ce superviseur
a été conçu de manière à ce qu’il soit le plus générique possible, c’est-à-dire que les tâches élémentaires
susmentionnées puissent être réalisées par n’importe quel type de correcteur. Nous présentons nos
résultats ci-dessous. Ces travaux étant relativement récents [Durand Petiteville et al. 2011b], nous
avons porté notre effort essentiellement sur la détermination du superviseur. Nous proposons donc
seulement nos premières réflexions sur la construction de la carte topologique.
Nous supposons maintenant que nous disposons d’une séquence d’amers Tch à atteindre successi-
vement. Nous avons donc déterminé le chemin à suivre ; il reste maintenant à réaliser le mouvement
correspondant. Pour cela, nous avons développé le superviseur présenté sur la figure V.27.
DEBUT
E1 [M1]
ECHEC Planification
0
8&T [A]
Initialisation
1&2
[D]
[E] Evitement
Asservissement 2 1 d'obstacles
visuel avec
avec indices
indices visuels
visuels estimés
estimés
1&3
3 3
[B]
Asservissement [C] Evitement
1
visuel d'obstacles
1&2
2 & !EON 4&T
2 & !EON
7 7
[F]
[G] Evitement
Asservissement 5 d'obstalce /
visuel / 1
Recherche de la
Recherche de la
prochaine cible
prochaine cible
4&T 5
[H]
Réorientation
8
[J] 8
Recherche
de la cible
0: Chemin calculé
1: Evitement terminé Obstacle détecté
2: Convergence de l'estimation des indices visuels de références
Prochaine cible non trouvée
3: Fin de l'occultation Occultation détectée
4: Convergence de l'estimation des prochains indices visuels de références
5: Fin de la réorientation
Fin de la réorientation et évitement d'obstacle
6: Fin de l'asservissement visuel
7: Prochaine cible non trouvée et détection d'occultation
8: Sous-naviagtion terminée et prochaine cible non trouvée
Prochaine cible trouvée
9: Prochaine cible non trouvée
10 : Mise à jour de la carte terminée
E1 : Aucun chemin ne mène à la cible finale
T: Mise à jour de la cible courante
EON : La cible courante est la dernière cible du chemin
!EON : La cible courante n'est pas la dernière cible du chemin
B trouver la cible suivante Ti+1 pendant que le robot converge vers l’amer courant Ti :
Cette recherche peut être effectuée soit durant un asservissement visuel (tâche [F ]), soit en phase
d’évitement (tâche [G]). Pour cela, la base et la platine sont désolidarisées. La première est pilotée
à partir des indices visuels virtuels fournis par les algorithmes de reconstruction. La seconde est
commandée à l’aide d’un simple asservissement de position angulaire pour balayer l’environnement à la
recherche de la cible suivante [Durand Petiteville et al. 2011b]. Nous voyons ici tout l’intérêt de pouvoir
accepter des pertes totales de l’image et de permettre au robot de se déplacer en « aveugle » pendant
au moins de courtes périodes. Si la cible Ti+1 n’a pas été détectée, on revient à l’asservissement visuel
ou à l’évitement en cours d’exécution. Enfin, notons que si cette cible n’était jamais repérée, le robot
s’arrêterait devant l’amer Ti et la caméra scannerait l’environnement jusqu’à ce que Ti+1 soit trouvée
(tâche [J]). La sécurité des biens et des personnes est donc préservée. Une étape de mise à jour de la
carte et de replanification du chemin est alors mise en œuvre (tâches [M 1] et [M 2]).
B changer la cible considérée dans l’asservissement visuel, une fois Ti+1 trouvée :
Ce changement pouvant occasionner des mouvements indésirables du système robotique tels que
des marches arrières [Durand Petiteville et al. 2011b], nous avons proposé un correcteur permettant
de réorienter la base mobile vers la nouvelle cible. C’est ce correcteur qui est appliqué au robot
lorsque la tâche [H] est réveillée. Le lecteur intéressé trouvera davantage de détails sur ce point dans
[Durand Petiteville et al. 2011b].
Tous les correcteurs mis en jeu sont à présent connus. Il reste cependant un point à définir qui
concerne la détermination des motifs de référence s∗i . En effet, leur valeur est nécessaire puisque le
mouvement entre chaque amer est réalisé par un asservissement visuel (cf. tâche [B]). Cette valeur
peut être obtenue pendant une phase d’apprentissage comme dans [Cherubini & Chaumette 2010].
Mais il est également possible de la calculer en ligne à partir de la technique développée dans
[Durand Petiteville et al. 2010a]. Dans ce travail, nous avons utilisé la valeur de la profondeur re-
construite par la paire prédicteur/estimateur pour déterminer automatiquement les dimensions de
l’amer et déduire les indices visuels de référence. Grâce à cette méthode, contrairement aux approches
classiquement proposées dans la littérature, aucun modèle de l’amer n’est nécessaire pour effectuer ce
calcul, limitant ainsi les informations à fournir préalablement au système. C’est donc cette solution-là
que nous avons choisie. Ainsi, la tâche [A] dédiée à l’initialisation consistera principalement à faire
tourner le robot sur lui-même pour acquérir les images nécessaires au calcul de la profondeur des points
du premier amer à atteindre et de s∗1 . De même, lorsque la cible suivante Ti+1 a été détectée, l’esti-
mateur permettant de déterminer la profondeur des points est lancé et les indices visuels de référence
s∗i+1 peuvent être déterminés.
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
92 multicapteurs
Ce superviseur apparait donc comme une extension des stratégies de commande proposées dans nos
travaux antérieurs. Celles-ci peuvent être vues comme une « bibliothèque » de correcteurs élémentaires
à disposition qu’il suffit d’activer « au bon moment » pour réaliser la tâche souhaitée.
Comme le montre la trajectoire du robot représentée sur la figure V.28(a), la mission est parfai-
tement réalisée, bien que le but ne soit pas visible depuis la position initiale du robot. Les différentes
cibles ont été correctement enchainées et la sécurité préservée. Le robot a effectué un déplacement
d’environ 20 mètres, ce qui est conséquent pour une tâche référencée vision et qui n’est pas « opti-
mal » en termes de distance parcourue. Ce résultat est logique car, le chemin étant effectué par un
ensemble de correcteurs référencés capteurs, aucune contrainte sur la longueur de la trajectoire n’a été
prise en compte. En outre, nous pouvons aussi remarquer que le basculement vers l’amer suivant n’est
réalisé que lorsque ce dernier est effectivement détecté par la caméra (et non dès qu’il est visible). Le
temps d’exécution de la mission est donc accru. Cependant, la carte topologique ne contenant aucune
information sur la position des amers, il est impossible de choisir des directions privilégiées de recherche
et donc d’améliorer l’efficacité de la tâche [H]. Notons enfin que toutes les tâches apparaissant dans
V.3. Travaux actuels : vers la réalisation de grands déplacements dans des
environnements « humains » peu connus 93
le superviseur ont été exécutées au moins une fois (cf. figure V.28(a)), validant l’approche proposée.
Pour aller plus loin dans notre analyse, nous présentons de plus l’évolution des vitesses appliquées
au robot sur la figure V.29(a). Les pointillés matérialisent les instants de basculement et les lettres font
référence aux tâches activées (cf. schéma V.27). Comme nous pouvons le constater, la continuité des
commandes a été préservée tout au long de la mission. Nous avons ici utilisé l’enchainement dynamique,
mais il aurait aussi été possible de travailler avec la combinaison convexe. Enfin, nous concluons cette
partie en montrant l’efficacité de la méthode de reconstruction des indices visuels de référence. Les
résultats pour l’amer T7 sont proposés sur la figure V.29(b). Cette courbe permet d’apprécier la
précision et la rapidité avec laquelle chaque motif de référence si est déterminé en dépit des bruits
présents sur l’image et l’odométrie. La technique développée dans [Durand Petiteville et al. 2010a] est
donc parfaitement utilisable en ligne dans un contexte réel.
V.3.2.4 Conclusion
Nous avons proposé ici une première solution au problème de la navigation au long cours par asser-
vissement visuel. Nous nous sommes appuyés sur les stratégies de commande locales développées dans
nos travaux antérieurs et nous les avons complétées pour bâtir un superviseur dédié. Ce superviseur a
ensuite été couplé à une carte topologique qui apporte les données globales nécessaires à la réalisation
de grands déplacements. Cette carte ne contenant qu’un petit nombre d’informations sur l’environne-
ment (seulement, quelques amers caractéristiques), elle offre l’avantage de réduire significativement la
taille de la base de connaissance disponible. Le superviseur permet quant à lui de sélectionner le bon
correcteur au bon moment, de manière à réaliser la tâche adéquate (asservissement visuel, évitement,
etc.). Ces correcteurs sont basés sur des informations sensorielles, réelles ou estimées, et ont donc
un caractère typiquement local. C’est en fait la capacité d’enchainer continûment ces correcteurs à
des instants judicieusement choisis en fonction du contexte qui permet de conférer le caractère global
requis pour effectuer la mission considérée. Enfin, il est à noter que tout correcteur capable d’effectuer
la tâche élémentaire souhaitée peut être utilisé dans notre superviseur. Ce dernier offre donc une struc-
ture générique, exploitable avec d’autres lois de commande que celles que nous avons présentées. Pour
conclure, nous pouvons mettre en évidence deux limitations importantes de notre approche. Celles-ci
concernent la carte topologique qui reste encore trop peu aboutie, ainsi que l’utilisation d’amers artifi-
ciels qui restreint l’exploitation de cette technique dans des contextes vraiment réalistes. Ces différents
points seront abordés dans notre prospective.
Figure V.29 – Evolution des commandes et reconstruction automatique des indices visuels de réfé-
rence.
V.3. Travaux actuels : vers la réalisation de grands déplacements dans des
environnements « humains » peu connus 95
[Kwon et al. 2005], un véhicule équipé de deux caméras non calibrées permet de tracker une personne
d’intérêt. De même, dans [Kobilarov et al. 2006, Chen & Birchfield 2007, Gockley et al. 2007], le robot
réalise une tâche consistant à suivre un utilisateur donné. Cependant, ces différents articles focalisent
sur les aspects « vision », laissant de côté le contrôle.
Notre objectif est donc ici de développer des stratégies de commande référencées multi-capteur per-
mettant de réaliser ce type de mission. Les travaux réalisés à ce jour, présentés dans la thèse de Noured-
dine Ouadah [Ouadah 2011] ainsi que dans différents articles [Ouadah et al. 2009, Ouadah et al. 2011],
permettent d’initier et de maintenir l’interaction entre l’homme et le robot. Pour cela, nous avons ex-
ploité deux capteurs, la vision et les capteurs RFID. De premiers évitements de piétons basés sur des
informations fournies par le laser embarqué ont également été réalisés. Cependant, seuls les travaux
concernant le premier point sont présentés ci-dessous, les résultats dédiés au second étant encore trop
partiels.
Comme nous l’avons vu dans la partie V.1.2, la personne d’intérêt est repérée par un tra-
cker développé au LAAS par F. Lerasle et T. Germa [Germa et al. 2010b, Germa et al. 2010c,
Germa et al. 2010a]. Ce tracker retourne les coordonnées du centre de gravité du rectangle englo-
bant la tête (cf. figure V.3(b)), ainsi qu’un facteur d’échelle caractérisant grossièrement la distance
homme/robot. A partir de ces données, il est nécessaire de construire le vecteur des indices visuels
utilisés pour commander le véhicule. Pour cela, compte tenu qu’il s’agit de définir une « liaison vir-
tuelle rigide » entre l’utilisateur et la caméra, nous avons choisi de considérer les quatre sommets
Pi du rectangle englobant la tête de la personne d’intérêt. Notre vecteur sera donc ici défini par
s = (XP1 , YP1 , . . . , XP4 , YP4 )T où les couples (XPi , YPi ) désignent les coordonnées de chaque sommet.
Cependant, il faut ici pointer une première difficulté liée à l’utilisation du tracker et qui nous
empêchera d’exploiter nos algorithmes de reconstruction en cas d’occultation. Le système de vision
retourne en effet un rectangle qui n’est jamais distordu, même lorsque la caméra n’est pas perpendi-
culaire à la personne d’intérêt. En d’autres termes, seuls la position du centre de gravité et du facteur
d’échelle évoluent pendant l’exécution de la tâche, l’orientation du rectangle par rapport à ~yc restant
toujours identiquement nulle. Cela signifie que les quatre sommets du rectangle utilisés comme in-
dices visuels ne respectent pas les équations du flot optique et qu’en toute rigueur il est impossible
de caractériser leur évolution dans l’image par la relation classique ṡ = LTc . De plus, l’utilisateur
pouvant éventuellement bouger, le modèle d’évolution des indices visuels sera pleinement donné par
l’équation (V.4). Il sera donc impossible ici d’utiliser les algorithmes de reconstruction développés plus
haut. C’est pourquoi, l’utilisateur a été muni d’un « tag » RFID permettant de continuer à le détecter,
même lorsqu’il se trouve hors du champ de vue de la caméra. Le robot Rackham a donc été doté d’un
ensemble de huit antennes réparties régulièrement autour de sa circonférence (cf. figures V.1(a) et
B.1(a)). Leur portée se situe entre 0.5 m et 4.5 m, ce qui est suffisant pour les applications envisagées
(environnement intérieur). Elles retournent le couple (dtag , θtag ) correspondant respectivement à la
distance antenne/tag et à la direction dans laquelle se trouve l’utilisateur exprimée dans le repère
robot. Il est important de noter que ces données, notamment la première, sont généralement grossières
et imprécises. Cependant, elles restent notre dernière source d’informations possible lorsque le signal
visuel est indisponible. De plus amples détails sur ce capteur et le tracker utilisé sont fournis dans
[Germa et al. 2010a].
Chapitre V. Contribution à la navigation d’un robot mobile par commande référencée
96 multicapteurs
où µvis et µRFID sont des indicateurs fixés à 1 respectivement si l’utilisateur est visible et si le tag
est détecté dans un voisinage proche du robot. Ils sont nuls sinon. q̇vis et q̇RFID sont les correcteurs
permettant de piloter le véhicule sur la base des données visuelles (µvis = 1) et des informations RFID
(µvis = 0 et µRFID = 1). Nous synthétisons ces deux correcteurs ci-après.
Synthèse de q̇vis Il s’agit ici de commander le robot de manière à ce qu’il s’approche et reste à une
distance convenable de la personne d’intérêt tout en la gardant dans le champ de vue de la caméra.
Nous supposons ici que le tracker peut à tout instant détecter la personne d’intérêt et renvoyer le
vecteur des indices visuels nécessaires s. Dans le contexte de notre travail, nous sommes confrontés à
plusieurs types de perturbations dues :
– à des erreurs de calibration et d’estimation de la profondeur (cf. plus haut),
– à des informations sensorielles susceptibles d’être imprécises,
– à un modèle mal connu puisque nous considèrerons, pour construire notre commande, que les
indices visuels vérifient la relation du flot optique (V.4),
– au mouvement de l’utilisateur défini par le terme ∂s ∂t que nous négligerons.
Afin de proposer une loi de commande efficace, nous avons couplé l’asservissement visuel 2D clas-
sique donné par l’équation (V.11) à un second correcteur basé sur la commande à structure variable
et la théorie des modes glissants. En effet, ce type d’approche est classiquement utilisée en automa-
tique pour contrôler des systèmes non linéaires représentés par des modèles incertains [Utkin 1992].
Elle a été appliquée à l’asservissement visuel de bras manipulateurs en présence d’incertitudes dans
[Zanne et al. 2000, Park & Lee 2003, Joon-Kil et al. 2006]. A notre connaissance, elle n’a été que peu
exploitée dans le cadre de la robotique mobile. On peut néanmoins citer les travaux récents proposés
dans [Becera & Sagues 2008] où un asservissement visuel basé sur les droites épipolaires a été déve-
loppé à l’aide de cette approche. Pour notre part, nous avons cherché à exploiter à la fois le formalisme
des fonctions de tâche et la commande par modes glissants. Celle-ci consiste à amener les trajectoires
de l’état du système non linéaire considéré sur une surface de glissement définie par σgliss = 0. Celle-ci
doit être choisie de telle sorte que le système ait la dynamique souhaitée (la stabilité à l’origine devant
être au moins garantie). La tâche à réaliser consistant à annuler l’erreur s − s∗ , nous avons défini σgliss
par la fonction de tâche epos [Ouadah et al. 2011] donnée par l’équation (V.10)). La loi de commande
par modes glissants s’écrit alors classiquement comme suit [Utkin 1992] :
où q̇eq est la commande dite « équivalente » permettant de maintenir le système sur la surface de
glissement, une fois qu’il s’y trouve. ∆q̇ est une commande discontinue destinée à attirer le système
vers la surface de glissement et à rejeter les perturbations. Nous avons montré que ces deux commandes
s’expriment dans notre cas de la manière suivante [Ouadah et al. 2011] :
∂epos
q̇eq = −(CLJ)−1 et ∆q̇ = −Ksign(epos ) (V.40)
∂t
où K = Diag(k1 , k2 , k3 ) est une matrice 3 × 3 diagonale. Celle-ci doit être choisie de telle sorte que
la stabilité du système soit garantie. Nous avons établi que cette condition est remplie si les gains ki
vérifient la relation suivante exprimée pour i = {1, 2, 3} [Ouadah et al. 2011] :
3
X
sign(σi ) Mi (j)kj sign(σj ) ≥ νi (V.41)
j=1
Le vecteur Mi désigne la ième ligne de la matrice CLJ, σi la ième composante de epos et les paramètres
νi sont des constantes strictement positives permettant de fixer la rapidité du système. Cependant,
les paramètres Mi dépendent de la configuration du robot et de la fonction de tâche epos . Il est donc
parfois difficile d’exhiber une solution à l’inégalité (V.41) et donc de garantir la stabilité. Différentes
solutions sont envisageables [Utkin 1992, Ouadah et al. 2011]. Dans ce travail, nous avons finalement
proposé d’appliquer le correcteur q̇av défini par l’équation (V.11) lorsque ce cas se produit. Notre loi
de commande est donc finalement donnée par [Ouadah et al. 2011] :
où µ permet de basculer entre les deux correcteurs selon que l’on peut trouver ou non un gain K
vérifiant les conditions de stabilité (V.41). Il est à noter que, compte tenu de la fonction de Lyapunov
considérée, ces conditions sont relativement conservatives et que le calcul de K n’est pas toujours aisé
[Ouadah et al. 2011].
Synthèse de q̇RFID Lorsque la personne ne peut être détectée par le tracker, la loi de commande
précédente ne peut être calculée et il est nécessaire d’exploiter les informations (dtag , θtag ) fournies
par l’antenne RFID. Nous proposons alors de commander le robot de manière à ce qu’il s’oriente
vers l’utilisateur d’intérêt et s’approche de lui jusqu’à une distance de sécurité dsec prédéfinie. Nous
cherchons donc à atteindre l’orientation θtag et à obtenir dtag = dsec . La platine sur laquelle est
montée la caméra apparait ici comme un degré de liberté supplémentaire dont nous n’avons pas
nécessairement besoin pour cette tâche (aucun évitement d’obstacle n’est en effet prévu). Nous avons
donc choisi simplement de la ramener à sa position d’origine (ϑ = 0). Nous proposons la loi de
commande suivante [Ouadah et al. 2011] :
Remarque 9 La structure de commande proposée reposant sur les modes glissants a une nature dis-
continue. Nous ne nous sommes pas particulièrement attachés ici au problème du maintien de la
continuité pendant la réalisation de la tâche. Nous avons néanmoins cherché à limiter ce problème en
choisissant convenablement les gains intervenant dans le calcul des correcteurs q̇av et q̇RFID .
(a) Trajectoire du robot. (b) Evolution des indicateurs de performances et des vitesses appliquées.
Figure V.30 – Evolution du robot, des indicateurs de performances et des vitesses appliquées.
V.3.3.4 Conclusion
Dans cette partie, nous avons proposé une stratégie de commande référencée multi-capteurs per-
mettant à un robot mobile de se déplacer par rapport à une personne d’intérêt. Cette stratégie est
basée sur deux modalités sensorielles – la vision et les données RFID – et consiste à basculer entre
deux correcteurs selon que l’utilisateur se trouve (ou non) dans le champ de vue de la caméra. La mise
en place de cette stratégie a nécessité de coupler un tracker, capable de suivre une personne d’intérêt,
à des techniques de commande référencée vision. Nous avons ainsi réalisé un « asservissement visuel
V.4. Conclusion 99
sur l’homme », permettant au robot de se mouvoir vis-à-vis d’un être humain et non plus simplement
relativement à un ensemble d’amers de l’environnement. A notre connaissance, ce point est assez peu
abordé dans la littérature. En outre, nous avons été aussi confrontés à des incertitudes sur le modèle
que nous n’avions pas rencontrées dans les travaux précédents. Nous avons couplé un asservissement
visuel classique à une commande par modes glissants. Les résultats obtenus se sont montrés promet-
teurs mais ne sont qu’un premier pas vers la réalisation de tâches d’interaction de manière fiable.
Ainsi, ces résultats pourraient être améliorés en proposant de nouvelles conditions de stabilité, moins
conservatives. Le chattering, toujours présent dans ce type de commande, pourrait aussi être réduit en
considérant une nouvelle structure pour ∆q̇ [Utkin 1992]. La prise en compte explicite du mouvement
de l’utilisateur permettrait également de réduire l’erreur de vitesse et d’améliorer significativement
les performances de l’asservissement. Enfin, il sera nécessaire d’étendre cette stratégie de commande
afin de garantir la non collision, non seulement avec les objets de l’environnement mais également
avec tout piéton situé dans un voisinage proche du robot. Les principales limitations concernent donc
les conditions de stabilité, le chattering, la non prise en compte du mouvement de l’utilisateur et des
obstacles (hommes et objets). Ces différents points s’insèrent dans notre prospective de recherche.
V.4 Conclusion
L’objectif de nos travaux est de réaliser des tâches de navigation référencées vision au long cours
dans des environnements d’intérieur structurés peu connus et possiblement évolutifs. Les missions
considérées ici consistent essentiellement à atteindre un but donné, ce but étant défini par un amer
artificiel ou une personne d’intérêt. Nous avons cherché à réduire autant que possible la connaissance
a priori à fournir au robot sur l’environnement.
Nous avons abordé ce problème du point de vue de la commande et nous sommes appuyés sur
l’asservissement visuel 2D. Cette technique permet d’amener le robot vers le but en régulant à zéro
une erreur exprimée dans l’image. Cependant, de par sa nature locale, elle a un domaine de convergence
limité. Il est ainsi impossible de garantir la non collision ou bien de réaliser la tâche si le signal visuel
est indisponible (occultation, longs déplacements, etc.). Tout notre travail a donc consisté à essayer
d’étendre son « rayon d’action » de manière à remplir nos objectifs. Pour cela, nous avons développé
des stratégies de commande référencées multi-capteurs permettant de basculer continûment entre
différents correcteurs élémentaires en fonction de la situation rencontrée par le robot. Nous avons
ainsi proposé des solutions garantissant seulement la non collision, avant de traiter le problème des
obstacles occultants. Nous avons alors montré que l’évitement conjoint d’obstacles et d’occultations
n’est pas toujours la stratégie la plus pertinente, ce qui nous a conduits à développer des algorithmes
permettant de reconstruire la profondeur et les indices visuels. De cette manière, le robot devient
capable d’évoluer dans l’environnement, même lorsqu’il est « aveugle ». Cette caractéristique s’est
avérée très précieuse pour réaliser des grands déplacements référencés vision et a été la pierre angulaire
du superviseur que nous avons bâti pour répondre à ce problème. Celui-ci a ensuite été couplé à une
carte topologique afin de donner au robot les informations globales nécessaires à la réalisation de
la tâche. Dans le prolongement de ces résultats, nous avons développé une stratégie de commande
permettant au robot de se déplacer par rapport à une personne d’intérêt. Exploitant les informations
renvoyées par un tracker dédié, nous avons réalisé un « asservissement visuel sur l’homme », thème
à notre connaissance peu abordé dans la littérature d’un point de vue commande. Nous avons validé
ces travaux en simulation puis expérimentalement sur différents systèmes disponibles au LAAS. Les
résultats obtenus ont montré la pertinence, l’intérêt et les limitations des approches développées,
balisant ainsi notre prospective de recherche. Nous présentons celle-ci dans le chapitre suivant.
Chapitre VI
Prospective
Sommaire
VI.1 Extension des travaux « historiques » . . . . . . . . . . . . . . . . . . . . . . . . 101
VI.1.1 Vers la réalisation de tâches de navigation « au long cours » dans des environne-
ments « réalistes » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
VI.1.2 Vers un environnement « humain » évolutif . . . . . . . . . . . . . . . . . . . . . . 105
VI.2 Coordination de systèmes complexes par asservissement visuel . . . . . . . . . 107
VI.2.1 Vers l’asservissement visuel coordonné d’un système à deux bras . . . . . . . . . . 107
VI.2.2 Vers l’automatisation des tâches de biomicromanipulation par asservissement visuel 108
Dans les travaux évoqués précédemment, nous avons développé des stratégies de commande per-
mettant de réaliser des tâches de navigation référencées vision dans des environnements peu connus
où l’homme peut être présent. La première partie de notre prospective s’inscrit dans le prolongement
de ces travaux et vise à améliorer l’existant. Il s’agira donc ici principalement d’étendre les méthodes
proposées afin de mieux satisfaire les objectifs initialement mentionnés. Cependant, cette piste n’est
pas la seule envisagée. En effet, la plupart des robots actuellement en cours de développement sont
caractérisés par une structure complexe, souvent anthropomorphique. Ils sont en outre conçus pour
pouvoir interagir de manière poussée avec l’homme. Ces robots sont donc appelés à effectuer des mis-
sions de plus en plus évoluées où les besoins en coopération ne pourront être que difficilement négligés.
C’est pourquoi, très récemment, nous avons souhaité ouvrir un nouvel axe de recherche consacré à
la réalisation de tâches nécessitant la coordination de deux ou plusieurs robots par asservissement
visuel. La palette des applications envisageables apparait riche et vaste, depuis la manipulation à deux
bras jusqu’à la navigation de plusieurs véhicules coopérants. Pour notre part, nous nous intéresserons
essentiellement au premier point, à la fois dans les domaines macroscopique et microscopique.
Notre prospective comprend donc deux facettes : la première, résolument « historique », consiste à
poursuivre les travaux développés jusqu’ici ; la seconde apparait plus novatrice et plus « en rupture »,
notamment avec les aspects concernant la micromanipulation. Nous présentons ces différents axes de
recherche ci-après.
comme l’exécution de grands déplacements doivent encore être améliorés. La première partie de notre
prospective est consacrée à ces deux aspects.
Nous nous focalisons ici sur les méthodes utilisées dans le superviseur. Comme nous l’avons vu, celui-ci
s’appuie sur :
– des stratégies d’évitement d’obstacles statiques,
– des algorithmes de reconstruction des indices visuels et de la profondeur,
– des asservissements visuels.
Ces stratégies de commande et ces algorithmes sont bien maitrisés. Aussi, les pistes envisagées sont-elles
essentiellement techniques et visent-elles à améliorer l’efficacité des différentes méthodes mentionnées.
Les propositions effectuées ici s’inscrivent dans une prospective à très court terme et concernent les
deux premiers points. Le troisième sera abordé plus loin.
Considérons d’abord les stratégies d’évitement développées. Elles consistent à imposer au robot de
suivre une enveloppe de sécurité et sont déclenchées dès que celui-ci pénètre dans la zone dangereuse.
Ce principe, bien qu’efficace, souffre de plusieurs inconvénients. D’abord, il ne permet de traiter qu’un
seul obstacle à la fois. La méthode ne fonctionne donc que si les obstacles sont séparés d’une distance
suffisante, ce qui apparait comme une hypothèse plutôt forte sur l’environnement. Une solution est
de traiter les données proximétriques en amont de manière à regrouper les obstacles trop proches.
Cependant, un tel processus n’est pas forcément simple à réaliser et de plus certaines directions libres
de l’espace peuvent être supprimées. En outre, les conditions de déclenchement ne fonctionnent pas
toujours correctement, si bien que, dans certaines situations particulières, le robot peut rester « satel-
lisé » sur l’enveloppe de sécurité. Enfin, cette méthode ne permet pas d’anticiper l’obstacle puisque
l’on attend que le robot rentre dans la zone dangereuse avant d’agir. Le véhicule est ainsi contraint de
suivre l’enveloppe de sécurité quel que soit le cas, alors que d’autres solutions d’évitement pourraient
être envisagées pour peu que l’on réagisse plus tôt. Nous souhaitons donc dans notre prospective à
court terme travailler ces différents points. En particulier, afin d’améliorer les conditions de déclen-
chement, nous envisageons d’exploiter les techniques d’asservissement visuel avec reconstruction des
indices afin de prédire l’impact de cette commande sur la distance à l’obstacle. Si celle-ci s’accroît,
cela signifie que tout danger est désormais écarté. Dans le cas contraire, il est nécessaire de continuer
à suivre l’enveloppe de sécurité. En outre, nous prévoyons de développer une stratégie « anticipa-
tive » permettant d’écarter le robot de l’obstacle avant que la seule solution de contournement ne
se réduise au suivi de l’enveloppe de sécurité. Cette stratégie pourrait reposer sur la définition d’un
champ de potentiel ou de chemins appropriés imposant au véhicule de « fuir » l’obstacle plutôt que de
continuer à s’en approcher. De cette manière, le robot ne sera plus asservi sur l’enveloppe de sécurité
que lorsque les circonstances l’exigent vraiment, i.e., lorsque l’obstacle présente un danger immédiat.
VI.1. Extension des travaux « historiques » 103
Des mouvements d’évitement inutiles ou inadaptés pourront ainsi être supprimés. Ces deux aspects
permettront d’améliorer significativement les performances du robot et seront abordés prochainement.
Revenons maintenant sur les algorithmes permettant de reconstruire les indices visuels et la profon-
deur. Si nous avons obtenu, pour les premiers, différentes solutions plus ou moins génériques, ce n’est
pas le cas pour les seconds. En effet, les paires prédicteurs/correcteurs développées sont restreintes
au cas des points et de la plateforme robotique considérée dans nos travaux. Une première extension
intéressante consisterait donc à étudier la possibilité de construire cette paire à partir des solutions
analytiques obtenues pour le torseur cinématique constant. En effet, bien qu’encore restreint au cas
des points, le résultat obtenu serait valide pour tout système robotique. Il faudrait néanmoins évaluer
la précision du nouveau schéma ainsi obtenu. Il est de plus à noter qu’une solution indépendante des
primitives visuelles considérées semble ici compromise puisqu’aucune expression analytique des indices
visuels ne peut être exhibée dans un cas général.
Nous nous intéressons maintenant aux aspects liés à la carte topologique et à la planification de
trajectoire. Ici, s’ouvrent des problèmes scientifiques extrêmement intéressants et auxquels il sera diffi-
cile de répondre rapidement : d’une part, la construction d’une carte topologique adéquate respectant
les contraintes spécifiées sur la taille de la base de connaissance, la visibilité et l’accessibilité de l’amer
suivant depuis l’amer courant ; d’autre part, la maîtrise des trajectoires effectuées par le robot. Ces
deux problèmes apparaissent néanmoins étroitement liés. En effet, ayant choisi de définir les nœuds
par des cibles artificielles éloignées les unes des autres, nous avons significativement réduit la base de
connaissance nécessaire à la navigation. Cependant, ce faisant, nous avons abandonné une partie de
la maîtrise des trajectoire réalisées puisque le mouvement entre deux nœuds successifs du graphe est
effectué par un asservissement visuel 2D basé sur l’amer à atteindre. Comme l’ont montré les résultats
de simulation, les trajectoires ainsi obtenues apparaissent parfois peu naturelles, notamment lors de la
transition d’une cible vers l’autre. A notre sens, ces trajectoires dépendent de deux paramètres impor-
tants : (i) la configuration dans laquelle se trouve le véhicule lorsque l’on passe d’un amer à l’autre ;
(ii) les valeurs choisies pour les indices visuels de référence associés à chaque amer, ces derniers étant
fonction de la configuration finale souhaitée pour le robot vis-à-vis de la cible. Bien que nous n’ayons
encore que très peu approfondi ces aspects, il nous semble que ce problème peut être abordé de deux
manières : soit au niveau de la définition de la carte topologique ; soit au niveau de la commande.
Dans le premier cas, il s’agira de s’attacher à définir les informations associées aux nœuds. Différentes
questions devront être abordées : faut-il se contenter d’informations caractérisant les amers consi-
dérés ? ou bien doit-on envisager de rajouter des données complémentaires facilitant par exemple la
recherche de la prochaine cible ou encore la tâche de réorientation 1 ? et si oui, quels types de données
(configuration du robot ? vecteur vitesse souhaité ? indices visuels de référence ? autre ?) ? Cependant,
il est aussi envisageable que la solution au problème de la gestion des trajectoires se situe davantage
au niveau du contrôle. Une piste intéressante pourrait par exemple consister à prédire la trajectoire
du robot sur quelques secondes à partir de l’instant où on décide de changer de cible. Peut-être des
techniques de commande prédictive pourraient-elles être bénéfiques ici ? Autant de questions ouvertes
sur lesquelles nous devrons travailler pour apporter des éléments de réponse satisfaisants.
1. Il s’agit ici de garantir que le robot se trouvera dans une configuration facilitant le mouvement vers l’amer suivant
lors de la transition.
104 Chapitre VI. Prospective
Enfin, le troisième axe de recherche que nous envisageons concerne les asservissements visuels mis
en place. Ceux-ci exploitent pour l’instant uniquement des indices visuels de type point extraits à
partir de cibles artificielles. Cela apparait limitatif compte tenu de l’évolution actuelle de la robotique
où la capacité d’évolution autonome dans un environnement quelconque devient essentielle. Dans ce
contexte, il nous semble important de pouvoir considérer des primitives variées (et non plus seulement
des points) issues d’amers naturels (et non plus artificiels). En effet, si les points apparaissent par-
ticulièrement bien adaptés pour réaliser des tâches de positionnement, ils semblent moins pertinents
lorsqu’il s’agit de suivre des corridors un peu étroits, de tourner au coin d’un couloir ou bien de franchir
des portes. De plus, s’affranchir des amers artificiels permet d’éviter d’instrumenter l’environnement,
ce qui peut être difficile si celui-ci est étendu. Il nous semble ainsi intéressant de considérer les droites
(pour tourner au bout d’un couloir) ou le point de fuite (pour parcourir un corridor). Nous souhaitons
aussi mener une réflexion sur le franchissement des portes. Notons que le passage aux amers naturels
nécessitera également de revenir sur la définition des nœuds de la carte topologique. Ceux-ci avaient
été définis jusque-là par des amers caractéristiques d’un lieu particulier de l’environnement. Les pri-
mitives telles que le point de fuite ou les droites par exemple sont communes à tous les couloirs de
la scène. Dans ce contexte, se pose la question de savoir si on les considère comme des nœuds ou
bien de simples informations nécessaires au déplacement entre ces derniers. Dans ce dernier cas, cela
signifie que le robot pourra être asservi temporairement sur des primitives visuelles indépendantes des
nœuds du graphe topologique. Il faudra s’assurer que l’on parcourt bien la portion de chemin adéquate
pour contrôler l’exécution de la tâche. La localisation « topologique » sera ici cruciale et un travail
important devra être fait pour étendre le superviseur de manière à intégrer ces aspects.
Toujours concernant les asservissements visuels mais dans un contexte plus global, nous souhaitons
nous intéresser à la commande du robot à partir d’images fournies par plusieurs caméras. En effet, il
s’agit d’un problème ouvert, encore peu abordé dans la littérature consacrée à l’asservissement visuel.
L’intérêt majeur de ces approches est de bénéficier de plusieurs champs de vue complémentaires de la
scène, facilitant l’exécution de tâches complexes et offrant davantage de flexibilité. Dans la plupart des
cas relevés dans la littérature associée à l’asservissement visuel, les solutions considèrent deux caméras,
l’une embarquée, l’autre déportée. La première souffre d’un champ de vue limité mais permet d’explorer
l’espace et bénéficie d’une bonne précision. La seconde offre une vue globale de l’environnement mais
apparait moins précise. De plus, à notre connaissance, la grande majorité des travaux proposés utilisent
les deux caméras pour réaliser deux tâches distinctes. Il nous semble au contraire intéressant d’aller vers
l’intégration de toutes les données visuelles disponibles dès lors qu’elles sont pertinentes pour la tâche
considérée. Dans notre contexte, nous souhaitons poursuivre deux pistes séparées. Dans la première,
nous envisageons de piloter un robot à partir d’images fournies par un réseau de caméras pour réaliser
des tâches de navigation au long cours. Il s’agirait alors d’exploiter la caméra embarquée pour rejoindre
l’amer d’intérêt et les capteurs déportés pour détecter les événements imprévus (obstacles, piétons,
etc). Ainsi, le robot pourrait être contrôlé à partir des vues embarquées ou déportées selon que l’on
cherche à rejoindre le but ou à éviter les collisions (si l’on souhaite traiter ce problème avec la vision).
De plus, l’exploitation de vues complémentaires pourrait aussi proposer une réponse alternative aux
problèmes d’occultation. Ce travail pourrait s’inscrire au sein du programme ADREAM (Architectures
Dynamiques Reconfigurables pour systèmes Embarqués Autonomes Mobiles) du LAAS. La seconde
piste que nous souhaitons poursuivre est totalement différente. Elle s’appuie sur un nouveau dispositif
de vision, la caméra Ladybug, récemment montée sur le robot Rackham. Ce dispositif est composé
de six caméras : cinq d’entre elles perçoivent latéralement, la dernière étant orientée verticalement.
Il propose ainsi un champ de vue sphérique de quasiment 360 degrés autour et au-dessus du robot.
VI.1. Extension des travaux « historiques » 105
La richesse du signal vidéo disponible peut alors être utilisée pour différentes tâches. Elle apparait
particulièrement bien adaptée pour la navigation au long cours, notamment pour la recherche et la
détection de l’amer suivant. Le robot peut ainsi rester commandé par des indices visuels réels, y
compris dans les tâches [F ] et [G] (cf. schéma V.27), renforçant la robustesse de l’exécution de la
mission. Elle peut aussi être intéressante dans le cadre du suivi de personnes d’intérêt ainsi que pour
la détection d’obstacles.
Nous avons ici proposé quelques pistes d’améliorations et de réflexion autour de la navigation au
long cours par asservissement visuel. Dans le prolongement de nos travaux, un autre axe s’impose de
lui-même : la prise en compte de l’évolutivité de l’environnement et de la présence de l’homme.
Nous nous intéressons ici à l’aspect dynamique de l’environnement. Cette caractéristique peut
avoir un impact au niveau global et au niveau local. Au niveau global, des objets de l’environnements
peuvent avoir été déplacés, remettant en cause la connexité et donc la carte topologique. Il faut
alors donner au robot la capacité de remettre à jour la carte pendant l’exécution de la mission,
autrement dit la possibilité de replanifier la séquence d’amers à effectuer. Au niveau local, nous allons
retrouver les mêmes contraintes que précédemment : suivre l’amer, garantir la non collision et traiter
les occultations. Il s’agit donc d’une extension des stratégies de commande et des algorithmes de
reconstruction développés précédemment.
En collaboration avec P. Danès et T. Sentenac, nous avons commencé à mener une réflexion sur
cet objectif dans le cadre de deux stages de master [Comment 2009, Dessus 2010]. Nous nous sommes
confrontés à deux problèmes : la réalisation du mouvement de suivi d’une part et l’estimation du
mouvement de la cible d’autre part. Les résultats obtenus ont montré l’intérêt de coupler l’asservis-
sement visuel 2D permettant de satisfaire le premier point à des techniques de filtrage satisfaisant le
second point. En effet, la grande difficulté rencontrée réside dans la reconstruction du terme ∂e ∂t qui
caractérise l’impact du mouvement de l’objet sur la variation de la fonction de tâche. La question
qui se pose alors et qui fait l’objet de notre prospective sur ce thème est la suivante : « comment
déterminer ce mouvement de manière fiable à l’aide des données visuelles fournies par la caméra ? ».
106 Chapitre VI. Prospective
Une première solution proposée dans [Bensalah 1996] consiste à filtrer directement ∂e ∂t à l’aide d’un
filtre de Kalman. Cependant, elle ne nous satisfait pas pleinement car il nous semble difficile de pou-
voir définir clairement les propriétés statistiques du bruit intervenant sur cette grandeur, ainsi que
d’effectuer des hypothèses pertinentes sur la dynamique de cette dernière. Une autre solution, à notre
sens plus intéressante, serait de revenir au mouvement physique de l’amer, et plus précisément à son
torseur cinématique (et non à son état complet, qui nécessiterait une localisation métrique du robot,
ce que nous ne souhaitons pas). C’est cette intuition que nous avons suivie. Nous avons ainsi exprimé
la relation entre ∂e
∂t et ce torseur dans [Comment 2009, Dessus 2010]. Il devient alors possible de faire
des hypothèses physiquement pertinentes sur ce dernier, ce qui permet de modéliser sa dynamique
par des représentations d’état dans de meilleures conditions. Il est maintenant nécessaire de mettre en
place des dispositifs de filtrage dédiés (filtres de Kalman étendus, « unscented », etc.) et de comparer
leurs performances. Une fois ces travaux finalisés, nous prévoyons également d’étudier les ruptures de
modèle de manière à pouvoir suivre l’amer, même si son mouvement change brutalement. Ce point,
aux confluents des thématiques de l’asservissement visuel et de l’estimation, constitue le nœud de
nos prochains travaux sur ce thème. Les résultats obtenus ici influenceront à la fois les techniques
d’évitement d’obstacles développées ainsi que l’extension des algorithmes de reconstruction. Il sera
probablement nécessaire de repenser une grande majorité des stratégies mises en place jusqu’ici. En-
fin, ces résultats seront également sans doute le point de départ de travaux à plus long terme sur
l’asservissement visuel coordonné d’une flotte de robots.
donc cette seconde piste, en collaboration avec N. Ouadah et A. Durand Petiteville, pour finaliser ces
résultats puis considérer l’évitement de piétons mobiles, ce qui nécessitera là-encore l’estimation du
mouvement de ces derniers.
Nous avons présenté ici les axes de recherche futurs concernant nos travaux « historiques ». Comme
nous l’avons mentionné précédemment, nous avons récemment ouvert un thème de recherche, plus
novateur, orienté vers l’asservissement visuel de systèmes complexes avec un objectif de coordination.
Nous parlerons ainsi souvent dans la suite « d’asservissement visuel coordonné ».
outre évalué l’intérêt d’utiliser des approches basées sur le séquencement de correcteurs. Nous avons
ainsi développé une stratégie de commande permettant de refermer un stylo. Cependant, seul le bras
portant le capuchon était piloté à partir de l’une ou l’autre des caméras selon les besoins, le second
manipulateur restant immobile. Ce travail a donc conduit à une coordination plutôt limitée mais a
montré tout l’intérêt d’exploiter différentes images dans la réalisation d’une tâche aussi complexe.
Dans le prolongement de ces résultats, nous avons commencé à répondre aux deuxième et troisième
questions évoquées plus haut. Nous avons exprimé la variation des signaux visuels dus aux mouvements
des bras et synthétisé de premières lois de commande les prenant en compte. Les résultats obtenus,
bien qu’encore très partiels, ont montré la pertinence de l’approche [Khalfaoui 2009]. A l’issue de ces
travaux, de nombreuses pistes sont à suivre : l’amélioration de la stratégie de commande proposée pour
la coordination des bras, la gestion de la redondance due aux nombreux degrés de liberté présents, la
prise en compte des collisions et des occultations susceptibles de se produire pendant la tâche, ou en-
core l’étude du positionnement des caméras avec introduction éventuelle d’un capteur supplémentaire
déporté. Un couplage des informations de force et de vision pour la manipulation serait également
intéressant, mais se situe dans des perspectives à plus long terme.
Les quelques pistes de réflexion que nous avons évoquées jusqu’à présent répondent à des besoins
ou des tâches réalisées dans le macro-monde. Cependant, actuellement, la demande pour des systèmes
automatiques permettant d’agir aux échelles microscopiques ne cesse de s’accroître. Ce besoin est
particulièrement marqué dans le domaine de la manipulation cellulaire ou biomicromanipulation. Nous
pensons que des stratégies de commande évoluées basées sur la vision, offrant éventuellement des
capacités de coordination, peuvent aider à automatiser ce type de tâche. Ces derniers aspects, au
cœur du projet BM2V (BioMicroManipulation par asservissement Visuel), sont présentés ci-après.
percevoir et agir à ces échelles, etc. D’une manière générale, dans le domaine de la perception pour
la biomicromanipulation, ce sont principalement les techniques basées sur la vision qui prédominent
[Li et al. 2001], bien que des travaux exploitent aussi le retour d’effort [Pillarisetti et al. 2006]. Aussi,
il apparait intéressant d’exploiter les techniques basées sur l’asservissement visuel pour piloter les
micro-manipulateurs. La plupart des résultats proposés dans la littérature sont dédiés à l’assemblage de
micro-composants [Kim & Menq 2005, Haliyo et al. 2006, Tamadazte et al. 2009, Duceux et al. 2010].
Bien que l’asservissement visuel ait été intensivement exploité dans le contexte biomédical à
l’échelle macroscopique, il n’est encore que rarement appliqué pour réaliser des tâches de biomi-
cromanipulation cellulaire (quelques travaux plus ou moins récents pouvant néanmoins être pointés
[Parvin et al. 1996, Mezouar & Allen 2002, Ogawa et al. 2005]). Cette technique semblant offrir des
solutions intéressantes pour l’automatisation des tâches de biomicromanipulation, nous souhaitons
poursuivre dans cette voie. Pour cela, nous avons mis en place cette année une collaboration avec D.
Folio, maître de conférences à l’ENSI de Bourges, dont la thématique est centrée autour de la micro-
manipulation cellulaire. Le projet BM2V que nous présentons brièvement maintenant est le premier
fruit de cette collaboration.
Ce projet vise à développer des solutions innovantes contribuant à automatiser la réalisation de
tâches de biomanipulation cellulaire, l’objectif étant de proposer aux professionnels du monde biomé-
dical un premier prototype, prêt à l’emploi, fiable et efficace. La plateforme robotisée envisagée sera
équipée du matériel requis, en particulier un microscope, deux caméras (une frontale et une latérale),
et deux micro-manipulateurs nécessaires pour l’application considérée (isolement de mélanocytes).
Afin de mener à bien ce projet, plusieurs éléments scientifiques et techniques devront être pris en
compte. Nous nous focalisons ici uniquement sur la commande qui sera au centre de notre contribu-
tion à ce projet. Différents aspects relevant de ce thème devront être traités : asservissements visuels
mono et multi-images pour positionner précisément les micro-manipulateurs, gestion des éventuels
problèmes de collision et d’occultation, coordination des deux micro-manipulateurs lorsque requis par
la tâche, contrôle d’exécution de l’opération, etc. Un couplage avec les informations de force pourra
être considéré, bien que ce type de problématique n’ait été abordé que très récemment à l’échelle
microscopique [Huang et al. 2009]. Nous retrouvons donc ici un grand nombre de nos préoccupations
déjà mentionnées dans nos contributions et nos perspectives, tirant ainsi un trait d’union entre nos
travaux, passés, présents et futurs. Cette dernière piste est en outre une opportunité d’ouvrir notre
thématique de recherche à un domaine actuellement en plein essor et qui apparait comme un nouveau
champ d’application de l’asservissement visuel. Elle pourrait aussi s’inscrire au sein de l’axe trans-
versal « interactions avec le vivant » défini au LAAS pour les années à venir. Enfin, au-delà de ces
considérations, d’un point de vue plus personnel, c’est aussi et surtout une occasion de contribuer aux
progrès de la recherche médicale, ce qui donne « plus de sens » à nos propres travaux.
Annexe A
Sommaire
A.1 Les structures de commande fondatrices de l’asservissement visuel . . . . . . 111
A.2 Les évolutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
A.2.1 Fondements théoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
A.2.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
A.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
L’asservissement visuel consiste à exploiter les informations visuelles renvoyées par une ou plusieurs
caméras, embarquées ou déportées, dans la loi de commande afin de contrôler les mouvements d’un
système robotique donné [Hutchinson et al. 1996, Chaumette 2002, Chaumette & Hutchinson 2006].
Ce type d’approche a été exploitée avec profit pour réaliser des tâches de plus en plus évoluées, allant
de la manipulation à la navigation dans des cadres applicatifs variés. Par nature, l’asservissement
visuel apparait comme une discipline transverse, située aux confluents de la vision et de la commande,
qui resserre le lien entre la perception et l’action [Chaumette 2002]. Lorsque l’on souhaite réaliser
une tâche par asservissement visuel, de nombreux aspects relevant de ces deux thématiques devront
être abordés. Ils concernent essentiellement [Chaumette 2002, Chaumette 2003, Chaumette 2007a] :
la modélisation du capteur et le choix des primitives visuelles d’une part ; la synthèse de lois de
commande efficaces et robustes, capables de prendre en compte les contraintes nécessaires, d’autre
part. Ces différents points, souvent inter-connectés, constituent le cœur des recherches menées dans le
cadre de cette thématique. De plus, le domaine applicatif, ainsi que le type de robot utilisé, doivent
également être considérés car ils peuvent conduire à des difficultés spécifiques.
Nous présentons ci-après un bref rappel historique des premières techniques qui ont jeté les bases
de l’asservissement visuel tel que nous le connaissons aujourd’hui. Nous tentons ensuite de dégager les
grandes évolutions et tendances de cette thématique avant de conclure en montrant sa maturité.
raffinée en projetant un motif lumineux qui est aussi utilisé pour déterminer l’orientation. Enfin, les
effets dynamiques intervenant dans la boucle de commande sont également abordés. Dans la même
année, Prajoux s’intéresse à l’asservissement visuel d’un système à deux degrés de liberté permettant
de suivre un crochet oscillant. Il synthétise un observateur permettant de prédire le mouvement du
crochet [Prajoux 1979]. Ainsi, les « travaux-pionniers » mentionnés plus haut partagent une caracté-
ristique commune : une étape de reconstruction 3D permettant de déterminer la situation à partir des
images est obligatoire. Les tout premiers asservissements visuels ainsi réalisés étaient alors dits 3D (ou
position-based) car basés sur des informations de position (ou de situation) extraites de l’image (cf.
remarque 10). Dans les années 1980, les progrès techniques ont permis d’extraire les indices visuels
dans des cadences plus compatibles avec celle de l’asservissement. C’est ainsi qu’a vu le jour le pre-
mier asservissement visuel 2D (ou image-based) développé par L.E. Weiss [Weiss 1984] (cf. remarque
10). Restreints à des bras manipulateurs à trois degrés de liberté, ces travaux ont été ensuite étendus
par J. Feddema [Feddema 1989]. Les activités de recherche n’ont alors cessé de s’intensifier autour de
ce domaine, conduisant à de nombreux résultats dont l’élaboration du formalisme des fonctions de
tâche [Samson et al. 1991, Espiau et al. 1992] et son application à la commande référencée vision de
bras manipulateurs [Chaumette 1990] et de robots mobiles [Pissard-Gibollet 1993]. Le lecteur intéressé
peut se reporter à [Corke 1996] pour un survol plus détaillé de ces techniques entre 1970 et 1996.
Ainsi, deux structures de commande émergent de cette première période historique : l’asservisse-
ment visuel 3D (ou position-based) et l’asservissement visuel 2D (ou image-based), donnant lieu à la
classification proposée par Sanderson et Weiss [Sanderson & Weiss 1980].
Remarque 10 Il est à noter que cette classification prend en compte de plus le niveau de com-
mande. Ainsi, on parlera plutôt d’une structure de type « position-based (ou image-based) dynamic
look and move » lorsque la commande du robot est gérée par un asservissement de position, la notion
de « position-based ou image-based visual servoing » s’appliquant lorsque cette boucle n’intervient pas
[Corke 1996]. Le terme « asservissement visuel » étant largement utilisé dans la littérature pour dési-
gner tout asservissement reposant sur des données visuelles, nous confondrons improprement dans ce
manuscrit ces différentes structures de commande. Nous distinguerons donc simplement les asservis-
sements visuels 3D (ou position-based) et 2D (ou image-based).
Les premiers efforts effectués dans cette thématique ont porté sur l’analyse et la comparaison de ces
techniques. Celles-ci ont permis de mettre en avant les forces et faiblesses respectives de ces deux
types de commande [Chaumette 1998, Martinet 1999, Gans et al. 2003]. Ainsi, l’asservissement visuel
3D reposant sur des informations de situation entre le capteur et l’amer d’intérêt est connu pour sa
grande sensibilité aux erreurs de modèle et de calibration. De plus, bien qu’offrant une bonne maîtrise
des trajectoires 3D effectuées par le robot, cette approche ne permet pas de gérer le mouvement des
indices visuels dans l’image, ce qui peut conduire à la perte de l’amer d’intérêt. L’asservissement visuel
2D exploite quant à lui directement les indices visuels extraits de l’image. Il permet donc de s’affranchir
de toute phase de localisation, ce qui présente l’avantage de réduire les temps de calcul et de le rendre
plus robuste aux différentes incertitudes mentionnées plus haut. Cependant, même s’il est possible de
mieux maitriser les trajectoires effectuées par les informations visuelles, la gestion des mouvements
correspondants du robot s’avère impossible. Dans certains cas, des minima locaux ou des problèmes
de singularité peuvent apparaitre. La prise en compte des contraintes nécessaires à la réalisation de
toute tâche référencée vision apparait donc difficile [Allibert et al. 2010].
A.2. Les évolutions 113
Nous avons ici essayé de mettre en exergue l’essentiel des avancées scientifiques effectuées dans le
domaine de l’asservissement visuel. Les efforts ont porté sur l’amélioration de la robustesse ainsi que
sur la prise en compte de contraintes. Des lois de commande intégrant des informations sensorielles
complémentaires de même nature ou non ont aussi vu le jour. Grâce à ces avancées, il devient possible
d’aller vers la réalisation de tâches plus évoluées dans des environnements de plus en plus réalistes,
A.3. Conclusion 115
élargissant ainsi les domaines d’application considérés. Quelques éléments sur ce dernier point sont
donnés ci-après.
A.2.2 Applications
Les champs d’application de l’asservissement visuel sont très variés. Si certains travaux relèvent de
domaines originaux tels que la réalité virtuelle [Marchand & Chaumette 2002] ou la réalité augmentée
[Comport et al. 2006], la plupart des réalisations s’inscrivent dans le domaine de la robotique.
Si les tâches considérées à l’origine étaient centrées autour de la robotique de manipula-
tion [Kragic & Christensen 2002], le champ d’application s’est élargi à la robotique mobile dans
les années 90. En effet, l’asservissement visuel a été utilisé avec profit pour réaliser des tâches
de navigation [Pissard-Gibollet 1993, Swain 1999, Cadenat 1999], de guidages automatiques de
véhicules [Khadraoui 1996, Martinet & Thibaud 2000], ou bien encore des grands déplacements
[Vassalo et al. 2000, Gaspar et al. 2000, Remazeilles 2004, Blanc et al. 2005, Kralnìk & Přeučil 2008,
Courbon et al. 2009, Cherubini & Chaumette 2009, Cherubini & Chaumette 2010]. Autour de l’an
2000, de nouveaux systèmes robotiques mobiles ont été considérés, ouvrant par là-même de nouveaux
domaines applicatifs pour l’asservissement visuel. Ainsi, cette technique a permis de contrôler des
engins volants variés (avions [Bourquardez & Chaumette 2007], hélicoptères [Hamel & Mahony 2002,
Guénard et al. 2007], dirigeables [Rives & Azinheira 2004, Huang et al. 2005]), ou bien encore des ro-
bots humanoides [Mansard et al. 2007, Vahrenkamp et al. 2008]. Elle a également été utilisée pour
des systèmes robotiques à deux bras [Miyabe et al. 2003, Hynes et al. 2006], ainsi que pour des
manipulateurs mobiles [Tsakiris et al. 1996, De Luca et al. 2007], faisant le lien entre les problé-
matiques de manipulation et de navigation qui constituaient le cœur des applications entre 1990
et 2000. En marge de ces réalisations diverses, la robotique médicale est aussi devenue dans
la dernière décennie un terrain d’application privilégié de l’asservissement visuel. De très nom-
breux travaux ont en effet été menés sur cette thématique : aide au geste chirurgical en chirur-
gie laparoscopique [Krupa et al. 2003, Nageotte et al. 2006, Osa et al. 2010], guidage d’instruments
[Vitrani et al. 2007, Mebarki et al. 2010], compensation des mouvements cardiaques et respiratoires
[Gangloff et al. 2006], etc. Ces dernières années, de nouveaux domaines d’application ont émergé.
Parmi ceux-ci, l’un des plus prometteurs est l’exploitation de l’asservissement visuel pour manipu-
ler aux échelles microscopiques. La plupart des résultats proposés dans la littérature microrobo-
tique sont dédiés à l’assemblage de micro-composants [Feddema & Simon 1998, Kim & Menq 2005,
Tamadazte et al. 2010, Duceux et al. 2010]. Cependant, quelques applications dans le domaine de
la microbiologie existent : manipulation de brins d’ADN [Parvin et al. 1996], saisie de protéines
[Mezouar & Allen 2002], contrôle de mouvements de micro-organismes [Ogawa et al. 2005], etc.
Ainsi, initialement restreint à la robotique de manipulation [Kragic & Christensen 2002], le champ
d’application de l’asservissement visuel s’est progressivement élargi vers des thématiques variées. Au-
jourd’hui, de nouveaux domaines prometteurs tels que la micro et bientôt la nanorobotique émergent,
signe de l’adaptabilité de ce type d’approche.
A.3 Conclusion
L’asservissement visuel a beaucoup évolué depuis ses débuts et les premiers travaux de Shirai et
Inoue [Shirai & Inoue 1973]. Des progrès significatifs ont été faits avec l’amélioration des techniques
existantes pour les rendre plus robustes et plus précises, le développement de nouveaux types d’as-
servissements visuels basés sur des informations visuelles variées et l’exploitation de techniques de
116 Annexe A. Petit panorama de la thématique « asservissement visuel »
commande avancées. Enfin, les domaines applicatifs de l’asservissement visuel se sont grandement
diversifiés et couvrent des thématiques variées s’inscrivant à la fois dans et en dehors de la robotique.
La littérature sur ce sujet est abondante. Loin de chercher à être exhaustif dans notre sur-
vol, notre objectif était ici de pointer l’essentiel des avancées effectuées dans ce domaine. Le lec-
teur intéressé trouvera un bilan plus détaillé des activités menées en asservissement visuel dans
[Corke 1996, Chaumette 2003, Chaumette 2007a] 1 . Outre les travaux mentionnés précédemment, on
peut signaler l’existence de trois tutoriaux [Hutchinson et al. 1996, Chaumette & Hutchinson 2006,
Chaumette & Hutchinson 2007], de trois chapitres de livres [Chaumette 2002, Chaumette 2007b,
Chaumette & Hutchinson 2008], ainsi que d’un recueil décrivant l’exploitation des techniques numé-
riques les plus récentes pour l’asservissement visuel [Chesi & Hashimoto 2010]. Ces éléments montrent
que l’asservissement visuel est désormais une discipline mature et porteuse. Il devrait connaitre des
développements riches dans les prochaines années, de par ses champs d’application divers et variés.
1. Le travail proposé ici s’est d’ailleurs appuyé sur ces trois documents.
Annexe B
Sommaire
B.1 Super Scout II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
B.2 Rackham . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
B.3 Pekee II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
B.4 Modélisation de ces robots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Nous décrivons ici de manière plus détaillée que dans la partie V.1 les systèmes robotiques sur
lesquels nous avons travaillé. Comme nous l’avons déjà mentionné, tous les robots représentés sur la
figure B.1 ont été équipés des capteurs nécessaires à la réalisation des tâches de navigation souhaitées
(caméras, dispositifs de détection d’obstacles, etc.). Une brève description de chacun de ces systèmes
robotiques est présentée ci-dessous.
B.2 Rackham
Rackham est un robot mobile de type B21R développé par la société iRobot. Tout comme les super-
scouts, il s’agit d’un robot dédié à la navigation en intérieur. Il est aussi d’architecture cylindrique (52
cm de hauteur pour un diamètre de 118 cm). Afin de pouvoir l’utiliser pour la réalisation de tâches
118Annexe B. Description des différents systèmes robotiques utilisés dans nos travaux
Caméra zP Ethernet
Sony wifi 802.11a
DFW VL500
zC yC
xP xC Platine (pan)
yP
zM portable
Base mobile
Super Scout
ceinture
ultrasons
xM yM
(b) Robot Super Scout II (Nomadic Technologies).
Caméra
pan/tilt
Laser
Infra-rouges
Ceinture de
protection
d’interaction homme/robot, son équipement standard a été étendu avec différents éléments permettant
de communiquer plus facilement avec l’utilisateur :
– une caméra Sony EVI-D70 mobile en tangage et lacet (non utilisée ici),
– une caméra numérique montée sur une platine développée par Direct Perception commandable
en pan et tilt,
– un écran de contrôle tactile,
– un haut-parleur,
– des antennes RFID permettant de repérer un utilisateur porteur d’un badge dans un rayon de
4.5 m autour du robot.
Il est de plus équipé de différents capteurs de proximité (laser et ceinture d’ultrasons) afin de
pouvoir détecter et éviter les obstacles situés à proximité. Enfin, il est piloté via un PC sur lequel
tourne l’architecture logicielle Genom déjà embarquée sur les super scouts.
B.3 Pekee II
Le robot Pekee II est un robot non holonome développé par la société Wany Robotics et mis à
notre disposition par l’AIP-PRIMECA de Toulouse. Son architecture mécanique est constituée d’une
base cylindrique, de 38.7 cm de diamètre et de hauteur 22.5 cm (38, avec la caméra) pour un poids
de 15 kg. La plateforme est commandée à l’aide d’un PC embarqué comprenant (entre autres) un
processeur Intel Core2Duo T7100, 2 GB DDR2 de RAM, un disque dur de 80 GB, 1 port Ethernet,
B.4. Modélisation de ces robots 119
Figure B.2 – Modélisation de la base mobile équipée d’une caméra montée sur une platine.
par rapport au temps, nous obtenons le vecteur de commande q̇ = (v ω $)T introduit plus haut. A
partir de ces données, il est possible d’exprimer le torseur cinématique de la caméra par rapport au
repère R0 . Celui-ci s’écrit dans le repère RC comme suit [Pissard-Gibollet 1993, Cadenat 1999] :
− sin ϑ Cx + Dx cos ϑ Cx
RC
TC/R = Tc = J q̇ où J = cos ϑ −Cy + Dx sin ϑ −Cy q̇ (B.1)
0
0 −1 −1
Il est à noter que, compte tenu de la géométrie du robot, la caméra ne dispose que de trois degrés
de liberté : deux en translation selon les axes ~xC et ~zC , ainsi qu’un en rotation autour de ~xC . Le
torseur cinématique évoqué dans l’équation précédente est réduit aux trois vitesses correspondantes,
les trois autres étant par construction strictement nulles puisque les mouvements correspondants sont
impossibles. De ce fait, la jacobienne est carrée et il est possible de montrer que son déterminant est
non nul quelle que soit la configuration. Elle est donc toujours inversible. De plus amples détails sur
la modélisation de ce type de robot sont disponibles dans [Pissard-Gibollet 1993, Cadenat 1999].
Bibliographie
[Allibert et al. 2010] G. Allibert, E. Courtial et F. Chaumette. Predictive Control for Constrained
Image-Based Visual Servoing. IEEE Trans. on Robotics, vol. 26, no. 5, pages 933–939, October
2010. 52, 112, 113, 114
[Argyros et al. 2001] A. Argyros, C. Bekris et S. Orphanoudakis. Robot homing based on corner
tracking in a sequence of panoramic views. In IEEE Conference on Computer Vision and
Pattern Recognition, Hawaii, USA, December 2001. 41
[Artus et al. 2003] G. Artus, P. Morin et C. Samson. Tracking of an omnidirectional target with a
nonholonomic mobile robot. In International Conference on Advanced Robotics, ICAR’03,
pages 1468–1473, 2003. 114
[Axis 2008] Axis. AXIS 214 PTZ Network Camera, 2008. 44
[Becera & Sagues 2008] H. M. Becera et C. Sagues. A Sliding Mode Control Law for Epipolar Visual
Servoing of Differential-Drive Robots. In IEEE International Conference on Intelligent Robots
and Systems, Nice, France, 2008. 96
[Bellot 2002] D. Bellot. Contribution à l’analyse et à la synthèse de schémas de commande référencée
vision. PhD thesis, Université P. Sabatier, Toulouse, December 2002. 84, 113
[Benhimane & Malis 2003] S. Benhimane et E. Malis. Vision-based control with respect to planar and
non-planar objects using a zooming camera. In IEEE International Conference on Advanced
Robotics, pages 991–996, Coimbra, Portugal, July 2003. 67
[Bensalah 1996] F. Bensalah. Estimation du mouvement par vision active. PhD thesis, Université de
Rennes I, 1996. 106
[Blanc et al. 2004] G. Blanc, O. Ait-Ader, Y. Mezouar, T. Chateau et P. Martinet. Autonomous image-
based navigation in indoor environment. In Symposium on Intelligent Autonomous Vehicles,
Lisboa, Portugal, July 2004. 41
[Blanc et al. 2005] G. Blanc, Y. Mezouar et P. Martinet. Indoor navigation of a wheeled mobile robot
along visual routes. In International Conference on Robotics and Automation, Barcelona,
Spain, 2005. 41, 88, 115
[Boissinot 2008] D. Boissinot. Asservissement visuel coordonné pour un manipulateur mobile à deux
bras. Master’s thesis, Ecole Nationale Supérieure de Physique de Strasbourg, 2008. 107
[Bonin-Font et al. 2008] F. Bonin-Font, F. Ortiz et G. Oliver. Visual navigation for mobile robots : a
survey. Journal of intelligent and robotic systems, vol. 53, no. 3, page 263, 2008. 37, 40, 41
[Bourquardez & Chaumette 2007] O. Bourquardez et F. Chaumette. Visual servoing of an airplane
for auto-landing. In IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, IROS’07, pages
1314–1319, San Diego, CA, USA, October 2007. 115
[Burschka & Hager 2001] D. Burschka et G. D. Hager. Vision-based control of mobile robots. In IEEE
International Conference on Robotics and Automation, pages 1707–1713, Seoul, South Korea,
May 2001. 41
[Cadenat et al. 1999a] V. Cadenat, P. Souères et M. Courdesses. An hybrid control for avoiding obs-
tacles during a vision-based tracking task. In European Control Conference, Karlsruhe, Ger-
many, Septembre 1999. 61
122 Bibliographie
[Cadenat et al. 1999b] V. Cadenat, P. Souères, R. Swain et M. Devy. A controller to perform a visually
guided tracking task in a cluttered environment. In IEEE/RSJ Int. Conf. on Intelligent Robots
and Systems, Korea, Octobre 1999. 61
[Cadenat et al. 2006] V. Cadenat, P. Souères et T. Hamel. A reactive path-following controller to
guarantee obstacle avoidance during the transient phase. Int. J. Robot. Automat., vol. 21,
pages 256–265, 2006. 55
[Cadenat et al. 2012] V. Cadenat, D. Folio et A. Durand Petiteville. A comparison of two sequencing
techniques to perform a vision-based navigation task in a cluttered environment. Advanced
Robotics, vol. 26, no. 6-7, 2012. 53, 59, 70
[Cadenat 1999] V. Cadenat. Commande référencée multi-capteurs pour la navigation d’un robot mo-
bile. PhD thesis, Université Paul SABATIER, Toulouse, France, Décembre 1999. 35, 40, 45,
46, 50, 53, 54, 55, 56, 57, 60, 61, 62, 114, 115, 120
[Chaumette & Hutchinson 2006] F. Chaumette et S. Hutchinson. Visual Servo Control, Part I : Basic
Approaches. IEEE Robotics and Automation Magazine, vol. 13, no. 4, pages 82–90, Décembre
2006. 40, 49, 51, 111, 116
[Chaumette & Hutchinson 2007] Chaumette et Hutchinson. Visual Servo Control, Part 2 : Advanced
Approaches. IEEE Robotics and Automation Magazine, 2007. 116
[Chaumette & Hutchinson 2008] F. Chaumette et S. Hutchinson. Visual servoing and visual tracking.
In B. Siciliano et O. Khatib, editeurs, Handbook of Robotics, chapitre 24, pages 563–583.
Springer, 2008. 116
[Chaumette & Marchand 2000] F. Chaumette et E. Marchand. A new redundancy-based iterative
scheme for avoiding joint limits : application to visual servoing. In IEEE Int. Conf. on Robotics
and Automation, San Francisco, CA, USA, Mai 2000. 114
[Chaumette & Marchand 2001] F. Chaumette et E. Marchand. A redundancy-based iterative approach
for avoiding joint limits : Application to visual servoing. IEEE Trans. on Robotics and Auto-
mation, vol. 17, no. 5, pages 719–730, October 2001. 52
[Chaumette et al. 1996] F. Chaumette, S. Boukir, P. Bouthemy et D. Juvin. Structure from Controlled
Motion. IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 18, no. 5, pages 492–
504, Mai 1996. 83
[Chaumette 1990] F. Chaumette. La relation vision-commande : théorie et application à des tâches
robotiques. PhD thesis, Université de Rennes 1, IRISA, Juillet 1990. 48, 75, 112
[Chaumette 1998] F. Chaumette. Potential problems of stability and convergence in image-based and
position-based visual servoing. In D. Kriegman, G . Hager et A.S. Morse, editeurs, The
Confluence of Vision and Control, chapitre The Confluence of Vision and Control. LNCIS
Series, No 237, Springer-Verlag, 1998. 40, 112, 113
[Chaumette 2002] F. Chaumette. Asservissement visuel. In W. Khalil, editeur, La commande des
robots manipulateurs, Traité IC2, chapitre 3, pages 105–150. Hermès, 2002. 47, 48, 111, 116
[Chaumette 2003] F. Chaumette. Avancées récentes en asservissement visuel. In Quatrièmes journées
nationales de la recherche en robotique, Clermont-Ferrand, Octobre 2003. 111, 113, 116
[Chaumette 2004] F. Chaumette. Image moments : a general and useful set of features for visual
servoing. IEEE Transactions on Robotics and Automation, vol. 20, no. 4, pages 713–723, Août
2004. 48
Bibliographie 123
[Chaumette 2007a] F. Chaumette. Quoi de neuf en asservissement visuel depuis les JNRR’03 ? In
Sixièmes journées nationales de la recherche en robotique, Obernai, Octobre 2007. 111, 113,
116
[Chaumette 2007b] F. Chaumette. Visual servoing. In E. Dombre et W. Khalil, editeurs, Robot
Manipulators : Modeling, Performance Analysis and Control, chapitre 6, pages 279–336. ISTE,
2007. 116
[Chen & Birchfield 2007] Z. Chen et S. T. Birchfield. Person Following with a Mobile Robot using
Binocular Feature-Based Tracking. In IEEE Int. Conf. on Robotics and Automation, San
Diego, CA, USA, 2007. 95
[Cherubini & Chaumette 2009] A. Cherubini et F. Chaumette. Visual navigation with a time-
independent varying reference. In IEEE Int. Conf. on Intelligent Robots and Systems, IROS’09,
pages 5968–5973, St Louis, USA, October 2009. 40, 41, 88, 115
[Cherubini & Chaumette 2010] A. Cherubini et F. Chaumette. A redundancy-based approach to obs-
tacle avoidance applied to mobile robot navigation. In Proc. of IEEE Int. Conf. on Intelligent
Robots and Systems, Taipei, Taiwan, 2010. 40, 41, 88, 89, 91, 114, 115
[Cherubini et al. 2011] A. Cherubini, F. Chaumette et G. Oriolo. Visual servoing for path reaching
with nonholonomic robots. Robotica, 2011. 41, 88, 89
[Chesi & Hashimoto 2003] G. Chesi et K. Hashimoto. Effects of camera calibration errors on static-eye
and hand-eye visual servoing. Advanced Robotics, vol. 17, pages 1023–1039, 2003. 39
[Chesi & Hashimoto 2010] G. Chesi et K. Hashimoto, editeurs. Visual servoing via advanced numerical
methods, volume 401 of Lecture notes in control and information science. Springer Verlag, 2010.
116
[Chesi et al. 2004] G. Chesi, K. Hashimoto, D. Prattichizzo et A. Vicino. Keeping features in the field
of view in eye-in-hand visual servoing : A switching approach. IEEE Transactions on Robotics
and Automation, vol. 20, pages 908–914, Octobre 2004. 53, 67, 114
[Chesi et al. 2010] G. Chesi, Y. S. Hung et H. L. Yung. Image Measurement Errors in Visual Ser-
voing : Estimating the Induced Positioning Error. In Visual Servoing via Advanced Numerical
Methods, pages 151–168. Springer Verlag, 2010. 113
[Chesi 2009] G Chesi. Visual servoing path planning via homogeneous forms and LMI optimizations.
IEEE Trans. Robotics and Automation, vol. 25, no. 2, pages 281–291, 2009. 114
[Choset et al. 2005] H. Choset, K. Lynch, S. Hutchinson, G. Kantor, W. Burgard, L. Kavraki et
S Thrun. Principles of robot motion. MIT Press, Boston, 2005. 37
[Collewet & Marchand 2011] C. Collewet et E. Marchand. Photometric visual servoing. IEEE Trans.
on Robotics, vol. 27, no. 4, August 2011. 48, 114
[Comment 2009] Estelle Comment. Estimation de mouvement pour l’asservissement visuel en contexte
dynamique. Master’s thesis, Polytechnique, 2009. 105, 106
[Comport et al. 2004] A. I. Comport, E. Marchand et F. Chaumette. Robust model-based tracking
for robot vision. In IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, Sendai, Japan,
Octobre 2004. 67
[Comport et al. 2006] A.I. Comport, E. Marchand, M. Pressigout et F. Chaumette. Real-time mar-
kerless tracking for augmented reality : the virtual visual servoing framework. IEEE Trans. on
Visualization and Computer Graphics, vol. 12, no. 4, pages 615–628, July 2006. 115
124 Bibliographie
[Cordesses et al. 2000] L. Cordesses, B. Thuilot, P. Martinet et C. Cariou. Curved path following of
a farm tractor using a cp-dgps. In 6th SYmposium on RObot COntrol, SYROCO’00, pages
489–494, Vienna, Austria, 2000. 37
[Corke & Hutchinson 1999] P. I. Corke et S. Hutchinson. A new partitioned approach to image-based
visual servo control. In 31st International Symposium on Robotics and Automation, 1999. 60
[Corke & Hutchinson 2001] P.I. Corke et S. Hutchinson. A new partitioned approach to image-based
visual servo control. IEEE Transactions on Robotics and Automation, vol. 17, pages 507–515,
Août 2001. 67, 113
[Corke 1996] P.I. Corke. Visual control of robots : High performance visual servoing. Research Studies
Press LTD, 1996. 111, 112, 116
[Courbon et al. 2009] J Courbon, Y Mezouar et P Martinet. Autonomous navigation of vehicles from a
visual memory using a generic camera model. IEEE Transactions on Intelligent Transportation
Systems, vol. 10, no. 3, pages 392–402, 2009. 41, 88, 115
[Cowan et al. 2002] N. Cowan, J. Weingarten et D. Koditschek. Visual servoing via navigation func-
tions. IEEE Transaction on Robotics and Automation, vol. 18, no. 4, pages 521–533, August
2002. 40
[Crétual 1998] A. Crétual. Asservissement visuel à partir d’information de mouvement dans l’image.
PhD thesis, Université de Rennes 1, IRISA, Novembre 1998. 114
[Dame & Marchand 2011] Amaury Dame et Eric Marchand. Mutual Information-based Visual Ser-
voing. IEEE Transactions on Robotics, vol. To appear, 2011. 114
[Danès & Coutinho 2006] P. Danès et D.F. Coutinho. Multicriteria Analysis of Visual Servos via
Biquadratic Lyapunov Functions. In 5th IFAC Symposium on Robust Control Design, Toulouse,
France, 2006. 52, 113
[Danès et al. 2010] P. Danès, D. Coutinho et S. Durola. Multicriteria Analysis of Visual Servos through
Rational Systems, Biquadratic Lyapunov Functions, and LMIs. In Visual Servoing via Advan-
ced Numerical Methods. G. Chesi and H. Hashimoto, 2010. 113
[Danès & Bellot 2006] P. Danès et D. Bellot. Towards an LMI approach to multicriteria visual servoing
in robotics. European Journal of Control, vol. 12, no. 1, pages 86–110, January 2006. 49, 114
[De Luca et al. 2007] Alessandro De Luca, Giuseppe Oriolo et Paolo Robuffo Giordano. Image-based
visual servoing schemes for nonholonomic mobile manipulators. Robotica, vol. 25, pages 131–
145, 2007. 115
[De Luca et al. 2008] De Luca, Oriolo et Giordano. Features depth observation for image based visual
servoing : theory and experiments. Int. Journal of Robotics Research, vol. 27, no. 10, 2008. 84,
87
[De Souza & Kak 2002] G. N. De Souza et A. C. Kak. Vision for Mobile Robot Navigation : A Survey.
IEEE Transactions on pattern analysis and machine intelligence, vol. 24, no. 2, pages 237–267,
2002. 37
[Deguchi 1998] K. Deguchi. Optimal motion control for image-based visual servoing by decoupling
translation and rotation. In IInternational Conference on Intelligent Robots and Systems,
pages 705–711, October 1998. 113
[Deng et al. 2005] L. Deng, F. Janabi-Sharifi et W.J. Wilson. Hybrid Motion Control and Planning
Strategies for Visual Servoing. Industrial Electronics, IEEE Transactions on, vol. 52, no. 4,
pages 1024 – 1040, aug. 2005. 53, 114
Bibliographie 125
[Dessus 2010] S. Dessus. Estimation de mouvement pour l’asservissement visuel en contexte dyna-
mique. Master’s thesis, ENSEEIHT, 2010. 105, 106
[Dijkstra 1971] Edsger W. Dijkstra. A short introduction to the art of programming. circulated
privately, Août 1971. 39, 89
[Duceux et al. 2010] G. Duceux, B. Tamadazte, N. Le Fort-Piat, E. Marchand, G. Fortier et S. Dem-
bélé. Autofocusing-based visual servoing : application to MEMS micromanipulation. In Int.
Symp. on Optomechatronic Technologies, ISOT 2010, Toronto, Canada, October 2010. 109,
115
[Dune et al. 2007] C. Dune, E. Marchand et C. Leroux. One Click Focus with Eye-in-hand/Eye-to-
hand Cooperation. In IEEE International Conference on Robotics and Automation, Roma,
Italy, 2007. 114
[Durand Petiteville et al. 2009] A. Durand Petiteville, M. Courdesses et V. Cadenat. Reconstruction of
the features depth to improve the execution of a vision-based task. In 9th International workshop
on Electronics, Control, Modelling, Measurement and Signals 2009, Mondragon, Spain, July
2009. 84
[Durand Petiteville et al. 2010a] A. Durand Petiteville, V. Cadenat et M. Courdesses. A Unified Ini-
tialization Phase to Improve Visual Servoing in an Unknown Environment. In IFAC Symposium
on Intelligent Autonomous Vehicles, Lecce, Italy, September 2010. 91, 93
[Durand Petiteville et al. 2010b] A. Durand Petiteville, M. Courdesses et V. Cadenat. A new predic-
tor/corrector pair to estimate the visual features depth during a vision-based navigation task
in an unknown environment. In 7th International Conference on Informatics in Control, Au-
tomation and Robotics, Funchal, Portugal, June 2010. 85
[Durand Petiteville et al. 2011a] A. Durand Petiteville, V. Cadenat, M. Courdesses, F. Delpech de
Frayssinet et A. Magassouba. A comparison of several approaches to perform a vision-based
long range navigation. In IEEE Workshop on Electronics, Control, Measurement and Signals,
Liberec, Czech Republic, June 2011. 84, 87
[Durand Petiteville et al. 2011b] A. Durand Petiteville, S. Hutchinson, V. Cadenat et M. Courdesses.
2D visual servoing for a long range navigation in a cluttered environment. In 50th IEEE
Conference on Decision and Control and European Control Conference, Orlando, Florida, USA,
December 2011. 56, 89, 91
[Durand Petiteville 2012] A. Durand Petiteville. Navigation référencée multi-capteur d’un robot mobile
en environnement encombré. PhD thesis, Université de Toulouse, 2012. 83, 87
[Durola et al. 2009] S. Durola, P. Danès, D.F. Coutinho et M. Courdesses. Rational systems and ma-
trix inequalities to the multicriteria analysis of visual servos. In IEEE International Conference
on Robotics and Automation (ICRA 2009), pages 1504–1509, Kobe, Japan, 2009. 52, 114
[Espiau et al. 1992] B. Espiau, F. Chaumette et P. Rives. A new approach to visual servoing in
robotics. IEEE Transactions on Robotics and Automation, vol. 8, pages 313–326, Juin 1992.
47, 48, 51, 112
[Espiau 1993] B. Espiau. Effect of camera calibration errors on visual servoing in robotics. In 3rd
international Symposium on Experimental Robotics, volume 200, pages 182–192, Kyoto, Japan,
1993. 113
[Favaro & Soatto 2003] P. Favaro et S. Soatto. Seeing beyond occlusions (and other marvels of a
finite lens aperture). In IEEE Computer Society Conference on Computer Vision and Pattern
Recognition, Saint Louis, USA, 2003. 74
126 Bibliographie
[Feddema & Simon 1998] J.T. Feddema et R. W. Simon. CAD-driven micro-assembly and visual
servoing. In IEEE Int. Conf. on Robotics and Automation, Leuven, Belgium, Mai 1998. 115
[Feddema 1989] J. Feddema. Real time visual feedback control for hand-eye coordinated robotic sys-
tems. PhD thesis, Purdue University, 1989. 112
[Flandin et al. 2000] G. Flandin, F. Chaumette et E. Marchand. Eye-in-hand / eye-to-hand coopera-
tion for visual servoing. In IEEE Int. Conf. on Robotics and Automation, ICRA’00, volume 3,
pages 2741–2746, San Francisco, California, April 2000. 114
[Folio & Cadenat 2005a] D. Folio et V. Cadenat. A controller to avoid both occlusions and obstacles
during a vision-based navigation task in a cluttered environment. In European Control Confe-
rence, Seville, Spain, Décembre 2005. 69, 70
[Folio & Cadenat 2005b] D. Folio et V. Cadenat. Using redundancy to avoid simultaneously occlusions
and collisions while performing a vision-based task amidst obstacles. In ECMR, Ancona, Italy,
Septembre 2005. 69
[Folio & Cadenat 2006] D. Folio et V. Cadenat. A redundancy-based scheme to perform safe vision-
based tasks amidst obstacles. In ROBIO’06, Décembre 2006. 69, 70
[Folio & Cadenat 2007] D. Folio et V. Cadenat. A new controller to perform safe vision-based naviga-
tion tasks amidst possibly occluding obstacles. In European Control Conference, Kos, Greece,
Juillet 2007. 81
[Folio & Cadenat 2008a] D. Folio et V. Cadenat. Dealing withvisual features loss during a vision-based
task for a mobile robot. Int. Journal on Optomechatronics, special issue on visual servoing,
vol. 2, pages 185–204, Juillet 2008. 80
[Folio & Cadenat 2008b] D. Folio et V. Cadenat. A sensor-based controller able to treat total image
loss to guarantee non-collision during a vison-based navigation task. In IEEE/RSJ Int. Conf.
on Intelligent Robots and Systems, Nice, France, Septembre 2008. 80
[Folio & Cadenat 2008c] D. Folio et V. Cadenat. Treating image loss using the vision/motion link : a
generic framework. IN-TECH, 2008. 78, 83, 84, 86
[Folio 2003] D. Folio. Navigation par enchaînement de tâches référencées multi-capteurs. Rapport de
stage de DEA, Université Paul SABATIER, Juin 2003. 65
[Folio 2007] D. Folio. Stratégies de commande référencées multi-capteurs et gestion de la perte du
signal visuel pour la navigation d’un robot mobile. PhD thesis, University of Toulouse, France,
Juillet 2007. 40, 53, 54, 56, 57, 62, 63, 65, 67, 68, 69, 70, 75, 76, 77, 78, 80, 81, 83, 84, 86, 114
[Gangloff et al. 2006] J. Gangloff, R. Ginhoux, M. de Mathelin, L. Soler et J. Marescaux. Model
predictive control for compensation of cyclic organ motions in teleoperated laparoscopic surgery.
IEEE Transactions on Control Systems Technology, vol. 14, no. 2, pages 235 – 246, March 2006.
115
[Gans & Hutchinson 2007] N.R. Gans et S.A. Hutchinson. Stable Visual Servoing Through Hybrid
Switched-System Control. Robotics, IEEE Transactions on, vol. 23, no. 3, pages 530 –540, june
2007. 53, 114
[Gans et al. 2003] Nicholas R. Gans, Seth A. Hutchinson et Peter I. Corke. Performance Tests for
Visual Servo Control Systems, with Application to Partitioned Approaches to Visual Servo
Control. International Journal of Robotic Research, vol. 22, pages 955–984, 2003. 40, 49, 53,
60, 112, 113
[Gao 2006] B. Gao. Contribution à la synthèse de commandes référencées vision 2D multi-critères.
PhD thesis, University of Toulouse, France, Octobre 2006. 58, 114
Bibliographie 127
[Garcia-Aracil et al. 2006] N.M. Garcia-Aracil, J.M. Azorin Poveda, J.M. Sabater Navarro, C. Perez
Vidal et R. Saltaren Pazmino. Visual Control of robots with changes of visibility in image
features. IEEE Transactions on Robotics and Automation, vol. 4, pages 27–33, March 2006.
52, 67
[Gaspar et al. 2000] J. Gaspar, N. Winters et J. Santos-Victor. Vision-based navigation and environ-
mental representations with an omni-directional camera. IEEE transactions on robotics and
automation, vol. 6, no. 6, pages 890–898, 2000. 41, 88, 89, 115
[Germa et al. 2010a] T. Germa, F. Lerasle, N. Ouadah et V. Cadenat. Vision and RFID data fusion
for tracking people in crowds by a mobile robot. Comput. Vis. Image Underst., vol. 114, no. 6,
pages 641–651, 2010. 47, 95
[Germa et al. 2010b] T. Germa, F. Lerasle, N. Ouadah, V. Cadenat et M. Devy. Vision and RFID-
based Person Tracking in Crowds from a Mobile Robot. In IEEE/RSJ Int. Conf. on Intelligent
Robots and Systems, Saint Louis, USA, Octobre 2010. 95
[Germa et al. 2010c] T. Germa, F. Lerasle, N. Ouadah, V. Cadenat et C. Lemaire. Fusion de données
visuelles et RFID pour le suivi de personnes en environnement encombré depuis un robot mobile.
In Reconnaissance des Formes et Intelligence Artificielle, Caen, France, Janvier 2010. 95
[Gockley et al. 2007] R. Gockley, J. Forlizzi et R. Simmons. Natural Person-Following Behavior for
Social Robots. In ACM/IEEE international Conference on Human-Robot interaction, Arling-
ton, USA, 2007. 95
[Guénard et al. 2007] N. Guénard, T. Hamel et R. Mahony. A Practical Visual Servo Control for a
Unmanned Aerial Vehicle. In IEEE International Conference on Robotics and Automation,
Rome, Italie, 2007. 115
[Haliyo et al. 2006] S. Haliyo, F. Dionnet et S. Régnier. Controlled rolling of micro objects for auto-
nomous micro manipulation. Int. Journal of Micromechatronics, vol. 3, no. 2, pages 75–101,
2006. 109
[Hamel & Mahony 2002] T. Hamel et R. Mahony. Visual servoing of an underactuated dynamic rigid-
body system. IEEE Trans. on Robotics and Automation, vol. 18, no. 2, pages 187–198, April
2002. 115
[Han et al. 2000] S.H. Han, W.H. Seo et J. Lee. Image-Based Visual Servoing Control of a SCARA
Type Dual-Arm Robot. In 2000 IEEE Int. Symposium on Industrial Electronics, pages 517–522,
2000. 107
[Hart et al. 1968] P.E. Hart, N.J. Nilsson et B. Raphael. A Formal Basis for the Heuristic Deter-
mination of Minimum Cost Paths. Systems Science and Cybernetics, IEEE Transactions on,
vol. 4, no. 2, pages 100 –107, july 1968. 39
[Hashimoto & Kimura. 1993] K. Hashimoto et H. Kimura. LQ optimal and nonlinear approches to
visual servoing. In K. Hashimoto, editeur, Visual Servoing, volume 7 of Robotics and Automated
Systems, pages 165–198. World Scientific Press, 1993. 114
[Hashimoto & Noritsugu 2000] K. Hashimoto et T. Noritsugu. Potential problems and switching
control for visual servoing. In Intelligent Robots and Systems, 2000. (IROS 2000). Procee-
dings. 2000 IEEE/RSJ International Conference on, volume 1, pages 423 –428 vol.1, 2000.
114
[Hill & Park 1979] J. Hill et W. T. Park. Real Time Control of a Robot with a Mobile Camera. In
9th International Symposium on Industrial Robot, Washington (DC), USA, 1979. 111
128 Bibliographie
[Horaud & Monga 1995] R. Horaud et O. Monga. Vision par ordinateur, outils fondamentaux. Traité
des nouvelles technologies, série Informatique. Hermès, Paris, 1995. 46
[Huang et al. 2005] C.M. Huang, J.H. Jean, Y.S. Cheng et L.C. Fu. Visual tracking and servoing
system design for circling a target of an air vehicle simulated in virtual reality. In IEEE/RSJ
International Conference on Intelligent Robots and Systems, 2005. 115
[Huang et al. 2009] Haibo Huang, Dong Sun, James K. Mills et Shuk Han Cheng. Robotic cell injection
system with position and force control : toward automatic batch biomanipulation. IEEE Trans.
Robot., vol. 25, no. 3, pages 727–737, 2009. 109
[Hutchinson et al. 1996] S. Hutchinson, G.D. Hager et P.I. Corke. A tutorial on visual servo control.
IEEE Transactions on Robotics and Automation, vol. 12, no. 5, pages 651–670, October 1996.
111, 116
[Hynes et al. 2006] P. Hynes, G. Dodds et A. Wilkinson. Uncalibrated visual servoing of a dual arm
robot for MIS suturing. In IEEE Int. Symp. on Biomedical Robotics and Biomechatronics,
pages 204 – 209, Pisa, Italy, 2006. 107, 115
[Jerian & Jain 1991] C. Jerian et R. Jain. Structure from Motion : A Critical Analysis of Methods.
IEEE Trans. on Systems, Man and Cybernetics, vol. 21, no. 3, pages 572–588, Mai 1991. 83
[Joon-Kil et al. 2006] K. Joon-Kil, K. Do-Wan, C. Seung-Joon et W. Sang-Chul. Image-based visual
servoing using sliding mode control. In International Joint Conference, Bexcon, Korea, 2006.
96
[Kanoun et al. 2011] O. Kanoun, F. Lamiraux et P.B. Wieber. Kinematic control of redundant mani-
pulators : generalizing the task priority framework to inequality tasks. IEEE Transactions on
Robotics, vol. 27, no. 1, pages 1–9, June 2011. 51
[Katsura et al. 2003] H. Katsura, J. Miura, M. Hild et Y. Shirai. A view-based outdoor navigation using
object recognition robust to changes of weather and seasons. In IEEE International Conference
on Intelligent Robots and Systems, Las Vegas, USA, September 2003. 37
[Kazemi et al. 2009] M. Kazemi, K. Gupta et M. Mehrandezh. Global path planning for robust visual
servoing in complex environments. In IEEE Int. Conf. on Robotics and Automation, Kobe,
Japan, 2009. 114
[Kazemi et al. 2010] M. Kazemi, K. Gupta et M. Mehrandezh. Path-Planning for Visual Servoing :
A Review and Issues. In G. Chesi et K. Hashimoto, editeurs, Visual Servoing via Advanced
Numerical Methods. Springer Verlag, 2010. 113, 114
[Kermorgant & Chaumette 2011a] O. Kermorgant et F. Chaumette. Avoiding joint limits with a low-
level fusion scheme. In IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, IROS’11, San
Francisco, USA, September 2011. 52, 114
[Kermorgant & Chaumette 2011b] O. Kermorgant et F. Chaumette. Combining IBVS and PBVS to
ensure the visibility constraint. In IEEE/RSJ Int. Conf. on Intelligent Robots and Systems,
IROS’11, San Francisco, USA, September 2011. 67, 113
[Kermorgant & Chaumette 2011c] O. Kermorgant et F. Chaumette. Multi-sensor data fusion in
sensor-based control : application to multi-camera visual servoing. In IEEE Int. Conf. on
Robotics and Automation, pages 4518–4523, Shanghai, China, May 2011. 114
[Khadraoui 1996] D. Khadraoui. La Commande Référencée Vision pour le Guidage Automatique de
Véhicules. PhD thesis, Université Blaise Pascal de Clermont-Ferrand, 1996. 115
[Khalfaoui 2009] Souhaiel Khalfaoui. Asservissement visuel coordonné pour un manipulateur mobile
à deux bras. Master’s thesis, Université Pierre et Marie Curie, 2009. 107, 108
Bibliographie 129
[Khatib et al. 1997] M. Khatib, H. Jaouni, R. Chatila et J.-P Laumond. Dynamic path modication
for car-like nonholonomic mobile robots. In IEEE International Conference on Robotics and
Automation, pages 490–496, Albuquerque, New Mexico, USA, April 1997. 38
[Khatib 1986] O. Khatib. Real-time obstacle avoidance for manipulators and mobile robots. The Int.
Journal of robotics Research, 1986. 40
[Khatib 1996] M. Khatib. Contrôle du mouvement d’un robot mobile par retour sensoriel. PhD thesis,
LAAS-CNRS, 1996. 40
[Kim & Menq 2005] J.H. Kim et C.H. Menq. Direct visual servo control achieving nanometer resolu-
tion in X-Y-Z. In Int. Conf. On Mechatronics, Taipei, Taiwan, Juillet 2005. 109, 115
[Kobilarov et al. 2006] M. Kobilarov, G. Sukhatme, J. Hyams et P. Batavia. People tracking and follo-
wing with mobile robot using an omnidirectional camera and laser. In International Conference
on Robotics and Automation, Orlando, USA, 2006. 95
[Koditschek 1987] D. Koditschek. Exact robot navigation by means of potential functions : some
topological considerations. In International Conference on Robotics and Automation, pages
1–6, Raley, NC, USA, 1987. 40
[Koenig & Likhachev 2002] S. Koenig et M. Likhachev. Improved fast replanning for robot navigation
in unknown terrain. In IEEE International Conference on Robotics and Automation, pages
698–975, Washington DC, USA, May 2002. 38
[Koenig & Likhachev 2005] S. Koenig et M. Likhachev. Fast replanning for navigation in unknown
terrain. Robotics, IEEE Transactions on, vol. 21, no. 3, pages 354 – 363, june 2005. 38
[Kragic & Christensen 2002] Danica Kragic et Henrik I Christensen. Survey on Visual Servoing for
Manipulation. Rapport technique, Computational vision and active perception laboratory,
2002. 115
[Kralnìk & Přeučil 2008] T. Kralnìk et L. Přeučil. A simple visual navigation system with convergence
property. In Libor Preucil Herman Bruyninckx et Miroslav Kulich, editeurs, Springer Tracts
in Advanced Robotics, volume 44. Springer Verlag, 2008. 41, 88, 115
[Krupa et al. 2003] A. Krupa, J. Gangloff, C. Doignon, M.F. de Mathelin, G. Morel, J. Leroy, L. Soler
et J. Marescaux. Autonomous 3-D positioning of surgical instruments in robotized laparoscopic
surgery using visual servoing. Robotics and Automation, IEEE Transactions on, vol. 19, no. 5,
pages 842 – 853, oct. 2003. 115
[Kwon et al. 2005] H. Kwon, Y. Yoon, J. Byung Park et A. C. Kak. Person Tracking with a Mobile
Robot using Two Uncalibrated Independently Moving Cameras. In Robotics and Automation,
2005. ICRA ’05. IEEE International Conference on, 2005. 95
[Kyrki et al. 2004] V. Kyrki, D. Kragic et H. Christensen. New shortest-path approaches to visual
servoing. In IROS’04, pages 349–355, Octobre 2004. 67
[Kyrki et al. 2006] V. Kyrki, D. Kragic et H. Christensen. Measurement errors in visual servoing.
Robotics and Autonomous Systems, vol. 54, no. 10, pages 815–827, 2006. 113
[Kyrki 2009] V. Kyrki. Control uncertainty in image-based visual servoing. In Robotics and Au-
tomation, 2009. ICRA ’09. IEEE International Conference on, pages 1516 –1521, may 2009.
113
[Lamiraux et al. 2004] F. Lamiraux, D. Bonnafous et O. Lefebvre. Reactive path deformation for non-
holonomic mobile robots. IEEE Transactions on Robotics and Automation, vol. 20, no. 6, pages
967–977, December 2004. King-Sun Fu Memorial Best Transactions on Robotics Paper Award
2004. 38, 39
130 Bibliographie
[Laumond 2001] J.-P Laumond, editeur. La robotique mobile. IC2 SYSTEMES AUTOMATISES.
Hermès Sciences Publication, 2001. 38
[Lee et al. 2005] W.S. Lee, H.R. Kim, Y.T Kim, Y.T. Jung et S.H. Han. A Study on Visual Feedback
Control of a Dual-Arm Robot with Eight Joints. In IEEE Int. Conf. on Control, Automation
and System, Gyeonggi-Do, Korea, 2005. 107
[Lepetit & Fua 2006] V. Lepetit et P. Fua. Monocular Model-Based 3D Tracking of Rigid Objects.
Found. Trends. Comput. Graph. Vis, vol. 1, no. 1, pages 1–89, 2006. 74
[Li et al. 2001] X. D. Li, G. Zong et S. Bi. Development of global vision system for biological automatic
micro-manipulation system. In IEEE Int. Conf. on Robotics and Automation, pages 127–132,
2001. 109
[Lippiello et al. 2005] V. Lippiello, B. Siciliano et L. Villani. Eye-in-Hand/Eye-to-Hand Multi-Camera
Visual Servoing. In 44th IEEE Conference on Decision and Control and the European Control
Conference, Sevilla, Spain, December 2005. 114
[Lopes & Koditschek 2007] Gabriel Lopes et Daniel Koditschek. Visual servoing for nonholonomi-
cally constrained three degree of freedom kinematic systems. International Journal of Robotics
Research, vol. 26, no. 7, pages 715–736, 2007. 114
[López-Nicolás et al. 2010] G. López-Nicolás, N. R. Gans, S. Bhattacharya, C. Sagüés, J.J. Guerrero et
S. Hutchinson. An Optimal Homography-Based Control Scheme for Mobile Robots with Nonho-
lonomic and Field-of-View Constraints. IEEE Transactions on Systems, Man and Cybernetics,
Part B, vol. 40, no. 4, pages 1115 – 1127, 2010. 114
[Ma & Hutchinson 2010] W. Ma et S. Hutchinson. Gradient Projection Methods for Constrained
Image-based Visual Servo. In Visual servoing via advanced numerical methods. Springer Verlag,
2010. 114
[Mahony et al. 2002] R. Mahony, P. Corke et F. Chaumette. Choice of image features for depth-axis
control in image-based visual servo control. In IEEE/RSJ Int. Conf. on Intelligent Robots and
Systems, IROS’02, volume 1, pages 390–395, Lausanne, Switzerland, October 2002. 114
[Malis & Chaumette 2002] E. Malis et F Chaumette. Theoretical improvements in the stability ana-
lysis of a new class of model-free visual servoing methods. IEEE Trans. on Robotics and
Automation, vol. 18, no. 2, pages 176–186, April 2002. 113
[Malis & Rives 2003] Malis et Rives. Robustness of image-based visual servoing with respect to depth
distribution errors. In IEEE Int. Conf. on Robotics and Automation, Taipei, Taiwan, 2003.
113
[Malis et al. 1999] E. Malis, F. Chaumette et S. Boudet. 2 1/2d visual servoing. IEEE Transactions
on Robotics and Automation, vol. 15, pages 238–250, Avril 1999. 67, 113
[Malis et al. 2000] E. Malis, F. Chaumette et S. Boudet. Multi-cameras visual servoing. In IEEE
Int. Conf. on Robotics and Automation, ICRA’00, volume 4, pages 3183–3188, San Francisco,
California, USA, April 2000. 114
[Malis et al. 2001] E. Malis, G. Morel et F. Chaumette. Robot control using disparate multiple sensors.
Int. Journal of Robotics Research, vol. 20, no. 5, pages 364–378, May 2001. 114
[Malis 1998] E. Malis. Contribution à la modélisation et à la commande en asservissement visuel.
PhD thesis, Université de Rennes 1, IRISA, Novembre 1998. 113
[Mansard & Chaumette 2005] N. Mansard et F. Chaumette. A new redundancy formalism for avoi-
dance in visual servoing. In IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, IROS’05,
volume 2, pages 1694–1700, Edmonton, Canada, August 2005. 67, 114
Bibliographie 131
[Mansard & Chaumette 2007] N. Mansard et F. Chaumette. Task sequencing for sensor-based control.
IEEE Transactions on Robotics, vol. 23, no. 1, pages 60–72, Février 2007. 58, 114
[Mansard et al. 2007] N. Mansard, O. Stasse, F. Chaumette et K Yokoi. Visually-guided grasping while
walking on a humanoid robot. In IEEE Int. Conf. on Robotics and Automation, ICRA’07, pages
3041–3047, Roma, Italy, April 2007. 115
[Mansard et al. 2009] N. Mansard, A. Remazeilles et F. Chaumette. Continuity of varying-feature-set
control laws. IEEE Trans. on Automatic Control, vol. 54, no. 11, pages 2493–2505, November
2009. 52, 67
[Mansard 2006] N. Mansard. Enchainement de tâches robotiques. PhD thesis, Université de Rennes
I, 2006. 38, 39, 40, 51, 52, 53, 58
[Marchand & Chaumette 2002] E. Marchand et F. Chaumette. Virtual visual servoing : A framework
for real-time augmented reality. In G. Drettakis et H.-P. Seidel, editeurs, EUROGRAPHICS
2002 Conference Proceeding, volume 21 of Computer Graphics Forum, pages 289–298, Saare-
brücken, Germany, September 2002. 115
[Marchand & Hager 1998] E. Marchand et G.D. Hager. Dynamic Sensor Planning in Visual Servoing.
In IEEE Int. Conf. on Robotics and Automation, Leuven, Belgium, Mai 1998. 67
[Marchand et al. 1996] E. Marchand, F. Chaumette et A. Rizzo. Using the task function approach to
avoid robot joint limits and kinematic singularities in visual servoing. In IEEE/RSJ Int. Conf.
on Intelligent Robots and Systems, Osaka (Japan), Novembre 1996. 52
[Marey & Chaumette 2010a] M. Marey et F. Chaumette. A new large projection operator for the
redundancy framework. In IEEE Int. Conf. on Robotics and Automation, ICRA’10, pages
3727–3732, Anchorage, Alaska, May 2010. 51
[Marey & Chaumette 2010b] M. Marey et F. Chaumette. New strategies for avoiding robot joint
limits : Application to visual servoing using a large projection operator. In IEEE/RSJ Int.
Conf. on Intelligent Robots and Systems, IROS’10, pages 6222–6227, Taipei, Taiwan, October
2010. 53, 114
[Martinet & Thibaud 2000] P. Martinet et C. Thibaud. Automatic Guided Vehicles : Robust Control-
ler Design. Image Space Autonomous Robots, vol. 8, pages 25–42, 2000. 115
[Martinet 1999] P Martinet. Comparison of visual servoing techniques : experimental results. In
European Control Conference, 1999. 112, 113
[Matsumoto et al. 1996] Y. Matsumoto, M. Inaba et H. Inoue. Visual navigation using view-sequenced
route representation. In IEEE International Conference on Robotics and Automation, Minnea-
polis, Minnesota, April 1996. 41, 88
[Matthies et al. 1989] L. Matthies, T. Kanade et R. Szeliski. Kalman Filter-based Algorithms for
Estimating Depth in Image Sequences. Int. Journal of Computer Vision, vol. 3, no. 3, pages
209–238, 1989. 84
[Mebarki et al. 2010] R. Mebarki, A. Krupa et F. Chaumette. 2D ultrasound probe complete guidance
by visual servoing using image moments. IEEE Trans. on Robotics, vol. 26, no. 2, pages 296–
306, April 2010. 115
[Mezouar & Allen 2002] Y. Mezouar et P.K. Allen. Visual servoed micropositioning for protein mani-
pulation tasks. In IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, volume 2, Octobre
2002. 109, 115
132 Bibliographie
[Mezouar & Chaumette 2002] Y. Mezouar et F. Chaumette. Avoiding self-occlusions and preserving
visibility by path planning in the image. Robotics and Autonomous Systems, vol. 41, no. 2,
pages 77–87, Novembre 2002. 40, 67, 114
[Mezouar & Chaumette 2003] Y. Mezouar et F. Chaumette. Optimal camera trajectory with image-
based control. Int. Journal of Robotics Research, IJRR, vol. 22, no. 10, pages 781–804, October
2003. 114
[Mezouar et al. 2002] Y. Mezouar, A. Remazeilles, P. Gros et F. Chaumette. Image interpolation for
image-based control under large displacement. In IEEE Int. Conf. on Robotics and Automation,
ICRA’02, volume 3, pages 3787–3794, Washington DC, USA, May 2002. 41
[Mezouar et al. 2007] Y. Mezouar, M. Prats et P. Martinet. External hybrid vision/force control. In
International Conference on Advanced Robotics, ICAR’07, August 2007. 114
[Miyabe et al. 2003] T. Miyabe, A. Konno et M. Uchyiama. Automated Object Capturing with a Two-
arm Flexible Manipulator. In IEEE Int. Conf. on Robotics and Automation, Taipei, Taiwan,
2003. 107, 115
[Morbidi & Prattichizzo 2009] F. Morbidi et D. Prattichizzo. Range estimation from moving camera :
an Immersion and Invariance approach. In IEEE 2009 International Conference on Robotics
and Automation, Kobe, Japan, May 2009. 84, 87
[Morel et al. 2005] G. Morel, P. Zanne et F. Plestan. Robust visual servoing : bounding the task
function tracking errors. Control Systems Technology, IEEE Transactions on, vol. 13, no. 6,
pages 998 – 1009, nov. 2005. 113
[Morin & Samson 2003] Pascal Morin et Claude Samson. Practical stabilization of driftless systems
on lie groups : The transverse function approach. IEEE Transactions on Automatic Control,
vol. 48, no. 9, pages 1496–1508, September 2003. 114
[Nageotte et al. 2006] F. Nageotte, P. Zanne, C. Doignon et M. ; de Mathelin. Visual Servoing-Based
Endoscopic Path Following for Robot-Assisted Laparoscopic Surgery. In IEEE/RSJ Internatio-
nal Conference on Intelligent Robots and Systems, pages 2364 – 2369, Beijing, China, October
2006. 115
[Nakamura 1990] Y. Nakamura. Advanced robotics : Redundancy and optimization. Addison-Wesley,
1990. 51
[Ogawa et al. 2005] N. Oku Ogawa, K. Hashimoto et M. Ishikawa. Microrobotic Visual Control of
Motile Cells Using High-Speed Tracking System. IEEE Trans. Robot., vol. 21, no. 4, pages
704–712, 2005. 109, 115
[Ohya et al. 1998] A. Ohya, A. Kosaka et A. Kak. Vision-based navigation by a mobile robot with obs-
tacle avoidance using a single-camera vision and ultrasonic sensing. IEEE Trans. on Robotics
and Automation, vol. 14, no. 6, pages 969–978, 1998. 114
[Oliensis 2002] J. Oliensis. Exact Two-Image Structure from Controlled Motion. IEEE Trans. on
Pattern Analysis and Machine Intelligence, vol. 24, no. 12, pages 1618–1633, Décembre 2002.
83
[Osa et al. 2010] T. Osa, C. Staub et A. Knoll. Framework of automatic robot surgery system using
Visual servoing. In Intelligent Robots and Systems (IROS), 2010 IEEE/RSJ International
Conference on, pages 1837 –1842, oct. 2010. 115
[Ouadah et al. 2009] N. Ouadah, V. Cadenat, F. Boudjema et M. Hamerlain. Image based robust visual
servoing on human face to improve human/robot interaction. In ECMR, Mlini/Dubrovnik,
Croatia, Septembre 2009. 95
Bibliographie 133
[Sanderson & Weiss 1980] A.C. Sanderson et L.E. Weiss. Image based visual servo control using re-
lational graph error signal. In Proc. Int. Conf. on Cybernetics and Society, Cambridge, UK,
Octobre 1980. 112
[Schramm & Morel 2006] F. Schramm et G. Morel. Ensuring visibility in calibration-free path planning
for image-based visual servoing. IEEE Trans. Robotics, vol. 22, no. 4, pages 848–854, 2006. 67,
114
[Schramm et al. 2004] Florian Schramm, Guillaume Morel, Alain Micaelli et Anne Lottin. Extended-
2D Visual Servoing. In International Conference on Robotics and Automation, pages 267–273,
2004. 113
[Segvic et al. 2009] S. Segvic, A. Remazeilles, A. Diosi et F. Chaumette. A mapping and localization
framework for scalable appearance-based navigation. Computer Vision and Image Understan-
ding, vol. 113, no. 2, pages 172–187, February 2009. 38, 88
[Shimoda et al. 2005] S. Shimoda, Y. Kuroda et K. Iagnemma. Potential Field Navigation of High
Speed Unmanned Ground Vehicles on Uneven Terrain. In IEEE International Conference on
Robotics and Automation, 2005. 40
[Shirai & Inoue 1973] Y. Shirai et H. Inoue. Guiding a robot by visual feedback in assembling tasks.
Pattern Recognition, vol. 5, no. 2, pages 99–106, 1973. 111, 115
[Siciliano & Slotine 1991] B. Siciliano et J-J. Slotine. A general framework for managing multiple
tasks in highly redundant robotic systems. In International Conference on Advanced Robotics
(ICAR), pages 1211 – 1216, 1991. 51
[Siegwart & Nourbakhsh 2004] R. Siegwart et I.R. Nourbakhsh. Introduction to autonomous mobile
robots. A bradford book, Intelligent robotics and autonomous agents series. The MIT Press,
2004. 37, 38, 40
[Sony 2001] Sony. SONY DFW-VL 500 and DFW-V 500. Rapport technique, Sony, 2001. 44, 117
[Souères & Cadenat 2003] P. Souères et V. Cadenat. Dynamical sequence of multi-sensor based tasks
for mobile robots navigation. In SYROCO, Wroclaw, Poland, Septembre 2003. 53, 56, 57, 58,
62, 63, 114
[Souères et al. 1998] P. Souères, T. Hamel et V. Cadenat. A path following controller for wheeled
robots which allows to avoid obstacles during the transition phase. In IEEE Int. Conf. on
Robotics and Automation, Leuven, Belgium, Mai 1998. 62
[Swain 1999] Ricardo Swain. Contrôle de tâches référencées vision pour la navigation d’un robot mobile
en milieu structuré. PhD thesis, Université Paul Sabatier Toulouse 3, 1999. 53, 115
[Tahri 2004] O. Tahri. Utilisation des moments en asservissement visuel et en calcul de pose. PhD
thesis, Université de Rennes I, 2004. 114
[Tamadazte et al. 2009] B. Tamadazte, N. Le Fort-Piat, S. Dembélé et E. Marchand. Microassembly of
complex and solid 3D MEMS by 3D vision-based control. In IEEE/RSJ Int. Conf. on Intelligent
Robots and Systems, Saint-Louis, USA, Octobre 2009. 109
[Tamadazte et al. 2010] B. Tamadazte, E. Marchand, S. Dembélé et N. Le Fort-Piat. CAD model based
tracking and 3D visual-based control for MEMS microassembly. The Int. Journal of Robotics
Research, IJRR, vol. 29, no. 11, pages 1416–1434, September 2010. 115
[Tarbouriech & Souères 2010] S. Tarbouriech et P. Souères. Image-based Visual Servo Control De-
sign with Multi-Constraint Satisfaction. In Visual servoing via advanced numerical methods.
Springer Verlag, 2010. 114
Bibliographie 135
[Taylor & Ostrowski 2000] C. Taylor et J. Ostrowski. Robust vision based pose control. In IEEE In-
ternational conference on robotics and automation, volume 3, pages 2734–2740, San Francisco,
California, USA, 2000. 113
[Thrun et al. 2000] S. Thrun, W. Burgard et D. Fox. A real time algorithm for mobile robot mapping
with applications to multi-robot and 3d mapping. In IEEE International Conference on Robotics
and Automation, San Francisco, CA, USA, April 2000. 37
[Triggs et al. 2000] B. Triggs, P. McLauchlan, R. Hartley et A. Fitzgibbon. Bundle adjustment - A
modern synthesis. In Vision Algorithms : Theory and Practice. Springer- Verlag, 2000. 84
[Tsakiris et al. 1996] D. P. Tsakiris, C. Samson et P. Rives. Vision-based time-varying stabilization of
a mobile manipulator. In ICARCV, Westin Stamford (Singapore), Décembre 1996. 60, 115
[Tsakiris et al. 1997] D.P. Tsakiris, P. Rives et C. Samson. Applying visual servoing techniques to
control non-holonomic mobile robots. In Proceedings of the workshop on new trends in image-
based robot servoing (IROS’97), Grenoble, France, September 1997. 60
[Tsakiris et al. 1998] D.P. Tsakiris, P. Rives et C. Samson. The confluence of vision and control,
chapitre Extending Visual Servoing Techniques to Nonholonomic Mobile Robots. Springer-
Verlag, 1998. 60
[Utkin 1992] V.I. Utkin. Sliding modes in control optimization. Springer-Verlag, 1992. 96, 97, 99
[Vahrenkamp et al. 2008] N. Vahrenkamp, S. Wieland, P. Azad, D. Gonzalez, T. Asfour et R. Dill-
mann. Visual Servoing for Humanoid Grasping and Manipulation Tasks. In IEEE/RAS Inter-
national Conference on Humanoid Robots (Humanoids), pages 406–412, 2008. 115
[Vassalo et al. 2000] R. Vassalo, H. Schneebeli et J. Santos-Victor. Visual servoing and appearance
for navigation. Robotics and autonomous systems, 2000. 88, 89, 115
[Victorino & Rives 2004] A.C. Victorino et P. Rives. An hybrid representation well-adapted to the
exploration of large scale indoors environments. In IEEE International Conference on Robotics
and Automation, pages 2930–2935, New Orleans, USA, 2004. 37, 38, 39
[Vitrani et al. 2007] M.A. Vitrani, G. Morel, Mitterhofer H. et N. Bonnet. Robust ultrasound-based
visual servoing for beating heart intracardiac surgery. In ICRA, Roma, italy, 2007. 115
[Weiss 1984] L.E. Weiss. Dynamic visual servo control of robots : an adaptive image-based approach.
PhD thesis, The Robotics Institute, Carnegie Mellon University, Pittsburgh, PA, USA, 1984.
112
[Wunsch & Hirzinger 1997] P. Wunsch et G. Hirzinger. Real-Time visual tracking of 3D objects with
dynamic handling of occlusion. In IEEE Int. Conf. on Robotics and Automation, Albuberque,
Mexico, Avril 1997. 67
[Zanne et al. 2000] P. Zanne, G. Morel et F. Plestan. Robust Vision Based 3d Trajectory Tracking
Using Sliding Mode Control. In IEEE International Conference on Robotics and Automation,
San Francisco, USA, 2000. 96
[Zanne et al. 2003] P. Zanne, G. Morel et F. Plestan. A robust 3D vision-based control and planning.
In IEEE International Conference on Robotics and Automation, Taipei, Taiwan, May 2003.
114
Troisième partie
Sélection d’articles
Les cinq publications jointes à ce manuscrit sont les suivantes :
– Treating image loss using the vision/motion link : a generic framework. D. Folio, V. Cadenat.
Computer Vision, édité par : Xiong Zhihui ; IN-TECH ; 538p., N˚ISBN 978-953-7619-21-3, No-
vembre 2008, Chapitre 4.
– A comparison of two sequencing techniques to perform a vision-based navigation task in a clutte-
red environment. V. Cadenat, D. Folio, A. Durand Petiteville. Accepté dans Advanced Robotics
(à paraître courant 2012).
– Dealing with visual features loss during a vision-based task for a mobile robot. D. Folio, V.
Cadenat. International Journal of Optomechatronics, special issue on visual servoing, Vol. 2,
No 3, pp. 185–204, Juillet 2008.
– A reactive path-following controller to guarantee obstacle avoidance during the transient phase.
V. Cadenat, P. Souères, T. Hamel. International Journal of Robotics and Automation, Vol. 21,
No 4, pp. 256–265, 2006.
– 2D visual servoing for a long range navigation in a cluttered environment. A. Durand Petiteville,
S. Hutchinson, V. Cadenat and M. Courdesses. 50th IEEE Conference on Decision and Control
and European Control Conference, 12–15 décembre 2011, Orlando, FL, USA.
Contribution à la navigation d’un robot mobile par commande référencée
multi-capteurs
Résumé : Dans ce manuscrit, nous nous intéressons au problème de la navigation d’un robot mobile
par commande référencée multi-capteurs. Notre objectif est d’effectuer des tâches de navigation gui-
dées par la vision dans des environnements d’intérieur structurés peu connus, possiblement évolutifs
et où l’homme peut être présent. Les missions considérées pourront inclure de longs déplacements
et consisteront à positionner le robot vis-à-vis d’un amer ou d’une personne d’intérêt. Leur position
dans la scène étant inconnue, ils seront repérés par la vision. Afin de pouvoir réaliser de telles mis-
sions, différents problèmes doivent être traités : le mouvement vers le but, l’évitement d’obstacles, le
traitement des occultations, la réalisation de longs déplacements. Si les trois premiers points ont un
caractère intrinsèquement local, le dernier nécessite des compétences globales.
Les travaux que nous avons menés cherchent à répondre à ces différents problèmes. Tout d’abord,
nous nous sommes focalisés sur les aspects « locaux ». Nous avons ainsi exploité l’asservissement
visuel 2D pour réaliser la tâche de navigation nominale et permettre au robot de converger vers un
amer ou une personne d’intérêt. Cependant, bien que cette technique présente de bonnes propriétés
de robustesse, elle ne permet pas à elle seule de traiter efficacement les problèmes de collisions et
d’occultations. Une de nos premières contributions a donc consisté en le développement de stratégies
de commande garantissant la non collision en présence d’obstacles non occultants. Sur la base de
ces résultats, nous nous sommes intéressés à la gestion des occultations et avons développé des
algorithmes permettant de reconstruire les indices visuels lorsque ceux-ci sont indisponibles. Nous
les avons ensuite couplés à nos stratégies de commande afin que le robot puisse évoluer à partir
des indices visuels réels ou reconstruits selon le cas. L’association de ces différents techniques et
algorithmes a permis de réaliser efficacement des tâches de navigation référencées vision en présence
d’obstacles occultants et non occultants. Cependant, elle nécessite que l’amer ou la personne d’intérêt
soit visible dès le début de la mission, ce qui n’est pas le cas lorsque l’on souhaite réaliser de longs
déplacements. Nos dernières contributions sont donc focalisées sur ce problème. Afin de conférer au
robot les compétences globales nécessaires, nous avons couplé une carte topologique représentant
l’environnement à un algorithme de supervision gérant la stratégie de commande. Le robot est
ainsi devenu capable d’effectuer de longs déplacements dans des scènes peu connues. L’ensemble de
ces travaux a été validé en simulation et expérimentalement sur les différents robots à disposition.
Les résultats obtenus montrent la pertinence de l’approche proposée et ouvrent des perspectives
prometteuses dans et hors du contexte de la navigation.